Die drei größten Datenschutzprobleme, mit denen KI heute konfrontiert ist – The Daily Hodl

Die drei größten Datenschutzprobleme, mit denen KI heute konfrontiert ist – The Daily Hodl

Quellknoten: 2529611
HodlX Gastbeitrag  Reichen Sie Ihren Beitrag ein

 

KI (künstliche Intelligenz) hat bei Verbrauchern und Unternehmen gleichermaßen für große Aufregung gesorgt - Angetrieben von der leidenschaftlichen Überzeugung, dass LLMs (große Sprachmodelle) und Tools wie ChatGPT die Art und Weise, wie wir lernen, arbeiten und leben, verändern werden.

Doch genau wie in den Anfängen des Internets greifen die Nutzer ein, ohne darüber nachzudenken, wie ihre persönlichen Daten verwendet werden - Einund welche Auswirkungen dies auf ihre Privatsphäre haben könnte.

Es gab bereits unzählige Beispiele für Datenschutzverletzungen im KI-Bereich. Im März 2023 übernahm OpenAI vorübergehend ChatGPT Offline-Bereich. Nach einem „erheblichen“ Fehler konnten Benutzer die Gesprächsverläufe von Fremden einsehen.

Derselbe Fehler betraf die Zahlungsinformationen von Abonnenten - einschließlich Namen, E-Mail-Adressen und teilweiser Kreditkartennummern - waren ebenfalls gemeinfrei.

Im September 2023 wurden unbeabsichtigt unglaubliche 38 Terabyte an Microsoft-Daten gespeichert durchgesickert von einem Mitarbeiter, wobei Cybersicherheitsexperten warnten, dass dies Angreifern die Möglichkeit gegeben hätte, KI-Modelle mit bösartigem Code zu infiltrieren.

Das ist den Forschern auch gelungen manipulieren KI-Systeme dazu verleiten, vertrauliche Aufzeichnungen offenzulegen.

In nur wenigen Stunden gelang es einer Gruppe namens Robust Intelligence, personenbezogene Daten von Nvidia-Software abzufragen und Sicherheitsmaßnahmen zu umgehen, die das System daran hindern sollten, bestimmte Themen zu diskutieren.

In all diesen Szenarien wurden Lehren gezogen, aber jeder Verstoß verdeutlicht eindrucksvoll die Herausforderungen, die bewältigt werden müssen, damit KI zu einer zuverlässigen und vertrauenswürdigen Kraft in unserem Leben wird.

Gemini, der Chatbot von Google, gibt sogar zu, dass alle Gespräche von menschlichen Prüfern verarbeitet werden - Dies unterstreicht den Mangel an Transparenz in seinem System.

„Geben Sie nichts ein, von dem Sie nicht möchten, dass es überprüft oder verwendet wird“, heißt es in einer Warnmeldung an Benutzer.

KI entwickelt sich schnell über ein Werkzeug hinaus, das Schüler für ihre Hausaufgaben verwenden oder auf das sich Touristen bei einer Reise nach Rom verlassen, um Empfehlungen zu erhalten.

Bei sensiblen Diskussionen wird zunehmend darauf zurückgegriffen - und versorgte uns mit allem, von medizinischen Fragen bis hin zu unseren Arbeitsplänen.

Aus diesem Grund ist es wichtig, einen Schritt zurückzutreten und über die drei größten Datenschutzprobleme nachzudenken, mit denen KI heute konfrontiert ist, und darüber, warum sie für uns alle wichtig sind.

1. Eingabeaufforderungen sind nicht privat

Tools wie ChatGPT merken sich vergangene Gespräche, um später darauf zurückgreifen zu können. Dies kann zwar das Benutzererlebnis verbessern und beim Training von LLMs helfen, ist jedoch mit Risiken verbunden.

Wenn ein System erfolgreich gehackt wird, besteht die reale Gefahr, dass Eingabeaufforderungen in einem öffentlichen Forum offengelegt werden.

Potenziell peinliche Details aus dem Verlauf eines Benutzers könnten durchsickern, ebenso wie wirtschaftlich sensible Informationen, wenn KI für Arbeitszwecke eingesetzt wird.

Wie wir bei Google gesehen haben, können alle Einsendungen auch von seinem Entwicklungsteam geprüft werden.

Samsung hat hier im Mai 2023 Maßnahmen ergriffen, als es Mitarbeitern den Einsatz generativer KI-Tools gänzlich verbot. Das kam nach einem Mitarbeiter hochgeladen vertraulicher Quellcode an ChatGPT.

Der Technologieriese befürchtete, dass es schwierig sein würde, diese Informationen abzurufen und zu löschen, was bedeutete, dass geistiges Eigentum (IP) letztendlich an die breite Öffentlichkeit weitergegeben werden könnte.

Apple, Verizon und JPMorgan haben ähnliche Maßnahmen ergriffen. Berichten zufolge hat Amazon eine Razzia eingeleitet, nachdem die Antworten von ChatGPT Ähnlichkeiten mit seinen eigenen internen Daten aufwiesen.

Wie Sie sehen, gehen die Bedenken über das hinaus, was bei einem Datenschutzverstoß passieren würde, sondern gehen auch auf die Möglichkeit, dass in KI-Systeme eingegebene Informationen für andere Zwecke verwendet und an ein breiteres Publikum verteilt werden könnten.

Unternehmen wie OpenAI sind es bereits zugewandt Mehrere Klagen wegen Vorwürfen, dass ihre Chatbots mit urheberrechtlich geschütztem Material trainiert wurden.

2. Von Organisationen trainierte benutzerdefinierte KI-Modelle sind nicht privat

Das bringt uns direkt zu unserem nächsten Punkt - Während Einzelpersonen und Unternehmen ihre benutzerdefinierten LLM-Modelle auf der Grundlage ihrer eigenen Datenquellen erstellen können, sind diese nicht vollständig privat, wenn sie innerhalb der Grenzen einer Plattform wie ChatGPT existieren.

Letztlich lässt sich nicht feststellen, ob Eingaben zum Trainieren dieser riesigen Systeme verwendet werden - oder ob persönliche Informationen in zukünftigen Modellen verwendet werden könnten.

Wie bei einem Puzzle können Datenpunkte aus mehreren Quellen zusammengefügt werden, um einen umfassenden und besorgniserregend detaillierten Einblick in die Identität und den Hintergrund einer Person zu erhalten.

Große Plattformen bieten möglicherweise auch keine detaillierten Erläuterungen dazu, wie diese Daten gespeichert und verarbeitet werden, und es besteht keine Möglichkeit, Funktionen zu deaktivieren, die einem Benutzer unangenehm sind.

Über die Reaktion auf die Eingabeaufforderungen eines Benutzers hinaus verfügen KI-Systeme zunehmend über die Fähigkeit, zwischen den Zeilen zu lesen und alles vom Standort einer Person bis zu ihrer Persönlichkeit abzuleiten.

Im Falle einer Datenschutzverletzung sind schwerwiegende Folgen möglich. Es könnten unglaublich raffinierte Phishing-Angriffe orchestriert werden - und Benutzer, die mit Informationen angegriffen wurden, die sie vertraulich in ein KI-System eingegeben hatten.

Weitere mögliche Szenarien sind die Nutzung dieser Daten, um die Identität einer Person zu ermitteln, sei es durch Anträge auf Eröffnung eines Bankkontos oder durch Deepfake-Videos.

Verbraucher müssen wachsam bleiben, auch wenn sie selbst keine KI nutzen. KI wird zunehmend zur Stromversorgung von Überwachungssystemen und zur Verbesserung der Gesichtserkennungstechnologie an öffentlichen Orten eingesetzt.

Wenn eine solche Infrastruktur nicht in einem wirklich privaten Umfeld aufgebaut wird, könnten die bürgerlichen Freiheiten und die Privatsphäre unzähliger Bürger ohne deren Wissen verletzt werden.

3. Private Daten werden zum Trainieren von KI-Systemen verwendet

Es gibt Bedenken, dass große KI-Systeme ihre Informationen durch das Durchforsten unzähliger Webseiten gewonnen haben.

Schätzungen gehen davon aus, dass 300 Milliarden Wörter zum Trainieren von ChatGPT verwendet wurden - das sind 570 Gigabyte Daten - mit Büchern und Wikipedia-Einträgen unter den Datensätzen.

Es ist auch bekannt, dass Algorithmen auf Social-Media-Seiten und Online-Kommentaren basieren.

Bei einigen dieser Quellen könnte man argumentieren, dass die Eigentümer dieser Informationen berechtigte Erwartungen an den Datenschutz hatten.

Aber hier ist die Sache - Viele der Tools und Apps, mit denen wir täglich interagieren, sind bereits stark von KI beeinflusst - und auf unser Verhalten reagieren.

Die Face ID auf Ihrem iPhone nutzt KI, um subtile Veränderungen in Ihrem Aussehen zu verfolgen.

Die KI-gestützten Algorithmen von TikTok und Facebook geben Inhaltsempfehlungen basierend auf den Clips und Beiträgen, die Sie in der Vergangenheit angesehen haben.

Auch Sprachassistenten wie Alexa und Siri sind stark auf maschinelles Lernen angewiesen.

Es gibt eine schwindelerregende Konstellation von KI-Startups, und jedes hat einen bestimmten Zweck. Allerdings sind einige transparenter als andere darüber, wie Benutzerdaten erfasst, gespeichert und verwendet werden.

Dies ist besonders wichtig, da KI im Gesundheitswesen Auswirkungen hat - von der medizinischen Bildgebung und Diagnose bis hin zur Aktenführung und Pharmazeutika.

Es müssen Lehren aus den Internetunternehmen gezogen werden, die in den letzten Jahren in Datenschutzskandale verwickelt waren.

Flo, eine Gesundheits-App für Frauen, war Angeklagte in den 2010er Jahren von den Aufsichtsbehörden dazu veranlasst, vertrauliche Daten über seine Nutzer an Facebook und Google weiterzugeben.

Was machen wir jetzt

KI wird in den kommenden Jahren einen unauslöschlichen Einfluss auf unser aller Leben haben. LLMs werden von Tag zu Tag besser und es entstehen immer neue Anwendungsfälle.

Es besteht jedoch die reale Gefahr, dass die Regulierungsbehörden Schwierigkeiten haben werden, Schritt zu halten, da sich die Branche in rasender Geschwindigkeit bewegt.

Und das bedeutet, dass Verbraucher damit beginnen müssen, ihre eigenen Daten zu schützen und zu überwachen, wie sie verwendet werden.

Dezentralisierung kann hier eine entscheidende Rolle spielen und verhindern, dass große Datenmengen in die Hände großer Plattformen gelangen.

DePINs (dezentrale physische Infrastrukturnetzwerke) können dafür sorgen, dass alltägliche Benutzer alle Vorteile der KI nutzen können, ohne dass ihre Privatsphäre gefährdet wird.

Verschlüsselte Eingabeaufforderungen können nicht nur weitaus personalisiertere Ergebnisse liefern, sondern LLMs, die die Privatsphäre schützen, würden auch sicherstellen, dass Benutzer jederzeit die volle Kontrolle über ihre Daten haben - und Schutz vor Missbrauch.


Chris Were ist CEO von Verida, ein dezentrales, selbstverwaltetes Datennetzwerk, das es Einzelpersonen ermöglicht, ihre digitale Identität und ihre persönlichen Daten zu kontrollieren. Chris ist ein in Australien ansässiger Technologieunternehmer, der sich mehr als 20 Jahre lang der Entwicklung innovativer Softwarelösungen widmet.

 

Überprüfen Sie die neuesten Schlagzeilen auf HodlX

Folge uns auf Twitter Facebook Telegram

Probieren Sie auch die Neueste Branchenankündigungen  

Haftungsausschluss: Die bei The Daily Hodl geäußerten Meinungen sind keine Anlageberatung. Anleger sollten ihre Due-Diligence-Prüfung durchführen, bevor sie risikoreiche Anlagen in Bitcoin, Kryptowährung oder digitale Vermögenswerte tätigen. Bitte beachten Sie, dass Ihre Transfers und Trades auf eigenes Risiko erfolgen. Für eventuelle Verluste sind Sie verantwortlich. The Daily Hodl empfiehlt weder den Kauf oder Verkauf von Kryptowährungen oder digitalen Vermögenswerten, noch ist The Daily Hodl ein Anlageberater. Bitte beachten Sie, dass The Daily Hodl am Affiliate-Marketing teilnimmt.

Generiertes Bild: Auf halbem Weg

Zeitstempel:

Mehr von Der tägliche Hodl