ChatGPT: Wie sieht es eigentlich mit dem Datenschutz aus?

Künstliche Intelligenz lebt von Daten – und dabei geht der neue Bot ChatGPT noch ein ganzes Stück weiter als die bis dato bekannten Alexa, Siri & Co. In einem Chat kann man dem Programm Fragen stellen oder Anweisungen geben – und bekommt binnen Sekunden einen voll formulierten Aufsatz, eine Rede oder sogar ein Gedicht. (Die Diskussion, wie man an Schulen und Universitäten damit umgehen soll, folgte prompt.) Die Abkürzung „GPT“ steht für „Generative Pre-training Transformer“, denn gelernt hat der Chatbot die menschenähnliche Kommunikation durch das Internet. Im Vorfeld des heutigen Blogartikels habe ich ChatGPT auch gleich einmal selbst ausprobiert. Dabei fällt zunächst (negativ) auf, dass man für die Nutzung einen Account anlegen muss, für den man auch seine E-Mail-Adresse und Telefonnummer verifizieren muss. So hat OpenAI wohl gleich alles beisammen. Der Sinn eines Accounts ist, dass die KI sich so auch an frühere Konversationen „erinnern“ kann und nicht jedes Mal von vorn anfangen muss, etwas über die Person zu lernen.

Bei der Anmeldung warnt das System dann, dass es gelegentlich inkorrekte oder irreführende Informationen generiert und Vorurteile und Beleidigungen reproduziert. Außerdem wird gewarnt, dass die KI nicht dazu entwickelt wurde, Rat zu geben. Bezüglich Datenschutz warnt das nächste Pop-Up-Fenster, dass Unterhaltungen von Trainern zur Verbesserung der KI benutzt werden könnten und dass man bitte keine sensiblen Daten mitteilen solle. Auf der Startseite steht dann auch, dass das Wissen der KI über das Jahr 2021 hinaus begrenzt ist, weil der Datenbestand damals eingepflegt wurde.

Nun aber zum Inhalt. Auf die Frage „Kannst du mir einen Text mit 150 Wörtern schreiben zum Thema ChatGPT und Datenschutz?“ beschreibt die KI erstmal kurz, was ChatGPT ist. Dann sagt sie dass Datenschutz wichtig sei und dass die Entwicklerfirma OpenAI entsprechende Richtlinien dazu entwickelt habe. „OpenAI erfasst nur Daten, die für die Verbesserung der Leistung von ChatGPT erforderlich sind. Zum Beispiel kann es bestimmte Informationen erfassen, um seine Antworten auf die Bedürfnisse des Benutzers zu personalisieren oder um zu verstehen, welche Funktionen am häufigsten genutzt werden. Darüber hinaus verpflichtet sich OpenAI, alle erfassten Daten sicher und vertraulich zu behandeln und sie nicht an Dritte weiterzugeben, es sei denn, dies ist gesetzlich vorgeschrieben oder der Benutzer hat ausdrücklich zugestimmt.“ Ich habe danach nochmals speziell nach der DSGVO gefragt. Am Anfang heißt es in der entsprechenden Antwort noch: „Da ChatGPT personenbezogene Daten verarbeiten kann, muss es im Einklang mit der DSGVO arbeiten.“ Am Schluss heißt es dann aber schon deutlich weniger verbindlich: „Insgesamt ist ChatGPT bestrebt, im Einklang mit der DSGVO zu arbeiten und den Schutz personenbezogener Daten seiner Benutzer sicherzustellen.“ Vielleicht ist es aber auch einfach nur ehrlich. Dazu gleich mehr.

Auf die Frage „Sind meine Daten bei Facebook sicher?“ antwortet ChatGPT zu Recht skeptisch: „Es ist schwierig, die Sicherheit Ihrer Daten bei Facebook vollständig zu gewährleisten.“ Auch auf konkrete Nachfrage will die KI aber nicht ihre Quellen verraten: „Ich habe meine Antwort auf einer breiten Palette von Informationen basiert, einschließlich offizieller Aussagen von Facebook, aktuellen Nachrichtenartikeln, Berichten von unabhängigen Organisationen und Experten, sowie allgemein anerkannten Grundsätzen und Best Practices im Bereich des Datenschutzes und der Informationssicherheit. Als künstliche Intelligenz habe ich keinen Zugang zu bestimmten Quellen oder Ressourcen, sondern greife auf eine breite Palette von öffentlich zugänglichen Informationen zurück, um eine umfassende und genaue Antwort zu liefern.“ Gelegentlich wird ChatGPT sehr „kreativ“ mit der Wahrheit. Anstatt zuzugeben, dass sie etwas nicht weiß, erfindet sie dann einfach Fakten. Auf die Frage, welches Säugetier die größten Eier lege, meinte sie zu einer Nutzerin: Der Elefant – seine Eier seien etwa 20 cm groß und mehr als 2 Kilogramm schwer. Bei meiner aktuellen Recherche kam nun allerdings die richtige Antwort auf diese Frage. Aber: Wenn falsch generierte Informationen im Internet landen, könnte die KI sie immer wieder aufgreifen, wenn sie das Netz nach Antworten durchsucht, und sich so selbst bestätigen.

Außerdem hat sie keinen wirklichen Filter, kann sich durchaus antisemitisch und rassistisch äußern und auch zu Straftaten anleiten, z.B. wie man eine betrügerische Mail generiert, wie man beim Enkeltrick vorgehen kann oder wie man in eine Wohnung einbricht und dort gegen angetroffene Bewohner ggf. Waffen oder physische Gewalt einsetzt. Denn obwohl in Kenia Menschen für nicht einmal zwei Dollar pro Stunde der KI beibringen mussten, was toxische Inhalte sindindem sie diese angucken und sortieren mussten – ist sie eben nur ein Abbild dessen, was man im Internet an Daten findet und kann (noch) nicht immer zwischen „Gut“ und „Böse“ unterscheiden.

Beinahe selbstverständlich gibt es auch Bedenken beim Datenschutz. Die Anwendung stammt aus den USA, entsprechend werden alle Daten dorthin übermittelt. Die KI nimmt die Daten aller User auf, speichert und verarbeitet diese, um sich selbst weiterzuentwickeln. Auf absehbare Zeit wird es wohl keine DSGVO-konforme Lösung geben; denn in Europa entwickelte Konkurrenzprodukte gibt es leider keine. (Noch nicht mal Google hat eines parat.) Daher sollte ChatGPT derzeit keinesfalls im Unternehmensbereich angewandt werden. OpenAI sagt zwar, dass es keine personenbezogenen Daten speichert. Aber mit dem Hype und Millionen neuen Nutzern auf einen Schlag mag das einerseits logistisch schwierig sein; andererseits gehört geistiges Eigentum von Unternehmen wahrscheinlich nicht zu dem, was die KI unter personenbezogenen Daten versteht.

Nicht ohne Grund warnen selbst Amazon und Microsoft ihre Mitarbeiter davor, vertrauliche Informationen an ChatGPT weiterzugeben, da der Hersteller OpenAI nicht transparent damit umgehe, was mit sensiblen Unternehmensinformationen, von denen die KI erfährt, funktioniert. Dabei hat Microsoft kräftig selbst in die KI investiert und kürzlich auch einen weiter entwickelten Nachfolger (mit aktuellen Informationen) in die Bing-Suche inkludiert. Die Microsoft-Deutschland-Chefin warnt, dass die EU technologisch weiter hinter den USA und China zurückfallen könnte, u.a. wegen „zu viel“ Datenschutz, und hofft auf mehr Offenheit gegenüber neuer Technologie.

Um dafür den Rahmen zu setzen, arbeitet die EU schon seit 2021 am „Artifical Intelligence Act“, dem ersten Gesetz weltweit, das KI in sämtlichen Lebensbereichen regulieren und den sicheren, ethischen, grundrechtskonformen und EU-weit einheitlichen Einsatz von KI sicherstellen soll. So soll das Potenzial von KI-Anwendungen ausgeschöpft werden, ohne dass gesellschaftlicher Schaden entsteht. Da das Thema wahrhaftig Neuland ist, wurde nun schon fast zwei Jahre verhandelt, umgeschrieben, gestrichen und ergänzt.

Grundsätzlich ist geplant, KI-Systeme in verschiedene Risiko-Kategorien zu unterteilen, in denen sie je nach Einstufung unterschiedlich strengen Vorschriften unterliegen. Besonders strenge Regeln gelten für Anwendungen, die als hoch riskant eingestuft werden. Darunter fallen z.B. solche Texte, von denen man fälschlicherweise annehmen könnte, dass sie von einem Menschen geschrieben wurden; oder KI-Anwendungen, die Video- oder Ton-Inhalte generieren, in denen Personen etwas tun oder sagen. Die Betreiber müssten laut Entwurf eine Risikoabschätzung durch Dritte einholen, menschliche Kontrollinstanzen und Mindeststandards für die Sicherheit etablieren, sowie Transparenz schaffen und eine hohe Datenqualität sicherstellen. Außerdem soll eine kontinuierliche Risiko-Überwachung und -Bewertung Pflicht werden. Wenn der AI Act so in Kraft tritt, kommt auf die Betreiber ein deutlicher Mehraufwand zu – falls sie sich nicht ganz und gar dagegen entscheiden, in der EU aktiv zu sein.

Foto: Adobe Stock | Limitless Visions

Weitere Artikel

Konfigurationsbox öffnen