Montag, 17. Juli 2023

Wenn die KI zum Datenleck wird

Wenn die KI zum Datenleck wird

Datenschützer warnen schon länger davor, dass die unbedachte Nutzung von Künstlicher Intelligenz (KI) zum Risiko für die Privatsphäre werden kann. Dienste wie ChatGPT sorgen nun für eine einfache Verbreitung von KI in Unternehmen und Haushalten. 

Risiken von KI



Höchste Zeit, den Umgang mit KI zu hinterfragen. 


KI: Mehr als ein nützlicher Assistent

Der Chatbot antwortet druckreif auf jede Frage, oder die App malt ein Bild nach Anweisung und im ge-wünschten Stil – eine breite Öffentlichkeit hat in den vergangenen Wochen und Monaten ausprobiert, was Künstliche Intelligenz inzwischen leisten kann, berichtete der Digitalverband Bitkom. Rund drei Viertel der Bundesbürgerinnen und Bundesbürger (73 Prozent) sind nun der Meinung, dass KI eine Chance ist.


Auch Unternehmen sind offen für KI-Dienste wie ChatGPT & Co: Bereits jedes sechste Unternehmen plant laut Bitkom den KI-Einsatz zur Textgenerierung. „Die aktuellen Entwicklungen in der Künstlichen Intelligenz ermöglichen es uns, erstmals direkt mit der KI zu interagieren, und schaffen völlig neue Einsatzbereiche quer durch alle Branchen“, sagte Bitkom-Präsident Achim Berg. „KI wird künftig zum Büroalltag genauso dazugehören wie heute der PC. KI hat das Potenzial, die massiven Auswirkungen der demografischen Entwicklung und des sich verschärfenden Fachkräftemangels abzufedern.“


Datenschützer sind alarmiert

Datenschutzaufsichtsbehörden weisen auch auf mögliche Risiken hin. KI-Systeme wie ChatGPT, die plötzlich zur Internet-Suche oder zum Schreiben von Texten zu allen möglichen Zwecken Verwendung finden: eine gute Sprachqualität, doch „ausgedachte“ Behauptungen werden wie echte Fakten präsentiert, Betroffenenrechte laufen leer, überzeugende Antworten auf die Fragen des Datenschutzes fehlen, so zum Beispiel das Unabhängige Landeszentrum für Datenschutz Schleswig-Holstein.

Als erste Aufsichtsbehörde in Europa hatte die italienische Datenschutzbehörde der Firma OpenAI unter-sagt, personenbezogene Daten von italienischen Bürgerinnen und Bürgern im Rahmen der Anwendung ChatGPT zu verarbeiten. Zu klären ist insbesondere, wie mit personenbezogenen Daten der Nutzer oder Dritter umgegangen wird. Wer speichert sie, zu welchem Zweck und wie lange?


Neue und verschärfte Sicherheitsrisiken

IT-Sicherheitsforschende warnen davor, dass solche KI-Dienste dafür genutzt werden könnten, bei Cyberangriffen die Opfer leichter zu täuschen, indem zum Beispiel „erfolgreiche“ Phishing-Mails leichter zielgenau erstellt werden können.

Doch auch legitime Nutzerinnen und Nutzer könnten mit solchen KI-Diensten die Datensicherheit aushöhlen, indem sie dem KI-Service vertrauliche Daten übermitteln, die in den Datenbestand des Dienstes auf-genommen, ausgewertet und an Dritte ausgegeben werden könnten. Zum Beispiel könnte womöglich der Versuch, ein Bewerbungsschreiben per KI optimieren zu lassen, zu einer ungewollten Datenweitergabe an Dritte führen.

Verschiedene Unternehmen haben bereits intern Verbote erlassen, vertrauliche Daten in Dienste wie ChatGPT einzutragen. Dieser Gefahr sollten sich aber alle Nutzenden bewusst sein.


Wissen Sie, wie KI-Dienste zum Datenleck werden könnten? Machen Sie den Test! 

Frage: Wenn man in einen KI-Dienst seine eigenen Daten eingibt, damit diese zum Beispiel in einen professionellen Lebenslauf verwandelt werden, bleibt dies vertraulich. Stimmt das?

1. Nein, es ist nicht ohne Weiteres auszuschließen, dass die eingegebenen Daten in den gesamten Datenbestand aufgenommen werden.

2. Ja, jede Nutzung eines KI-Dienstes ist so vertraulich wie ein Gespräch unter vier Augen, nur zwischen KI und Nutzer oder Nutzerin.

Lösung: Die Antwort 1. ist richtig. KI-Dienste sind darauf angelegt, zu „lernen“, also auf die Eingaben der Nutzenden zu reagieren, um die Antworten immer weiter zu optimieren. Dabei ist es die Idee von KI, aus möglichst vielen Quellen Daten zu beziehen. Ob die Daten dann später für andere Zwecke genutzt werden als die ursprünglichen, ist eine Frage an den Datenschutz, den die KI gewährleistet. Automatisch kann man nicht von der Einhaltung der Zweckbindung ausgehen.


Frage: Antworten, die eine KI gibt, sind sorgfältig geprüft und vertrauenswürdig. Ist das so?

1. Ja, jede KI basiert auf einer Qualitätssicherung, sodass man den Ergebnissen vertrauen kann.

2. Nein, die Antworten können fehlerhaft sein. Eine weitere Prüfung ist notwendig.

Lösung: Die Antwort 2. ist richtig. KI-Expertinnen und Experten warnen davor, einer KI einfach zu vertrau-en. KI-Lösungen sind nicht fehlerfrei. Es kann sogar sein, dass Dritte eine KI so trainiert haben, dass sie gezielt falsche Antworten gibt, um zum Beispiel Nutzende zu manipulieren. Dazu werden die Trainingsdaten „vergiftet“. Man spricht von Data Poisoning. Es ist denkbar, dass über Antworten von KI Nutzende zu Aktivitäten verleitet werden sollen, die Sicherheitslücken und Datenpannen nach sich ziehen, wie zum Beispiel die Preisgabe von Zugangsdaten und Geschäftsgeheimnissen.

 


Benötigen Sie Hilfe? Kein Problem!

  Jetzt Kontakt aufnehmen


Das könnte Sie auch interessieren: