[20.4.2023] Die Datenschutzaufsichtsbehörden des Bundes und der Länder befassen sich mit datenschutzrechtlichen Fragestellungen der Verarbeitung personenbezogener Daten durch ChatGPT und ähnliche KI-Anwendungen. In Italien droht dem Anbieter OpenAI bereits eine Strafzahlung gemäß Datenschutz-Grundverordnung.
Der Einsatz von Lösungen für die Text- und Sprachverarbeitung auf Basis Künstlicher Intelligenz (KI) wird von immer mehr Unternehmen und Behörden erprobt. Dabei gilt es aber zunächst, datenschutzrechtliche Fragestellungen der Verarbeitung personenbezogener Daten durch ChatGPT und ähnliche KI-Anwendungen zu klären. Wie der Thüringer Landesbeauftragter für den Datenschutz und die Informationsfreiheit, Lutz Hasse, mitteilt, befasst sich damit nun auch die Konferenz der unabhängigen Datenschutzaufsichtsbehörden des Bundes und der Länder (Datenschutzkonferenz). Zu klärende Fragen seien etwa, wie mit personenbezogenen Daten der Nutzer oder Dritter umgegangen werde. Wer speichere sie, zu welchem Zweck und wie lange? Um eine eigene datenschutzrechtliche Beurteilung speziell der Lösung ChatGPT vornehmen zu können, seien jedoch weitergehende Informationen – beispielsweise zu den Datenquellen oder zu den Algorithmen hinter der automatisierten Datenverarbeitung und zur Weitergabe an Dritte mit kommerziellen Interessen – erforderlich und dementsprechend beim Entwickler, der US-amerikanischen Firma OpenAI, einzuholen.
In Italien wurde dem Unternehmen durch die dortige Datenschutzbehörde bereits untersagt, personenbezogene Daten von italienischen Bürgerinnen und Bürgern im Rahmen der Anwendung ChatGPT zu verarbeiten. OpenAI ist nun aufgefordert, innerhalb einer bestimmten Frist Gegenmaßnahmen zu präsentieren. Nach Ablauf droht gemäß der EU-Datenschutz-Grundverordnung eine Strafe von bis zu 20 Millionen Euro oder über vier Prozent des weltweiten Unternehmensumsatzes.
(bw)
https://www.tlfdi.dehttps://www.datenschutzkonferenz-online.de
Stichwörter:
IT-Sicherheit,
Datenschutz,
Künstliche Intelligenz,
ChatGPT