41 views 9 mins 0 comments

ChatGPT unter juristischem Zugriff: Warum gelöschte KI-Chats nicht mehr wirklich gelöscht sind

In Aktuelles
Juni 23, 2025
Chat GPT

Was passiert mit unseren Daten, wenn wir sie löschen? Diese Frage wird in Zeiten künstlicher Intelligenz neu verhandelt – vor allem seit ein US-Gericht OpenAI verpflichtet hat, alle Chatverläufe, auch vermeintlich gelöschte, unbefristet zu speichern. Diese Entwicklung könnte weitreichende Folgen für den Datenschutz, die Nutzerwahrnehmung und das Vertrauen in KI-Systeme haben. Und sie betrifft nicht nur OpenAI – sondern die gesamte Branche.

Gerichtliche Anordnung kippt Löschfunktion: Hintergrund des Urteils

Am 13. Mai 2025 hat das US-Bezirksgericht des Northern District of New York angeordnet, dass OpenAI alle Ausgabelogs seiner KI-Modelle – darunter ChatGPT – vollständig, dauerhaft und systematisch speichert. Diese Maßnahme erfolgt im Rahmen eines laufenden Urheberrechtsverfahrens, das die New York Times gegen OpenAI führt. Dabei geht es um den Vorwurf, ChatGPT habe journalistische Inhalte der Zeitung ohne Genehmigung reproduziert.

Konkret zielt die richterliche Anordnung darauf ab, sämtliche Chatdaten – auch solche, die von Nutzern aktiv gelöscht wurden – zu archivieren. Dies soll sicherstellen, dass potenzielle Beweise für Urheberrechtsverletzungen erhalten bleiben. Die Maßnahme folgt einem Vorfall Ende 2024, als OpenAI im Zuge einer sogenannten „Discovery“-Anfrage der NYT versehentlich relevante Daten gelöscht hatte.

Wer ist betroffen – und wer nicht?

Die neue Pflicht zur Datenaufbewahrung betrifft nicht alle ChatGPT-Nutzer gleichermaßen. Laut OpenAI fallen folgende Gruppen unter die neue Regelung:

    • Nutzer der kostenlosen Version von ChatGPT

 

  • API-Kunden ohne vertraglich vereinbarte Zero-Data-Retention (ZDR)

 

Ausgenommen sind hingegen:

  • Enterprise-Kunden mit eigenem Datenrahmen
  • Bildungseinrichtungen, die ChatGPT-Edu verwenden
  • API-Kunden mit aktivierter Zero-Data-Retention

Für letztere gelten weiterhin interne Löschfristen, was sie zu einer datenschutzrechtlich attraktiveren Alternative macht – insbesondere für Unternehmen oder Institutionen mit hohen Compliance-Anforderungen.

OpenAIs Reaktion: Ein notwendiges Übel?

OpenAI äußerte sich kritisch gegenüber der Anordnung. Das Unternehmen erklärte in einem öffentlichen Statement, man werde die geforderten Daten zwar speichern, diese aber in einem isolierten, streng gesicherten System ablegen. Zugriff hätten nur wenige, intern autorisierte Personen – ausschließlich zu rechtlichen Zwecken.

Der Tenor ist dennoch eindeutig: OpenAI betrachtet die Maßnahme als überzogen und hat Berufung eingelegt. Man sehe darin einen unverhältnismäßigen Eingriff in die informationelle Selbstbestimmung der Nutzer und befürchtet langfristige Konsequenzen für das Vertrauen in KI-Technologien.

Juristische Grauzone: US-Recht trifft auf EU-DSGVO

Besonders brisant ist der Umstand, dass diese gerichtliche Anordnung auch Nutzer außerhalb der USA betrifft – also auch in Europa. Hier kollidiert US-Recht direkt mit europäischen Datenschutzgrundlagen, insbesondere der Datenschutz-Grundverordnung (DSGVO).

Während US-Recht über die sogenannte „Duty to Preserve“ verpflichtet, potenzielle Beweise langfristig zu sichern, kennt die DSGVO das „Recht auf Vergessenwerden“ (Art. 17). Zudem verbietet Art. 48 DSGVO die Weitergabe personenbezogener Daten an Drittstaaten, sofern keine internationale Vereinbarung besteht. Das Ergebnis ist eine rechtliche Grauzone, die sowohl für Unternehmen als auch für Endnutzer schwer durchschaubar ist.

Technische Implikationen: Löschung bleibt eine Illusion

Auch technisch gesehen wirft die Anordnung Fragen auf. Zwar behauptet OpenAI, gelöschte Daten würden in gesonderten Systemen verbleiben, doch Studien zeigen, dass Sprachmodelle wie GPT häufig sogenannte „Residuals“ von Trainingsdaten im Modell behalten – selbst wenn diese gelöscht werden. Das vollständige Entfernen spezifischer Inhalte ist für KI-Systeme bislang eine ungelöste Herausforderung.

Diese Problematik betrifft nicht nur OpenAI. Auch andere große Modelle wie Google Gemini, Meta LLaMA oder Anthropic Claude basieren auf ähnlicher Trainingslogik – eine flächendeckende datenschutzkonforme Umsetzung bleibt technisch schwer realisierbar.

Ein Streitfall mit Symbolkraft: Die Rolle der New York Times

Im Zentrum des juristischen Verfahrens steht die Frage, ob ChatGPT urheberrechtlich geschützte Inhalte der New York Times reproduziert hat. Dabei geht es nicht nur um einfache Textwiedergaben, sondern um das Muster, dass Nutzer Inhalte löschen, nachdem sie sich Material generieren ließen, das aus urheberrechtlich geschützten Quellen stammt. Die Anklage will mit gelöschten Chatdaten belegen, dass OpenAI durch sein Design eine sogenannte „induced infringement“ ermöglicht habe – also eine systematische Beihilfe zur Urheberrechtsverletzung.

Die Klage wird international aufmerksam verfolgt, da sie grundsätzliche Fragen über die Verantwortung von KI-Plattformen für Nutzungszwecke aufwirft. Sollte die New York Times erfolgreich sein, könnten weitere Verlage und Rechteinhaber folgen.

Reaktionen aus der Fachwelt: Datenschutz, Ethik und Vertrauen

Datenschützer sehen in der Anordnung eine gefährliche Entwicklung. Insbesondere Organisationen wie die National Network to End Domestic Violence warnen davor, dass Nutzer in sensiblen Situationen – etwa in Fällen von Gewalt oder psychischer Not – nicht mehr auf die Vertraulichkeit ihrer Chatverläufe vertrauen können.

Ein Reddit-Kommentar bringt es auf den Punkt:

„Wenn alles, was du sagst, für immer gespeichert werden muss – dann ist das keine KI-Hilfe mehr, sondern Überwachung.“

Auch ethische Bedenken werden laut. Kritiker fragen, wie offen Menschen noch mit KI-Systemen kommunizieren werden, wenn die Grundannahme, Inhalte löschen zu können, nicht mehr gilt.

Branchenweite Implikationen: Ein globales Problem

Die Anordnung gegen OpenAI könnte sich als Präzedenzfall erweisen – mit Konsequenzen für alle Anbieter generativer KI. Experten warnen davor, dass Gerichte künftig verstärkt auf die umfassende Archivierung von Nutzerdaten pochen, insbesondere wenn KI-Modelle öffentlich verfügbar sind und keine dedizierte Datenabschottung erfolgt.

Sprachmodelle werden weltweit zur Grundlage für Geschäftsanwendungen, kreative Prozesse, Bildung und medizinische Beratung. Umso größer sind die potenziellen Risiken, wenn sensible Inhalte dauerhaft in Logdateien verbleiben. Unternehmen, die auf diese Technologien setzen, müssen künftig verstärkt auf Zero-Retention-APIs und datenschutzkonforme Rahmen achten.

Ein juristischer und strategischer Ausweg: Das „AI-Privileg“

Als Reaktion auf den Vertrauensverlust schlägt OpenAI ein neues rechtliches Schutzkonzept vor: das sogenannte „AI-Privileg“. Analog zum Anwaltsgeheimnis oder ärztlichen Schweigerecht soll es einen gesetzlichen Rahmen schaffen, innerhalb dessen Gespräche mit KI-Systemen als besonders schützenswert gelten.

Ob dieser Vorschlag angenommen wird, bleibt abzuwarten – doch er zeigt, wie ernst OpenAI das Problem der Glaubwürdigkeit und Privatsphäre nimmt. Sollte sich dieses Modell durchsetzen, könnte es die Beziehung zwischen Mensch und KI neu definieren – nicht nur technisch, sondern auch rechtlich und gesellschaftlich.

Was Nutzer jetzt tun sollten

Wer ChatGPT regelmäßig nutzt – sei es privat oder beruflich – sollte nun genau prüfen, unter welchen Bedingungen seine Daten gespeichert werden. Folgende Maßnahmen bieten sich an:

  • Keine sensiblen oder personenbezogenen Informationen in kostenlosen oder Plus-Versionen verwenden
  • Falls möglich, auf ChatGPT Enterprise oder Edu mit abgeschirmtem Speichermechanismus wechseln
  • Bei API-Nutzung: Zero-Data-Retention aktivieren
  • DSGVO-Konformität des eigenen Unternehmens prüfen lassen, insbesondere bei transatlantischer Datennutzung

Fazit: Ein Wendepunkt im Verhältnis von KI und Datenschutz

Die Entscheidung des US-Gerichts gegen OpenAI markiert eine neue Phase im Umgang mit künstlicher Intelligenz. Die Löschfunktion, lange Zeit Garant für Privatsphäre, hat durch juristische Eingriffe an Wirkung verloren. Nutzer müssen sich darauf einstellen, dass gelöschte nicht gleich vergessene Inhalte bedeuten – zumindest nicht, solange rechtliche Interessen bestehen.

Gleichzeitig zeigt der Fall, dass die Regulierung von KI erst am Anfang steht. Weder Technik noch Gesetzgebung haben bislang eine klare Antwort auf die Frage gefunden, wie der Mensch im Dialog mit Maschinen geschützt werden kann. Ob das vorgeschlagene „AI-Privileg“ den Durchbruch bringt oder neue juristische Konflikte erzeugt – das wird die Zukunft zeigen.

Fest steht: Der „Löschen“-Button ist nicht mehr das, was er einmal war.

Avatar
Redaktion / Published posts: 1508

Als Autor für das Magazin "Nah am digitalen Rand" verbinde ich meine Germanistik-Expertise mit einem unstillbaren Interesse für redaktionell spannende Themen. Meine Leidenschaft gilt der Erforschung und dem Verständnis der digitalen Evolution unserer Sprache, ein Bereich, der mich stets zu tiefgründigen Analysen und Artikeln inspiriert.