Ein Gehirn saugt neuronale Netze ein

Anthropic nutzt deine Daten für KI-Training - einfach so!

Warum du jetzt aktiv handeln musst, wenn du deine Daten schützen willst

Ein Gehirn saugt neuronale Netze ein
gpt-image-1 | All-AI.de

EINLEITUNG

Anthropic ändert den Umgang mit Chat-Daten in seiner Plattform Claude. Wer den neuen Bedingungen bis zum 28. September nicht widerspricht, erlaubt dem Unternehmen, seine Chats künftig zum Training neuer KI-Modelle zu verwenden. Die Inhalte können dann bis zu fünf Jahre gespeichert werden. Betroffen sind alle privaten Nutzer – von Claude Free bis Claude Max. Unternehmen, Behörden und API-Zugänge sind ausgenommen. Brisant ist dabei vor allem die Art, wie Anthropic die Zustimmung einholt.

NEWS

Stillschweigende Zustimmung statt freiwilliger Auswahl

Zum ersten Mal will Anthropic Daten aus Chats gezielt fürs KI-Training nutzen. Bisher war das nicht der Fall. Die neue Regelung betrifft nur neue oder erneut geöffnete Gespräche. Wer nichts tut, stimmt automatisch zu. Diese Zustimmung verlängert auch die Speicherzeit deutlich – von bisher 30 Tagen auf bis zu fünf Jahre. Nur durch aktives Deaktivieren der Trainingsfreigabe bleibt es bei der kurzen Frist.

Laut Anthropic soll das helfen, die Entwicklung neuer Modelle verlässlicher zu gestalten. Denn wenn sich die Datengrundlage nicht ständig verändert, können die Modelle über Jahre hinweg konsistenter reagieren. Wer später seine Meinung ändert, kann das Training wieder abschalten. Bereits verwendete Inhalte lassen sich jedoch nicht mehr aus früheren Modellen entfernen.

Kritik an der Benutzerführung

Besonders heftig wird das neue Pop-up kritisiert, mit dem Anthropic die Umstellung umsetzt. Der „Akzeptieren“-Button ist auffällig gestaltet und lädt zum schnellen Klicken ein. Der entscheidende Schalter, der über die Nutzung der Daten fürs KI-Training entscheidet, ist dagegen klein, unauffällig platziert und bereits aktiviert.

Solche Methoden werden als „Dark Patterns“ bezeichnet – also Designs, die Nutzer bewusst in eine Richtung lenken. Laut europäischem Recht gilt eine Zustimmung nur dann als gültig, wenn sie freiwillig, eindeutig und gut informiert erfolgt. Vorausgewählte Optionen oder versteckte Hinweise reichen dafür nicht. Ob Datenschützer aktiv werden, ist noch offen – aber der Vorwurf steht im Raum.

Vergleich mit anderen Anbietern

Anthropic orientiert sich mit dieser Änderung an einem Vorgehen, das bei anderen KI-Diensten längst Standard ist. Auch bei ChatGPT sind persönliche Daten standardmäßig für das Training freigegeben, wenn man das nicht selbst ändert. Allerdings war dort die Regel von Anfang an bekannt. Bei Anthropic ist es eine neue Richtlinie – und betrifft daher auch bestehende Nutzer.

Geschäftskunden sind in beiden Fällen außen vor. Chats über Claude for Work, API-Zugänge oder Bildungsangebote werden nicht für das Training verwendet. Für Privatanwender bedeutet das aber: Wer Claude weiter nutzen will, muss aktiv handeln.

DEIN VORTEIL - DEINE HILFE

Kostenlose News und Tutorials – mit minimaler Werbung und maximalem Mehrwert. Damit das so bleibt und wir uns stetig verbessern können, freuen wir uns über deine Unterstützung.

Teile diesen Beitrag

Folge uns auf Social Media

Keine KI-News mehr verpassen und direkt kommentieren!

Unterstütze uns direkt

Mit einer YouTube-Mitgliedschaft (ab 0,99 €) oder einmalig über PayPal. So helft ihr uns, unabhängig neue Tools zu testen und noch mehr Tutorials für euch zu erstellen. Vielen Dank für euren Support!

KURZFASSUNG

  • Anthropic will künftig Chatverläufe privater Claude-Nutzer zum Training neuer KI-Modelle nutzen – stillschweigende Zustimmung vorausgesetzt.
  • Wer bis zum 28. September nicht widerspricht, erlaubt die Speicherung und Nutzung der Inhalte für bis zu fünf Jahre.
  • Kritik gibt es vor allem wegen manipulativer Benutzerführung und versteckter Voreinstellungen.
  • Nur durch aktives Abschalten des Trainingsopt-ins bleiben die alten Datenschutzbedingungen erhalten.

QUELLEN