TLDR

  • Die brasilianische Datenschutzbehörde (ANPD) hat Meta verboten, brasilianische personenbezogene Daten zum Trainieren seiner KI-Modelle zu verwenden.

  • Die Entscheidung folgt auf die Aktualisierung der Datenschutzrichtlinie von Meta im Mai, die es dem Unternehmen erlaubte, öffentliche Facebook-, Instagram- und Messenger-Daten für das KI-Training zu verwenden.

  • ANPD spricht von einer „unmittelbaren Gefahr einer schwerwiegenden und irreparablen Schädigung“ der Grundrechte der Nutzer.

  • Meta hat fünf Arbeitstage Zeit, um der Aufforderung nachzukommen, andernfalls drohen ihm tägliche Geldstrafen in Höhe von 50.000 Reais (ca. 8.808 US-Dollar).

  • Zuvor hatte es in der Europäischen Union ähnliche Gegenwehr seitens der Regulierungsbehörden gegeben.

Die brasilianische nationale Datenschutzbehörde (ANPD) hat einen Schritt zum Schutz der Privatsphäre ihrer Bürger unternommen, indem sie Meta angewiesen hat, keine brasilianischen personenbezogenen Daten mehr zum Trainieren seiner künstlichen Intelligenzmodelle zu verwenden.

Diese am Dienstag angekündigte Entscheidung ist eine Reaktion auf die jüngste Aktualisierung der Datenschutzrichtlinie von Meta, die dem Unternehmen die Erlaubnis erteilte, öffentliche Beiträge, Bilder und Bildunterschriften von Facebook, Instagram und Messenger für KI-Trainingszwecke zu verwenden.

Das Urteil der ANPD spricht von einem „unmittelbaren Risiko eines schweren und irreparablen Schadens“ für die Grundrechte brasilianischer Nutzer. Mit über 102 Millionen Facebook-Nutzern und 113 Millionen Instagram-Nutzern in Brasilien stellt das Land einen bedeutenden Markt für Meta dar, weshalb diese Entscheidung besonders folgenreich ist.

Die Bedenken der Agentur sind nicht unbegründet. Ein aktueller Bericht von Human Rights Watch enthüllte, dass LAION-5B, einer der größten Bildunterschriften-Datensätze, die zum Trainieren von KI-Modellen verwendet werden, identifizierbare Fotos brasilianischer Kinder enthält.

Diese Entdeckung löste Alarm aus, was das Potenzial für Deepfakes und andere Formen der Ausbeutung anbelangt, und verdeutlichte die dringende Notwendigkeit strengerer Datenschutzmaßnahmen.

Gemäß der Anordnung der ANPD hat Meta fünf Arbeitstage Zeit, um die Einhaltung der Richtlinie nachzuweisen. Dazu muss Meta seine Datenschutzrichtlinie ändern und die Verwendung personenbezogener Daten aus öffentlichen Posts für KI-Trainings ausschließen. Andernfalls drohen Geldstrafen von 50.000 Reais (ca. 8.808 $ oder 6.935 £).

Meta äußerte als Reaktion auf die Entscheidung seine Enttäuschung und erklärte, dass ihr Ansatz den lokalen Datenschutzgesetzen entspreche. Ein Unternehmenssprecher sagte:

„Dies ist ein Rückschritt für Innovation und Wettbewerb in der KI-Entwicklung und verzögert es weiter, den Menschen in Brasilien die Vorteile der KI zukommen zu lassen.“

Allerdings begrüßen Verfechter des Datenschutzes und Experten für Datensicherheit die proaktive Haltung der ANPD.

Pedro Martins von Data Privacy Brasil wies auf Diskrepanzen zwischen den Datenschutzmaßnahmen von Meta für brasilianische und europäische Benutzer hin.

In Europa hatte Meta geplant, Daten von Nutzern unter 18 Jahren vom KI-Training auszuschließen, während in Brasilien möglicherweise Beiträge von Kindern und Teenagern eingeschlossen waren. Martins merkte auch an, dass der Opt-out-Prozess für brasilianische Nutzer komplizierter sei und möglicherweise bis zu acht Schritte benötige, verglichen mit einem unkomplizierteren Prozess in Europa.

Diese Entscheidung der brasilianischen ANPD spiegelt ähnliche Bedenken wider, die in der Europäischen Union geäußert wurden. Im Juni unterbrach Meta seine Pläne, KI-Modelle mit den Daten europäischer Benutzer zu trainieren, nachdem die irische Datenschutzkommission eine entsprechende Anfrage erhalten hatte. Das Unternehmen hatte ursprünglich geplant, die Richtlinienänderung am 26. Juni in Europa umzusetzen, doch dies wurde bis zur weiteren Überprüfung auf Eis gelegt.

Der Widerstand gegen Metas Datenerfassungspraktiken für das KI-Training ist Teil einer breiteren globalen Diskussion über Privatsphäre, Datenschutz und die ethische Entwicklung künstlicher Intelligenz.

Für Meta könnte dieser Rückschlag in Brasilien, nach ähnlichen Herausforderungen in Europa, eine Neubewertung seiner globalen KI-Strategie erzwingen. Das Unternehmen muss sich in einer zunehmend komplexen Regulierungslandschaft zurechtfinden und gleichzeitig seine KI-Entwicklungsziele verfolgen.

Der Beitrag „Brasilien zieht eine Grenze: Meta muss persönliche Daten vom KI-Training ausschließen“ erschien zuerst auf Blockonomi.