OpenAI hat vor Kurzem GPT-4o vorgestellt, sein neuestes KI-Modell, das Text-, Sprach- und Bildfunktionen enthält. GPT-4o wird als große Verbesserung gegenüber seinen Vorgängern in puncto Geschwindigkeit und Funktionalität angepriesen und steht den Nutzern kostenlos zur Verfügung. Dieser kostenlose Dienst hat jedoch einen versteckten Preis: die Daten der Nutzer.

Lesen Sie auch: OpenAI stellt ChatGPT-4o vor: Freier Zugriff mit Einschränkungen

„Es wird für alle Benutzer kostenlos sein und für zahlende Benutzer gelten weiterhin bis zu fünfmal höhere Kapazitätsgrenzen als für kostenlose Benutzer.“

OpenAI-CTO Mira Murati 

KI-Tool beschlagnahmt Inhalte von Drittanbietern und weckt Datenschutzbedenken

GPT-4o sammelt umfangreiche Benutzerdaten, darunter Texte, Audioaufnahmen und Bilder. Diese Datensammlung geht über die Daten des Benutzers hinaus und umfasst auch die Daten anderer an der Interaktion beteiligter Parteien. Wenn ein Benutzer beispielsweise einen Screenshot eines Artikels der New York Times zur Zusammenfassung hochlädt, behält OpenAI den urheberrechtlich geschützten Inhalt des Screenshots. Diese Praxis ist auch aus Sicht der Privatsphäre und des Urheberrechts recht problematisch, da den Benutzern oft nicht bewusst ist, dass sie Daten teilen, die ihnen nicht gehören.

Lesen Sie auch: Ist die Sicherheit bei OpenAI in den Hintergrund geraten?

„GPT-4o verschlingt nicht nur die eigenen Informationen der Nutzer, sondern auch Daten Dritter, die bei der Interaktion mit dem KI-Dienst offengelegt werden.“

Der Stratege

OpenAI setzt auf „Überwachungskapitalismus“ und profitiert von Daten

Aufgrund des Mangels an geeigneten Trainingsdaten nimmt auch die Qualität der Trainingsdaten ab. Folglich hat OpenAI mehrere Ansätze verwendet, um Daten zu erfassen. Wie die New York Times berichtete, hatte OpenAI Ende 2021 mehr als eine Million Stunden YouTube-Videos transkribiert, was gegen die Regeln von YouTube verstieß.

Zwar hat Google, der Eigentümer von YouTube, keine Klage eingereicht (möglicherweise weil auch er Daten sammelt), doch dieser Fall zeigt, wie weit KI-Unternehmen gehen, um an Daten zu kommen.

Quelle: Hype Insights

Insbesondere mit GPT-4o sammelt OpenAI schnell eine große Menge benutzergenerierter multimodaler Daten an und verfolgt dabei einen ähnlichen Ansatz wie die Geschäftsmodelle der We-Media-Welt. Bei diesem Modell bieten Technologieplattformen Produkte und Dienste kostenlos an und verdienen Geld durch das Sammeln von Benutzerdaten. Dieser Ansatz spiegelt die allgemeinen Trends des „Überwachungskapitalismus“ wider, bei dem die Unternehmen von der Überwachung der Zielpersonen profitieren.

Auch wenn die Nutzer solchen Aktivitäten zugestimmt haben, bleiben Fragen zu Urheberrechtsverletzungen relevant, so The Times. Dies kann dazu führen, dass Daten weitergegeben werden, die den Nutzern nicht gehören, was wiederum Probleme für die Ersteller von Inhalten schafft. Die Ergebnisse der KI sind oft nicht mit dem ursprünglichen Datensatz zu vergleichen, was es für den Urheberrechtsinhaber schwierig macht, eine Verletzung zu erkennen.

Content-Ersteller ergreifen Maßnahmen und verbieten der KI die Nutzung ihrer Arbeit

Der Einsatz von KI für unerlaubtes Training ist ein echtes Problem, und Content-Ersteller und -Verleger beginnen, Schutzmaßnahmen zu ergreifen. Einige nutzen technologische Maßnahmen, um Datenscraping zu verhindern, während andere ihre Nutzungsbedingungen ändern, um die Verwendung ihrer Inhalte bei der Erstellung von KI zu verbieten. Vor kurzem hat Sony Music Briefe mit einer Unterlassungsaufforderung an mehr als 700 generative KI-Unternehmen und Streaming-Dienste verschickt.

Lesen Sie auch: Prominente Musiker fordern Schutzmaßnahmen gegen den Eingriff der KI

Darüber hinaus haben mehr als 200 Musiker, darunter Billie Eilish, Katy Perry und Smokey Robinson, einen offenen Brief an KI-Entwickler, Technologieunternehmen und digitale Plattformen unterzeichnet. Darin fordern sie die Unternehmen auf, „die Nutzung künstlicher Intelligenz (KI) einzustellen, um die Rechte menschlicher Künstler zu verletzen und abzuwerten“.

Wie Cryptopolitan bereits berichtete, war ChatGPT am frühen Dienstag nicht erreichbar und Benutzer konnten mehrere Stunden lang nicht auf das innovative Tool für künstliche Intelligenz zugreifen. Der Ausfall begann um 00:PDT und wurde hauptsächlich von der Community mobiler Benutzer gemeldet, insbesondere von denen, die die ChatGPT-Android-Anwendung verwenden. Laut DownDetector traten die meisten Probleme beim ChatGPT-Produkt auf und nicht bei der Website oder der Schnittstelle der mobilen Anwendung.

Cryptopolitan-Berichterstattung von Brenda Kanana