Am 25. Juni schickte OpenAI eine offizielle E-Mail an API-Benutzer (Application Interface), in der es sie darüber informierte, dass ab dem 9. Juli der API-Verkehr aus Regionen, die nicht in der Liste der unterstützten Länder und Regionen enthalten sind, blockiert wird, wenn Sie ihn weiterhin verwenden möchten Die Dienste von OpenAI erfordern Zugriff in einer unterstützten Region.

Zeitweise gab es unterschiedliche Meinungen und die Medien bezeichneten den Schritt von OpenAI sogar als „Versorgungsunterbrechung“. Manche glauben, dass es an der Politik der Vereinigten Staaten zur Unterdrückung Chinas liegt; andere denken, dass es darum geht, zu verhindern, dass große inländische Modelle gefangen werden, und an Korpus zu gelangen. Tatsächlich hat OpenAI seine Dienste nie für den Inlandsmarkt geöffnet, und die „Unterbrechung des Angebots“ ist übertrieben. Genauer gesagt bedeutet dies, dass es das Verbot verschärft. Daher befinden sich alle Unternehmen in meinem Land, die API-Schnittstellen aufrufen, im Wesentlichen in einem nicht konformen Zustand und halten sich nicht an die Richtlinien von OpenAI oder die nationalen Gesetze. Wohin sollten diese Unternehmen als nächstes gehen?

Migrieren Sie mit dem Trend

Im Juli 2023 haben die Cyberspace Administration of China und relevante Abteilungen die „Interim Measures for the Management of Generative Artificial Intelligence Services“ ins Leben gerufen, die weltweit erste Sondergesetzgebung für generative künstliche Intelligenz. Den Maßnahmen zufolge müssen Anbieter generativer künstlicher Intelligenz Daten und Basismodelle aus rechtlichen Quellen verwenden. OpenAI hat jedoch keine Algorithmenanmeldungen, Einreichungen generativer künstlicher Intelligenzdienste usw. gemäß inländischen regulatorischen Anforderungen durchgeführt. Gleichzeitig werden GPT-Dienste gemäß den Richtlinien von OpenAI chinesischen Benutzern nicht bereitgestellt.

Aufgrund der „doppelten Illegalität“ ist der Betrieb von „Shell“-Anwendungen, die die OpenAI-API-Schnittstelle verwenden, jederzeit untersagt, was für ein langfristiges Projekt keine gute Sache ist. Der Grund dafür, dass die inländische Aufsicht immer noch ein gewisses Maß an „Toleranz“ beibehält, liegt darin, dass sich die Branche schließlich noch in einem frühen Entwicklungsstadium befindet und auch die Intensität der Strafverfolgung einen Prozess von locker zu streng durchlaufen hat. Dieses Verbot durch OpenAI kann inländische Projekte dazu zwingen, sich der Compliance-Entwicklung zuzuwenden.

In der aktuellen Situation ist die Auswahl inländischer KI-Modelle für die Migration zu einer der Schlüssellösungen geworden, die alle Anwendungen in Betracht ziehen müssen, die offene API-Schnittstellen verwenden. Gleichzeitig haben auch inländische Großmodelle keine Zeit damit verschwendet, „Umsiedlungs“-Pläne auf den Weg zu bringen.

Durch die Migration können die Funktionen der ursprünglichen Anwendung stabil gehalten werden, und die Anwendung und das dahinter stehende Unternehmen können auch Vertragsverletzungsprobleme vermeiden, die durch den Verlust der OpenAI-API verursacht werden. Zusätzlich zur Prüfung der Kostenleistung können Anwendungen großen Modellen Vorrang einräumen, die über generative künstliche Intelligenzdienste registriert wurden, um neue Compliance-Probleme zu vermeiden. Es ist erwähnenswert, dass bis März 2024 insgesamt 117 große Modelle in unserem Land bei der Cyberspace Administration of China registriert sind.

Seit der Ankündigung von OpenAI wurde jedoch in einigen Artikeln vorgeschlagen, dass Anwendungen, die die OpenAI-API verwenden, zu Azure OpenAI migriert werden können. Als Grund wird angegeben, dass Microsoft mit OpenAI kooperiert und chinesischen Benutzern die Nutzung nicht verboten hat. Können diese Apps diese Empfehlung übernehmen und wie konform sind sie?

Azure OpenAI

Schauen wir uns zunächst an, was Azure OpenAI ist. Azure OpenAI ist ein von Microsoft bereitgestellter Dienst, der den REST-API-Zugriff auf große OpenAI-Sprachmodelle ermöglicht, darunter GPT-4, GPT-4 Turbo mit Vision, GPT-3.5-Turbo und die eingebettete Modellreihe. Der Azure OpenAI-Dienst wird vollständig von Microsoft kontrolliert; Microsoft hostet OpenAI-Modelle in der Azure-Umgebung und der Dienst interagiert nicht mit irgendwelchen von OpenAI betriebenen Diensten (wie ChatGPT oder der OpenAI-API). Darüber hinaus beteiligte sich auch Microsoft an diesem Migrations- und Kundenfest nach dem Vorfall der „Abkündigung“ von OpenAI. Im Gegensatz zu OpenAI schränkt Azure OpenAI die Nutzung durch chinesische Benutzer nicht ein. Dies wurde sowohl in der offiziellen Öffentlichkeit als auch in mündlichen Antworten von Mitarbeitern bestätigt. Paradoxerweise scheint jedoch in einem offiziellen Dokument zum verfügbaren Servicebereich des Produkts darauf hinzuweisen, dass es in China nicht verfügbar ist. Wenn sich chinesische Unternehmen, die die OpenAI-API-Schnittstelle für KI-Projekte nutzen, für die Migration ihrer Projekte auf Azure OpenAI entscheiden, können sie sich dann in Sachen Compliance entspannt zurücklehnen?

Fragwürdige Compliance

Als globaler Dienst verfügt Microsoft über eine umfassende Daten-Compliance-Richtlinie. Wenn Sie versprechen, dass die Daten nicht für OpenAI zugänglich sein werden, werden sie nicht zur Verbesserung von OpenAI oder den Produkten und Diensten von Microsoft verwendet und können jederzeit gelöscht werden, um die Generierung schädlicher Inhalte zu verhindern und den Anforderungen der EU zu entsprechen DSGVO und ISO 27001, ISO 27002 und ISO 27018. Nach Angaben von Mankiws Anwalt ist die Compliance-Richtlinie von Azure OpenAI jedoch nicht speziell an chinesische Gesetze angepasst. Daher bleibt die Compliance der Verwendung von Azure OpenAI in den folgenden Bereichen fraglich.

Zweifel 1: Datenexport

Die China-Dienste von Azure werden vom inländischen Unternehmen 21Vianet betrieben, das Rechenzentrum befindet sich in China. Aber Azure OpenAI ist ein globaler Dienst und das Rechenzentrum befindet sich außerhalb Chinas. Wenn inländische Betreiber kritischer Informationsinfrastrukturen oder andere Datenverarbeiter sensible personenbezogene Daten, personenbezogene Daten oder wichtige Daten, die einen bestimmten Standard überschreiten, übermitteln, müssen sie bei der nationalen Abteilung für Cybersicherheit und Informatisierung eine Bewertung der Datenexportsicherheit beantragen und eine Zertifizierung zum Schutz personenbezogener Daten bestehen. Dies stellt einen enormen Compliance-Kosten für inländische Benutzer dar, und da Azure OpenAI selbst nachweislich die inländische Bewertung und Zertifizierung nicht bestanden hat, ist es schwierig, einen reibungslosen Ablauf zu garantieren.

Zweifel 2: Einreichung nicht abgeschlossen

Gemäß den „Internet Information Service Algorithm Recommendation Management Regulations“, „Internet Information Services Deep Synthesis Management Regulations“ und „Interim Measures for the Management of Generative Artificial Intelligence Services“ jeder generative künstliche Intelligenzdienst, der über öffentliche Meinungsmerkmale oder soziale Mobilisierungsfähigkeiten verfügt muss eine Sicherheitsbewertung durchführen und die Algorithmus- und Modellarchivierungsverfahren durchführen. Nach der Suche hat Azure OpenAI die Registrierung von Algorithmen und großen Modellen nicht abgeschlossen. Für Nutzer, die Dienstleistungen für die inländische Öffentlichkeit erbringen möchten, ist es daher schwierig nachzuweisen, dass sie ein Basismodell aus rechtlichen Quellen nutzen und andere regulatorische Anforderungen erfüllen.

Zusammenfassung: Azure OpenAI ist eine Option für Unternehmen, die es für interne Forschung und Entwicklung sowie für den Betrieb nutzen möchten, aber nicht für die Öffentlichkeit zugänglich sind und keine persönlichen Informationen oder wichtigen Daten betreffen. Darüber hinaus müssen die Compliance-Risiken der Verwendung von Azure OpenAI bestehen sorgfältig ausgewertet. Da mir keine vollständigen Informationen vorliegen, habe ich versucht, die Konformität von Azure OpenAI anhand öffentlicher Informationen zu analysieren. Bei sachlichen Unstimmigkeiten wenden Sie sich bitte zur Korrektur an Microsoft.

Worst-Case-Szenario

Einige Insider haben vorgeschlagen, dass Beschränkungen umgangen werden können, indem man ausländische Server nutzt oder Reverse-Proxys erstellt. Diese Lösung besteht darin, der Blockade mit technischen Mitteln entgegenzuwirken, kann jedoch keine Compliance-Probleme lösen. Im Gegenteil, dadurch erhöht sich das Risiko für die Datensicherheit und den Datenschutz. In Bezug auf den Betrieb können die inländischen Apple- und Android-Anwendungsmärkte solche Anwendungen entfernen. Auch die Stabilität der Anwendungsdienste ist ein großes Fragezeichen.

Zusammenfassung

Da OpenAI die Nutzung seiner APIs in China einschränkt, müssen bestehende inländische KI-Unternehmen Compliance-Risiken sorgfältig abwägen, wenn sie die Migration von Daten zu Azure OpenAI oder anderen internationalen Diensten in Betracht ziehen. Gleichzeitig sollten Unternehmen angesichts der rechtlichen Herausforderungen, die neue Technologien mit sich bringen, möglicherweise aktiv nach lokalisierten Lösungen suchen, anstatt blind nach „Ersatz“ zu suchen, um eine konforme Entwicklung in der sich ständig verändernden technologischen Umgebung zu erreichen.