Odaily Planet Daily News OpenAI- und Google DeepMind-Mitarbeiter äußerten gemeinsam Bedenken, dass fortschrittliche KI enorme Risiken birgt und dringend gestärkt werden muss. Als Reaktion darauf gab OpenAI heute eine Erklärung heraus, in der es sein Engagement für die Bereitstellung leistungsstarker und sicherer Systeme für künstliche Intelligenz hervorhebt. OpenAI erklärte, dass wir angesichts der Bedeutung der KI-Technologie mit dem Inhalt des offenen Briefs einverstanden sind und dass die Art und Weise, wie ernsthafte Diskussionen geführt werden können, von entscheidender Bedeutung ist, um die Entwicklung der KI-Technologie besser voranzutreiben. Wir werden weiterhin mit Regierungen, der Zivilgesellschaft und anderen Gemeinschaften auf der ganzen Welt zusammenarbeiten, um gemeinsam eine harmonische KI-Umgebung zu schaffen. Die Einbeziehung anonymer Integritäts-Hotlines und Sicherheitsausschüsse (Safety and Security Committee), an denen Vorstandsmitglieder und Sicherheitsverantwortliche des Unternehmens beteiligt sind, sind allesamt wirksame Mittel zur Regulierung von KI. OpenAI weist darauf hin, dass das Unternehmen keine neue KI-Technologie veröffentlichen wird, bis die erforderlichen Sicherheitsvorkehrungen getroffen sind. Das Unternehmen bekräftigte seine Unterstützung für staatliche Regulierung und seine Teilnahme an der Freiwilligen Selbstverpflichtung zur Sicherheit künstlicher Intelligenz. Als Reaktion auf Bedenken hinsichtlich Vergeltungsmaßnahmen bestätigte ein Sprecher, dass das Unternehmen die Nichtverunglimpfungsvereinbarungen aller ehemaligen Mitarbeiter gekündigt und solche Klauseln aus den Standard-Trennungsdokumenten entfernt habe. (IT House) Heute haben 13 ehemalige und aktuelle Mitarbeiter von OpenAI (ChatGPT), Anthropic (Claude), DeepMind (Google) und Experten auf dem Gebiet der künstlichen Intelligenz die Petition „Right to Warning Artificial Intelligence“ gestartet. Ziel der Petition ist es, sich für einen stärkeren Whistleblower-Schutz einzusetzen, um das öffentliche Bewusstsein für die Risiken fortschrittlicher Systeme der künstlichen Intelligenz zu schärfen. Der ehemalige OpenAI-Mitarbeiter William Saunders meinte, dass es beim Umgang mit potenziell gefährlichen neuen Technologien Möglichkeiten geben sollte, Informationen über die Risiken mit unabhängigen Experten, Regierungen und der Öffentlichkeit auszutauschen.