Laut Odaily setzen sich dreizehn ehemalige und aktuelle Mitarbeiter von OpenAI (ChatGPT), Anthropic (Claude) und DeepMind (Google) sowie führende Experten für künstliche Intelligenz für einen stärkeren Schutz von Hinweisgebern ein. Ziel ist es, die Öffentlichkeit für die Risiken zu sensibilisieren, die mit fortgeschrittenen Systemen künstlicher Intelligenz verbunden sind.

Diese Personen, die an vorderster Front der KI-Entwicklung und -Forschung stehen, sind der Ansicht, dass ein verstärkter Schutz derjenigen, die potenzielle Gefahren und unethische Praktiken in diesem Bereich aufdecken, von entscheidender Bedeutung ist. Damit soll sichergestellt werden, dass die Öffentlichkeit gut über die potenziellen Risiken und Herausforderungen informiert ist, die fortschrittliche KI-Systeme mit sich bringen können.

Der Ruf nach einem stärkeren Schutz von Hinweisgebern kommt zu einem Zeitpunkt, an dem die KI-Technologie rasch voranschreitet und ihre Integration in verschiedene Bereiche der Gesellschaft immer stärker voranschreitet. Daher ist die Notwendigkeit von Transparenz und Rechenschaftspflicht in diesem Bereich wichtiger denn je. Die Befürworter glauben, dass die Öffentlichkeit durch den Schutz derjenigen, die bereit sind, über diese Themen zu sprechen, besser in der Lage sein wird, die Komplexität fortschrittlicher KI-Systeme zu verstehen und zu steuern.