Według Odaily trzynastu byłych i obecnych pracowników OpenAI (ChatGPT), Anthropic (Claude) i DeepMind (Google) wraz z czołowymi ekspertami w dziedzinie sztucznej inteligencji opowiada się za silniejszą ochroną sygnalistów. Celem jest zwiększenie świadomości społecznej na temat zagrożeń związanych z zaawansowanymi systemami sztucznej inteligencji.

Osoby te, stojące na czele rozwoju i badań nad sztuczną inteligencją, uważają, że kluczowa jest zwiększona ochrona osób ujawniających potencjalne zagrożenia i nieetyczne praktyki w tej dziedzinie. Ma to na celu zapewnienie, że społeczeństwo będzie dobrze poinformowane o potencjalnych zagrożeniach i wyzwaniach, jakie mogą stwarzać zaawansowane systemy sztucznej inteligencji.

Wezwanie do silniejszej ochrony sygnalistów pojawia się w czasie, gdy technologia sztucznej inteligencji szybko się rozwija i jej integracja z różnymi sektorami społeczeństwa staje się coraz bardziej powszechna. W związku z tym potrzeba przejrzystości i odpowiedzialności w tej dziedzinie jest ważniejsza niż kiedykolwiek. Zwolennicy uważają, że chroniąc tych, którzy chcą wypowiadać się na te tematy, społeczeństwo będzie lepiej przygotowane do zrozumienia i poruszania się po złożoności zaawansowanych systemów sztucznej inteligencji.