OpenAI стикається з виходом ключового дослідника з безпеки
За даними TechCrunch, Ліліан Вень, провідний дослідник безпеки в OpenAI, оголосила про свій вихід з компанії. Вень, яка обіймала посаду Віце-президента з досліджень і безпеки, розкрила своє рішення в п'ятницю, заявивши, що готова шукати нові можливості після семи років роботи в стартапі. Її останній день буде 15 листопада, хоча вона не розкрила своїх майбутніх планів. Вень висловила гордість за досягнення команди систем безпеки та впевненість у їхньому подальшому успіху.
Вихід Вена є частиною ширшої тенденції до звільнень в OpenAI, де протягом минулого року кілька дослідників безпеки та політики штучного інтелекту залишили компанію. Деякі критикували OpenAI за пріоритетність комерційних інтересів над безпекою штучного інтелекту. Вень приєднується до інших відомих фігур, таких як Ілля Сутскевер і Ян Лейке, які також залишили OpenAI цього року, щоб зосередитися на безпеці штучного інтелекту в інших місцях. Вень спочатку приєдналася до OpenAI у 2018 році, зробивши внесок у команду робототехніки, яка розробила роботизовану руку, здатну розв'язувати кубик Рубіка. Коли OpenAI змінила свій фокус на парадигму GPT, Вень перейшла до створення команди прикладних досліджень штучного інтелекту у 2021 році і пізніше очолила створення спеціалізованої команди систем безпеки у 2023 році.