Щоденні новини Odaily Planet 14 травня (минулого вівторка) за східним часом головний науковий співробітник OpenAI Ілля Суцкевер офіційно оголосив про свою відставку. Того ж дня Ян Лейке, один із керівників команди OpenAI Super Alignment, також оголосив про свою відставку. У п’ятницю OpenAI також підтвердив, що «Команда вирівнювання суперінтелекту», якою керували Сузьково та Ян Лейк, була розпущена. Рано вранці 18 травня Джейн Лейк опублікувала 13 твітів на соціальній платформі X, розкриваючи справжню причину своєї відставки та додаткову інсайдерську інформацію. У відповідь на екстрену інформацію Джейн Лейк Альтман також опублікував термінову відповідь 18 травня: «Я дуже вдячний Джейн Лейк за його внесок у дослідження супервирівнювання ШІ та культуру безпеки OpenAI, і мені дуже сумно, що він залишив На жаль, у нас ще багато роботи, і ми згодні з тим, що я напишу більш детальну статтю щодо цього питання Новину про розпуск команди «Super Alignment» Маск прокоментував так: «Це показує, що безпека не є головним пріоритетом OpenAI. Підсумовуючи, один полягає в тому, що обчислювальних ресурсів недостатньо, а інший полягає в тому, що OpenAI недостатньо платить Джейн Лейк сказав, що потрібно інвестувати більше ресурсів і енергії в підготовку до нових моделей штучного інтелекту, але поточний шлях розвитку не може успішно досягти мети, і його команда зіткнулася з величезними проблемами в останні кілька місяців. Важко отримати достатні обчислювальні ресурси. Джейн Лейк також підкреслила, що створення машин, які перевершують людський інтелект, повне ризиків, і OpenAI бере на себе цю відповідальність, але культура безпеки та процеси повинні бути маргіналізовані в гонитві за розробкою продукту 17-го року рада директорів компанії OpenAI намагалася звільнити компанію з безпеки Suzkweil зосередив свою увагу на тому, щоб штучний інтелект не завдавав шкоди людям, тоді як інші, в тому числі Альтман, більше прагнули просувати нові технології.Журнал Wired повідомив, що Сусквейл був одним із чотирьох членів правління, які звільнили Альтмана в листопаді минулого року. Джерела в компанії повідомили Vox.com, що працівники, які піклуються про безпеку, втратили довіру до Ultraman: «Це процес довіри, що поступово руйнується, як кістки доміно, що падають одна за одною». Вони вважають, що Ultraman стверджує, що ставить безпеку на перше місце, але суперечить сам собі своєю поведінкою. На веб-сайті технічного блогу США TechCrunch 18 числа було сказано, що OpenAI відмовився від досліджень безпеки і натомість запустив нові продукти, такі як GPT-4o, що зрештою призвело до відставки двох лідерів команди «Super Alignment». Незрозуміло, коли і чи досягне індустрія технологій прорив, необхідний для створення штучного інтелекту, здатного виконувати будь-яке завдання, яке може виконати людина. (Всесвітня мережа)