Соучредитель Ethereum Виталик Бутертин поделился своим взглядом на «сверхразумный» искусственный интеллект (ИИ), назвав его «рискованным» в ответ на продолжающуюся смену руководства в OpenAI.

19 мая Cointelegraph сообщил, что бывший руководитель отдела согласования OpenAI Ян Лейке подал в отставку после того, как заявил, что достиг «переломного момента» в отношениях с руководством по основным приоритетам компании.

Лейке заявил, что «культура и процессы безопасности отошли на второй план по сравнению с блестящими продуктами» в OpenAI, при этом многие указывали на разработки в области общего искусственного интеллекта (AGI).

Ожидается, что AGI станет типом искусственного интеллекта, равным или превосходящим человеческие когнитивные способности. Мысль об этом уже начала беспокоить экспертов отрасли, которые говорят, что мир недостаточно оборудован для управления такими сверхразумными системами искусственного интеллекта.

Это мнение, похоже, совпадает со взглядами Бутерина. В сообщении на X он поделился своими текущими мыслями по этой теме, подчеркнув, что нам не следует спешить с действиями или сопротивляться тем, кто пытается.

Источник: Виталик Бутерин

Бутерин подчеркнул, что открытые модели, работающие на потребительском оборудовании, являются «защитой» от будущего, в котором небольшой конгломерат компаний сможет читать и передавать большую часть человеческих мыслей.

«Такие модели также гораздо менее опасны с точки зрения риска гибели, чем корпоративная мания величия и военные».

Это его второй комментарий за последнюю неделю об искусственном интеллекте и его растущих возможностях.

16 мая он заявил, что модель GPT-4 OpenAI уже превзошла тест Тьюринга, который определяет «человечность» модели ИИ. Он процитировал новое исследование, в котором утверждается, что большинство людей не могут расшифровать слова, разговаривая с машиной.

Связанный: Новая функция отзыва Microsoft «Черное зеркало» записывает все, что вы делаете

Однако Бутерин не первый, кто выражает такую ​​обеспокоенность. Правительство Соединенного Королевства также недавно внимательно изучило растущее участие крупных технологических компаний в секторе искусственного интеллекта, поднимая вопросы, связанные с конкуренцией и доминированием на рынке.

Такие группы, как 6079 AI, уже появляются в Интернете, выступая за децентрализацию ИИ, чтобы он оставался более демократичным и не доминировал над крупными технологиями.

Источник: 6079.ai

Это последовало за уходом еще одного старшего члена руководства OpenAI 14 мая, когда Илья Суцкевер, соучредитель и главный научный сотрудник, объявил о своей отставке.

Суцкевер не упомянул о каких-либо опасениях по поводу AGI. Однако в своем посте на X он выразил уверенность, что OpenAI разработает AGI, который будет «безопасным и полезным».

Журнал: «Натравливайте ИИ друг на друга», чтобы предотвратить апокалипсис ИИ: Дэвид Брин, автор научной фантастики