Бывший генеральный директор Google Эрик Шмидт предупредил разработчиков искусственного интеллекта о необходимости контролировать потолок своего развития. Он также подчеркнул важность победы США в продолжающейся гонке искусственного интеллекта (ИИ) против Китая.

Выступая в воскресенье на программе This Week с Джорджем Стефанопулосом на канале ABC News, Шмидт предостерег от возможности систем ИИ работать независимо и даже совершенствоваться.

«Скоро мы сможем заставить компьютеры работать самостоятельно, решая, что им делать», — сказал Шмидт.

Шмидт: ИИ не должен оставаться без контроля

Шмидт снова подчеркнул риски неограниченного развития продвинутого ИИ, отметив, что системы, способные к самосовершенствованию, представляют собой значительную опасность.

«Когда система может самосовершенствоваться, нам нужно серьезно подумать о том, чтобы отключить ее», — сказал бывший генеральный директор Google.

Когда Стефанопулос спросил Шмидта, могут ли такие AI-системы противодействовать попыткам их отключить, Шмидт ответил: «Что ж, теоретически, нам лучше иметь кого-то с рукой на штекере — метафорически».

Хотя опасения по поводу экзистенциальных рисков ИИ растут, некоторые эксперты утверждают, что такие страхи преувеличены. Профессор Ник Дженнингс, вице-проректор по исследованиям в Имперском колледже Лондона, относится к тем, кто отвергает предсказания конца света.

Дженнингс утверждает, что хотя ИИ может превосходить в конкретных задачах, создание систем с человеческим интеллектом в различных областях остается далеко за пределами текущих возможностей ученых.

«Разработка ИИ, который выполняет одну задачу очень хорошо, достижима», объяснил Дженнингс. «Но создание общего ИИ, который отражает человеческий интеллект в различных областях, не то, чего мы можем ожидать в ближайшем будущем».

Разные мнения о угрозах ИИ

Тем временем, среди ведущих исследователей ИИ остаются опасения, которые предупреждают о рисках, связанных с плохо определенными целями и недостаточными мерами безопасности. Профессор Стюарт Рассел из UC Berkeley и постдокторант Майкл Коэн утверждают, что мощные системы ИИ в конечном итоге могут представлять экзистенциальную угрозу для человечества, если их оставить без контроля.

В аналитической статье, опубликованной в Science Journal, Рассел и Коэн призвали к более строгому контролю за развитием ИИ. Они подчеркнули необходимость для технологических компаний доказать безопасность своих ИИ-систем перед их выходом на рынок. Без четких целей и надежных мер предосторожности продвинутые системы ИИ могут действовать против интересов человека, утверждают они.

«Если цели этих ИИ конфликтуют с целями людей, это может обернуться катастрофой», — написали Рассел и Коэн. Они считают, что технологические компании должны нести ответственность за обеспечение безопасности своих систем и определение критических «красных линий», которые ИИ никогда не должен пересекать.

Растущая дискуссия о безопасности ИИ

Быстрый темп развития ИИ уже создал вызовы, включая распространение дезинформации, социальную поляризацию и алгоритмическую предвзятость. Опасения по поводу безопасности и регулирования еще не успели идти в ногу с развитием технологий.

Комментарии Шмидта отражают растущую срочность среди лидеров отрасли в решении этих проблем. Эксперты, такие как Илон Маск, давно призывают к превентивному регулированию для снижения рисков ИИ.

Маск, который однажды описал ИИ как «наибольшую угрозу, с которой мы сталкиваемся как цивилизация», предупредил, что власти сделали мало для решения его опасностей. Аналогично, физик Стивен Хокинг опасался, что достижение сингулярности, момента, когда машины превзойдут человеческий интеллект, может оставить человечество неспособным контролировать продвинутые системы ИИ.

В своем интервью Хокинг утверждал, что без регулирования ИИ может стать «либо лучшим, либо худшим событием в истории человечества».

Конкуренция ИИ между США и Китаем усиливается

Шмидт отметил, что хотя США ранее имели преимущество перед Китаем в разработке ИИ, за последние шесть месяцев разрыв значительно сузился. «Китай догнал нас таким образом, что это примечательно», — сказал он, описывая текущую ситуацию как высокостратегическую гонку между двумя сверхдержавами.

«Есть момент, возможно, в следующем году или два, когда системы могут начать проводить свои собственные исследования. Их называют учеными ИИ, в отличие от человеческих ученых. Таким образом, вы переходите от 1,000 человеческих ученых к миллиону ученых ИИ. Я думаю, что это увеличивает наклон, и когда вы движетесь с такой скоростью, вашим конкурентам очень трудно догнать», — отметил он.

Шмидт считает, что предстоящая администрация Трампа будет придавать приоритет конкурентоспособности США в области ИИ, что он рассматривает как позитивный шаг. «Пока человеческие ценности сохраняются», — сказал он, — «мы должны быть в порядке».

Пошаговая система для запуска вашей карьеры в Web3 и получения высокооплачиваемых крипторабот за 90 дней.