Алекс Сюй, партнер по исследованиям Mint Ventures

Введение

Этот цикл бычьего рынка криптовалют оказался самым скучным с точки зрения коммерческих инноваций. В отличие от предыдущего бычьего рынка, на котором наблюдались феноменальные тенденции, такие как DeFi, NFT и GameFi, в этом цикле отсутствуют важные отраслевые «горячие точки». В результате наблюдался вялый рост пользовательской базы, отраслевых инвестиций и активности разработчиков.

Эта тенденция также очевидна в цене криптоактивов. На протяжении всего цикла большинство альткойнов, включая ETH, последовательно теряли ценность по отношению к BTC. Оценка платформ смарт-контрактов во многом определяется процветанием их приложений. Когда инновации в разработке приложений стагнируют, становится сложно повысить оценку публичных сетей.

Однако искусственный интеллект (ИИ), как относительно новый сектор в сфере криптобизнеса, может извлечь выгоду из бурного роста и постоянных горячих точек в более широком коммерческом мире. Это дает проектам искусственного интеллекта в криптопространстве потенциал для привлечения значительного дополнительного внимания.

В отчете IO.NET, опубликованном Mint Ventures в апреле, была тщательно проанализирована необходимость интеграции ИИ с криптовалютой. Преимущества криптоэкономических решений, такие как детерминизм, эффективное распределение ресурсов и отсутствие доверия, потенциально могут решить три основные проблемы ИИ: случайность, интенсивность использования ресурсов и сложность различения человека и машины.

В этой статье в секторе искусственного интеллекта криптоэкономики я хочу обсудить и изучить несколько важных вопросов, в том числе:

  • В секторе крипто-ИИ существуют новые или потенциально взрывоопасные истории.

  • Каталитические пути и логические рамки этих повествований.

  • Крипто + AI-проекты.

  • Риски и неопределенности, связанные с развитием сектора криптовалют и искусственного интеллекта.

Обратите внимание, что эта статья отражает мое нынешнее мышление и может развиваться. Мнения здесь субъективны и могут быть ошибки в фактах, данных и логических рассуждениях. Это не финансовый совет, но отзывы и обсуждения приветствуются.

Следующая волна повествований в секторе крипто-ИИ

Прежде чем погрузиться в возникающие тенденции в секторе крипто-ИИ, давайте сначала рассмотрим ведущие тенденции в настоящее время. Судя по рыночной капитализации, к компаниям с оценкой, превышающей 1 миллиард долларов, относятся:

  • Вычислительная мощность

    • Render Network ($RNDR): оборотная рыночная капитализация составляет 3,85 миллиарда долларов США, 

    • Akash: с оборотной рыночной капитализацией в 1,2 миллиарда долларов.

    • IO.NET: недавно оценена в $1 млрд в ходе последнего раунда финансирования.

  • Алгоритмические сети

    • Bittensor ($TAO): рыночная капитализация в обращении составляет 2,97 миллиарда долларов.

  • ИИ-агенты

    • Fetch.ai ($FET): достигает оборотной рыночной капитализации до слияния в 2,1 миллиарда долларов.

*Время обновления данных: 24 мая 2024 г.

Помимо упомянутых выше областей, какой сектор ИИ создаст следующий проект с рыночной капитализацией, превышающей 1 миллиард долларов?

Я считаю, что об этом можно рассуждать с двух точек зрения: с точки зрения «промышленного предложения» и с точки зрения «момента GPT».

Изучение возможностей в области энергетики и данных с точки зрения промышленного предложения

С точки зрения промышленного предложения, четырьмя ключевыми движущими силами развития ИИ являются:

  • Алгоритмы. Высококачественные алгоритмы могут более эффективно выполнять задачи обучения и вывода.

  • Вычислительная мощность: как обучение модели, так и вывод требуют значительной вычислительной мощности, обеспечиваемой аппаратным обеспечением графического процессора. Это требование представляет собой серьезное узкое место в промышленности, поскольку текущий дефицит чипов приводит к росту цен на чипы среднего и высокого класса.

  • Энергия. Центры обработки данных искусственного интеллекта требуют значительного энергопотребления. Помимо электроэнергии, необходимой графическим процессорам для выполнения вычислительных задач, значительная энергия также необходима для охлаждения графических процессоров. В крупных центрах обработки данных только на системы охлаждения приходится около 40% общего энергопотребления.

  • Данные. Повышение производительности больших моделей требует расширения параметров обучения, что приводит к огромному спросу на высококачественные данные.

Что касается четырех упомянутых выше движущих сил промышленности, то в секторах алгоритмов и вычислительной мощности уже есть криптопроекты с оборотной рыночной капитализацией, превышающей 1 миллиард долларов. Однако в секторах энергетики и данных еще не было проектов, достигающих аналогичной рыночной капитализации.

На самом деле, вскоре может возникнуть дефицит в поставках энергии и данных, что потенциально может стать следующими горячими точками отрасли и вызвать всплеск связанных проектов в криптопространстве.

Начнем с энергетической части.

29 февраля 2024 года Илон Маск заметил на конференции Bosch ConnectedWorld 2024: «Я предсказал дефицит чипов больше года назад, и следующим дефицитом будет электричество. Я думаю, в следующем году вы увидите, что им просто не хватает электроэнергии для работы всех чипов».

По конкретным данным, Институт человекоцентрированного искусственного интеллекта Стэнфордского университета, возглавляемый Фей-Фей Ли, ежегодно публикует «Отчет об индексе искусственного интеллекта». В своем отчете об индустрии ИИ за 2021 год исследовательская группа подсчитала, что потребление энергии ИИ в этом году составило лишь 0,9% мирового спроса на электроэнергию, что оказало ограниченное давление на энергетику и окружающую среду. Однако в 2023 году Международное энергетическое агентство (МЭА) подвело итоги 2022 года, заявив, что глобальные центры обработки данных потребили около 460 тераватт-часов (ТВтч) электроэнергии, что составляет 2% мирового спроса на электроэнергию. Они также прогнозируют, что к 2026 году потребление энергии в глобальных центрах обработки данных составит не менее 620 ТВт-ч, а потенциально достигнет 1050 ТВт-ч.

На самом деле оценки Международного энергетического агентства остаются консервативными, поскольку многочисленные проекты искусственного интеллекта, которые готовятся к запуску, потребуют значительно больше энергии, чем ожидалось в 2023 году. 

Например, Microsoft и OpenAI планируют проект «Звездные врата». Эта амбициозная инициатива должна начаться в 2028 году и завершиться примерно в 2030 году. Целью проекта является создание суперкомпьютера, оснащенного миллионами специализированных микросхем искусственного интеллекта, который предоставит OpenAI беспрецедентную вычислительную мощность для продвижения своих исследований в области искусственного интеллекта, особенно больших языковых моделей. Ориентировочная стоимость этого проекта превышает $100 млрд, что в 100 раз превышает стоимость нынешних крупных дата-центров.

Ожидается, что потребление энергии только для проекта «Звездные врата» достигнет 50 ТВтч.

В результате основатель OpenAI Сэм Альтман заявил на Давосском форуме в январе этого года: «Будущий искусственный интеллект потребует энергетических прорывов, поскольку электроэнергия, потребляемая ИИ, намного превысит ожидания».

Следующим крупным дефицитом в быстро растущей индустрии искусственного интеллекта после вычислительной мощности и энергии, вероятно, станут данные.

Фактически, нехватка качественных данных, необходимых для ИИ, уже стала реальностью.

Благодаря продолжающейся эволюции GPT мы в значительной степени уловили закономерность расширения возможностей больших языковых моделей — за счет расширения параметров модели и данных обучения возможности этих моделей могут быть увеличены в геометрической прогрессии. Этот процесс не обнаруживает непосредственных технических узких мест.

Однако в будущем высококачественных и общедоступных данных, вероятно, станет все меньше. Продукты искусственного интеллекта могут столкнуться с конфликтами спроса и предложения, аналогичными тем, которые возникли с чипами и энергетикой.

Во-первых, растет количество споров по поводу владения данными.

27 декабря 2023 года газета The New York Times подала иск против OpenAI и Microsoft в окружной суд США, утверждая, что они использовали миллионы ее статей без разрешения для обучения модели GPT. The New York Times требует миллиарды долларов в качестве компенсации установленного законом и фактического ущерба за «незаконное копирование и использование уникально ценных произведений» и требует уничтожения всех моделей и обучающих данных, которые включают материалы, защищенные авторским правом.

В конце марта 2024 года The New York Times опубликовала новое заявление, расширив свои обвинения за пределы OpenAI и включив в них Google и Meta. В заявлении утверждалось, что OpenAI использовала инструмент распознавания речи под названием Whisper для расшифровки большого количества видеороликов YouTube в текст, который затем использовался для обучения GPT-4. The New York Times утверждает, что для крупных компаний стало обычной практикой использовать закулисную тактику при обучении своих моделей ИИ. Они также указали, что Google занимается аналогичной практикой, конвертируя видеоконтент YouTube в текст для обучения своих моделей, по сути ущемляя права создателей видеоконтента.

Судебный процесс между The New York Times и OpenAI, получивший название первого «дела об авторских правах на ИИ», вряд ли будет быстро разрешен из-за его сложности и глубокого влияния, которое он может оказать на будущее контента и индустрии ИИ. Одним из возможных результатов является внесудебное урегулирование, при котором богатые Microsoft и OpenAI выплатят значительную сумму компенсации. Однако будущие споры по поводу авторских прав на данные неизбежно приведут к увеличению общей стоимости высококачественных данных.

Кроме того, сообщается, что Google, как крупнейшая в мире поисковая система, рассматривает возможность взимания платы за свои поисковые услуги — не для широкой публики, а для компаний, занимающихся искусственным интеллектом.

Источник: Рейтер



Серверы поисковых систем Google хранят огромное количество контента — по сути, весь контент, появившийся на веб-страницах с 21 века. Поисковые продукты на основе искусственного интеллекта, такие как Perplexity, Kimi и Meta Sota, разработанные китайскими компаниями, обрабатывают данные, полученные в результате поиска, с помощью искусственного интеллекта, а затем доставляют их пользователям. Введение платы для компаний, занимающихся искусственным интеллектом, за доступ к данным поисковых систем, несомненно, повысит стоимость получения данных.

Более того, гиганты искусственного интеллекта фокусируются не только на общедоступных данных; они также нацелены на закрытые внутренние данные.

Photobucket, давно существующий веб-сайт для размещения изображений и видео, в начале 2000-х годов когда-то мог похвастаться 70 миллионами пользователей и почти половиной доли рынка онлайн-фото в США. Однако с развитием социальных сетей база пользователей Photobucket значительно сократилась и сейчас насчитывает всего 2 миллиона активных пользователей, каждый из которых платит огромную ежегодную плату в размере 399 долларов. В соответствии с пользовательским соглашением и политикой конфиденциальности аккаунты, неактивные более года, удаляются, что дает Photobucket право использовать загруженные изображения и видео. Генеральный директор Photobucket Тед Леонард сообщил, что их 1,3 миллиарда фотографий и видео чрезвычайно ценны для обучения генеративных моделей искусственного интеллекта. В настоящее время он ведет переговоры с несколькими технологическими компаниями о продаже этих данных по цене от 5 центов до 1 доллара за фотографию и более 1 доллара за видео. По оценкам Леонарда, данные Photobucket могут стоить более 1 миллиарда долларов.

Исследовательская группа EPOCH, специализирующаяся на тенденциях развития искусственного интеллекта, опубликовала отчет под названием «У нас закончатся данные? Анализ ограничений масштабирования наборов данных в машинном обучении». В этом отчете, основанном на использовании данных в машинном обучении в 2022 году и генерации новых данных, а также с учетом роста вычислительных ресурсов, сделан вывод о том, что высококачественные текстовые данные могут быть исчерпаны в период с февраля 2023 по 2026 год, а данные изображений могут работать в период между 2030 и 2060 годами. Без значительного повышения эффективности использования данных или появления новых источников данных текущая тенденция использования больших моделей машинного обучения, которые зависят от огромных наборов данных, может замедлиться.

Учитывая текущую тенденцию, когда гиганты искусственного интеллекта покупают данные по высоким ценам, кажется, что бесплатные высококачественные текстовые данные действительно иссякли, что подтверждает прогноз EPOCH, сделанный два года назад. 

Одновременно появляются решения проблемы «нехватки данных ИИ», в частности, ИИ-данные как услуга.

Defined.ai — одна из таких компаний, которая предлагает индивидуальные высококачественные реальные данные для компаний, занимающихся искусственным интеллектом. 

Примеры типов данных на Defined.ai


Бизнес-модель Defined.ai работает следующим образом: компании, занимающиеся искусственным интеллектом, указывают свои требования к данным, например, изображения с определенным качеством разрешения, без размытости и передержки, а также с аутентичным контентом. Компании также могут запрашивать конкретные темы в зависимости от своих учебных задач, например ночные фотографии дорожных конусов, парковок и указателей, чтобы улучшить распознавание ночных сцен с помощью ИИ. Публика может принять эти задания, загрузить свои фотографии, которые затем просматриваются Defined.ai. За одобренные изображения взимается плата: обычно 1–2 доллара за высококачественное изображение, 5–7 долларов за короткий видеоролик и 100–300 долларов за высококачественное видео продолжительностью более 10 минут. Текст вознаграждается в размере 1 доллара за тысячу слов, при этом исполнители заданий получают около 20% гонорара. Такой подход к предоставлению данных может стать новым краудсорсинговым бизнесом, похожим на «маркировку данных».

Глобальное распределение задач, экономические стимулы, ценообразование на активы данных, распространение и защита конфиденциальности, в которых может участвовать каждый, очень похоже на бизнес-модель, подходящую для парадигмы Web3.

Анализ проектов Crypto + AI с точки зрения промышленных поставок

Внимание, вызванное нехваткой чипов, распространилось на криптоиндустрию, позиционируя децентрализованные вычислительные мощности как самый популярный и ценный сектор искусственного интеллекта на сегодняшний день. 

Если конфликты спроса и предложения в индустрии искусственного интеллекта для энергии и данных обострятся в ближайшие 1-2 года, какие проекты, связанные с повествованием, в настоящее время присутствуют в криптоиндустрии?

Начнем с энергоконцептуальных проектов. 

В настоящее время энергетические проекты, котирующиеся на крупных централизованных биржах (CEX), очень редки, единственным примером является Power Ledger и его собственный токен $POWR.

Power Ledger была создана в 2017 году как комплексная энергетическая платформа на основе блокчейна, направленная на децентрализацию торговли энергией. Он способствует прямой торговле электроэнергией между отдельными лицами и сообществами, поддерживает широкое внедрение возобновляемых источников энергии и обеспечивает прозрачность и эффективность транзакций посредством смарт-контрактов. Первоначально Power Ledger работал в цепочке консорциума, адаптированной из Ethereum. Во второй половине 2023 года Power Ledger обновила свой технический документ и запустила собственную комплексную публичную сеть, основанную на технической структуре Solana, для обработки высокочастотных микротранзакций на рынке распределенной энергетики. Основные направления деятельности Power Ledger в настоящее время включают:

  • Торговля энергией: предоставление пользователям возможности покупать и продавать электроэнергию напрямую в одноранговой сети, особенно из возобновляемых источников.

  • Торговля экологическими продуктами: Содействие торговле квотами на выбросы углерода и сертификатами возобновляемой энергии, а также финансированием на основе экологических продуктов.

  • Операции с публичной сетью: привлечение разработчиков приложений для создания блокчейна Power Ledger, при этом комиссии за транзакции выплачиваются в токенах $POWR.

Текущая рыночная капитализация Power Ledger составляет 170 миллионов долларов, а полностью разводненная рыночная капитализация — 320 миллионов долларов.

По сравнению с криптопроектами, основанными на энергетической концепции, в секторе данных существует более широкий спектр целей.

Ниже перечислены проекты сектора данных, за которыми я в настоящее время слежу, которые котируются как минимум на одной крупной бирже CEX, такой как Binance, OKX или Coinbase, и упорядочены по полностью разводненной оценке (FDV) от низкой к высокой:

1. Стримр ($DATA)

Ценное предложение Streamr заключается в создании децентрализованной сети передачи данных в реальном времени, где пользователи могут свободно торговать и обмениваться данными, сохраняя при этом полный контроль над своей собственной информацией. Через свой рынок данных Streamr стремится дать производителям данных возможность продавать потоки данных напрямую заинтересованным потребителям, устраняя необходимость в посредниках, тем самым снижая затраты и повышая эффективность.

Источник: https://streamr.network/hub/projects.


В реальных приложениях Streamr сотрудничал с другим проектом автомобильного оборудования Web3, DIMO, для сбора таких данных, как температура и давление воздуха, с помощью аппаратных датчиков DIMO, установленных в транспортных средствах. Эти данные затем передаются в виде потоков данных о погоде организациям, которые в них нуждаются.

В отличие от других проектов обработки данных, Streamr больше фокусируется на данных IoT и аппаратных датчиков. Помимо данных о транспортных средствах DIMO, другие известные проекты включают в себя потоки данных о дорожном движении в Хельсинки в реальном времени. Следовательно, токен Streamr, $DATA, испытал значительный рост, удвоив свою стоимость за один день во время пика концепции Depin в декабре прошлого года. 

В настоящее время оборотная рыночная капитализация Streamr составляет 44 миллиона долларов, а полностью разводненная рыночная капитализация — 58 миллионов долларов.

2. Ковалентный ($CQT)

В отличие от других проектов данных, Coвалент фокусируется на предоставлении данных блокчейна. Сеть Coвалентная считывает данные из узлов блокчейна через RPC, обрабатывает и систематизирует их, а также создает эффективную базу данных запросов. Это позволяет пользователям Coвалента быстро получать необходимую информацию, не выполняя сложных запросов непосредственно на узлах блокчейна. Такие услуги называются «индексированием данных блокчейна».

Coвалент в первую очередь обслуживает корпоративных клиентов, включая различные протоколы DeFi, а также многие централизованные криптокомпании, такие как Consensys (материнская компания MetaMask), CoinGecko (известный сайт отслеживания криптоактивов), Rotki (налоговый инструмент) и Rainbow (инструмент для отслеживания криптоактивов). криптокошелек). Кроме того, среди клиентов Coвалента также есть традиционные гиганты финансовой индустрии, такие как Fidelity и Ernst & Young. Согласно официальным заявлениям Coвалент, доходы проекта от услуг передачи данных уже превзошли доход ведущего проекта в той же области — The Graph.

Индустрия Web3 с ее интегрированными, прозрачными, аутентичными данными в режиме реального времени готова стать источником высококачественных данных для специализированных сценариев ИИ и конкретных «небольших моделей ИИ». Coвалент, как поставщик данных, уже начал предлагать данные для различных сценариев ИИ и представил поддающиеся проверке структурированные данные, адаптированные для приложений ИИ.

Источник: Решения по коваленту.


Например, Coвалент предоставляет данные для интеллектуальной торговой платформы SmartWhales, которая использует искусственный интеллект для определения прибыльных торговых моделей и адресов. Entender Finance использует структурированные данные Coвалент, обработанные с помощью технологии искусственного интеллекта, для анализа в реальном времени, обнаружения аномалий и прогнозного анализа.

В настоящее время основные сценарии применения сетевых сервисов передачи данных Coвалента находятся преимущественно в финансовой сфере. Однако по мере того, как продукты и типы данных Web3 продолжают диверсифицироваться, ожидается, что варианты использования сетевых данных будут расширяться и дальше.

Оборотная рыночная капитализация Coвалента составляет 150 миллионов долларов США, при этом полностью разводненная рыночная капитализация составляет 235 миллионов долларов США, что дает заметное преимущество в оценке по сравнению с The Graph, ведущим проектом в секторе индексирования данных блокчейна.

3. Hivemapper ($Honey)

Среди всех типов данных видеоданные обычно имеют самую высокую цену. Hivemapper может предоставить компаниям, занимающимся искусственным интеллектом, как видео, так и картографическую информацию. Hivemapper — это децентрализованный глобальный картографический проект, целью которого является создание подробной, динамичной и доступной картографической системы с помощью технологии блокчейна и вклада сообщества. Участники собирают данные карты с помощью видеорегистраторов и добавляют их в сеть данных Hivemapper с открытым исходным кодом, получая токены $HONEY в качестве вознаграждения за свой вклад. Чтобы усилить сетевые эффекты и снизить затраты на взаимодействие, Hivemapper построен на Solana.

Hivemapper была основана в 2015 году с первоначальной целью создания карт с помощью дронов. Однако этот подход оказалось трудно масштабировать, что привело к тому, что компания перешла на использование видеорегистраторов и смартфонов для сбора географических данных, тем самым снизив затраты на создание глобальных карт.

По сравнению с программным обеспечением для просмотра улиц и картографирования, таким как Google Maps, Hivemapper использует сеть стимулов и модель краудсорсинга для более эффективного расширения охвата карты, поддержания актуальности реальных картографических данных и улучшения качества видео.

До резкого роста спроса на данные ИИ основными клиентами Hivemapper были отделы автономного вождения автомобильных компаний, поставщиков навигационных услуг, правительств, страховых компаний и фирм по недвижимости. Сегодня Hivemapper может предоставлять обширные данные о дорогах и окружающей среде ИИ и большим моделям через API. Благодаря постоянному обновлению потоков данных изображений и характеристик дорог модели искусственного интеллекта и машинного обучения будут лучше подготовлены к преобразованию этих данных в расширенные возможности, что позволит им более эффективно выполнять задачи, связанные с географическим местоположением и визуальным суждением.

Источник: блог Hivemapper.


В настоящее время обращающаяся рыночная капитализация $Honey, собственного токена Hivemapper, составляет 120 миллионов долларов США, а полностью разводненная рыночная капитализация составляет 496 миллионов долларов США. 

Помимо вышеупомянутых проектов, другие известные проекты в секторе данных включают:

1. The Graph ($GRT). Имея оборотную рыночную капитализацию в 3,2 миллиарда долларов и полностью разводненную оценку (FDV) в 3,7 миллиарда долларов, The Graph предоставляет услуги индексирования данных блокчейна, аналогичные Coвалентным.

2. Ocean Protocol ($OCEAN): рыночная капитализация Ocean Protocol составляет 670 миллионов долларов США, а FDV — 1,45 миллиарда долларов США. Целью проекта является содействие обмену и монетизации данных и связанных с ними услуг через протокол с открытым исходным кодом. Ocean Protocol соединяет потребителей данных с поставщиками данных, обеспечивая доверие, прозрачность и отслеживаемость при обмене данными. Проект будет объединен с Fetch.ai и SingularityNET, а токен будет преобразован в $ASI.

Возрождение момента GPT и появление общего искусственного интеллекта

На мой взгляд, «сектор искусственного интеллекта» в криптоиндустрии действительно начался в 2023 году, именно в тот год, когда ChatGPT потряс мир. Быстрый всплеск крипто-проектов искусственного интеллекта во многом был вызван «волной энтузиазма», последовавшей за бурным ростом индустрии искусственного интеллекта.

Несмотря на постоянное расширение возможностей таких моделей, как GPT-4 и GPT-turbo, и впечатляющие возможности создания видео, продемонстрированные Сорой, а также быстрое развитие больших языковых моделей за пределами OpenAI, нельзя отрицать, что технологические достижения в области искусственного интеллекта вызывают уменьшение когнитивного шока для общественности. Люди постепенно осваивают инструменты искусственного интеллекта, а крупномасштабной замены рабочих мест еще не произошло.

Станем ли мы свидетелями еще одного «момента GPT» в будущем, скачка в развитии, который шокирует общественность и заставит ее осознать, что их жизнь и работа будут фундаментально изменены?

Этим моментом может стать появление общего искусственного интеллекта (AGI).

AGI, или общий искусственный интеллект, относится к машинам, которые обладают общими когнитивными способностями, подобными человеческим, и способны решать широкий спектр сложных проблем, а не ограничиваться конкретными задачами. Системы AGI обладают высоким уровнем абстрактного мышления, обширными базовыми знаниями, всеобъемлющим здравым смыслом, причинно-следственным пониманием и способностью к междисциплинарному трансферному обучению. AGI действует на уровне лучших людей в различных областях и по общим возможностям полностью превосходит даже самые выдающиеся человеческие группы.

На самом деле, независимо от того, изображено ли это в научно-фантастических романах, играх, фильмах или в ожиданиях общественности после быстрого развития GPT, общество уже давно ожидало появление AGI, который превосходит человеческий когнитивный уровень. Другими словами, GPT сам по себе является предшественником AGI, предвестником общего искусственного интеллекта.

Причина, по которой GPT имеет такое глубокое промышленное влияние и психологический шок, заключается в том, что ее внедрение и эффективность намного превзошли ожидания общественности. Люди не ожидали, что система искусственного интеллекта, способная пройти тест Тьюринга, появится так быстро и с такими впечатляющими возможностями.

Фактически, общий искусственный интеллект (AGI) может снова создать «момент GPT» в течение следующих 1-2 лет: так же, как люди привыкают использовать GPT в качестве помощника, они могут вскоре обнаружить, что ИИ вышел за рамки простого использования. помощник. Он сможет самостоятельно решать весьма творческие и сложные задачи, в том числе решать проблемы, которые десятилетиями ставили в тупик ведущих учёных.

8 апреля этого года Илон Маск дал интервью Николаю Тангену, главному инвестиционному директору норвежского фонда национального благосостояния, и обсудил сроки появления AGI. 

Маск заявил: «Если мы определим, что AGI умнее самых умных людей, я думаю, что он, скорее всего, появится к 2025 году».

По прогнозу Илона Маска, для появления AGI потребуется максимум полтора года. Однако он добавил условие: «при условии, что электричество и оборудование будут в порядке».

Преимущества появления AGI очевидны.

Это означает, что производительность человечества сделает значительный скачок вперед, и многие научные проблемы, которые десятилетиями ставили нас в тупик, будут решены. Если мы определим «самых умных людей» как лауреатов Нобелевской премии, это означает, что, если у нас будет достаточно энергии, вычислительной мощности и данных, у нас может быть бесчисленное количество неутомимых «Нобелевских лауреатов», работающих круглосуточно над решением самых сложных научных проблем.

Однако лауреаты Нобелевской премии не так редки, как один на сотни миллионов. Их способности и интеллект зачастую находятся на уровне ведущих университетских профессоров. Однако благодаря вероятности и удаче они выбрали правильное направление, настояли и добились результатов. Многие из их столь же способных коллег могли бы получить Нобелевские премии в параллельной вселенной научных исследований. К сожалению, ведущих университетских профессоров, занимающихся научными прорывами, по-прежнему недостаточно, поэтому скорость «исследования всех правильных направлений научных исследований» остается очень медленной.

Благодаря ОИИ и достаточной энергии и вычислительной мощности мы могли бы иметь неограниченное количество ИИИ уровня «нобелевских лауреатов», проводящих глубокие исследования в любом потенциальном направлении научных прорывов. Скорость технологического прогресса увеличится в геометрической прогрессии. Это ускорение приведет к стократному увеличению ресурсов, которые мы сейчас считаем дорогими и дефицитными, в течение следующих 10–20 лет, таких как производство продуктов питания, новые материалы, лекарства и высококачественное образование. Стоимость приобретения этих ресурсов резко снизится. Мы сможем поддерживать большее население, используя меньше ресурсов, и благосостояние на душу населения будет быстро увеличиваться.

Тенденция глобального ВВП, сделанная Всемирным банком


Это может показаться несколько сенсационным, поэтому давайте рассмотрим два примера. Эти примеры также использовались в моем предыдущем исследовательском отчете по IO.NET:

  • В 2018 году лауреат Нобелевской премии по химии Фрэнсис Арнольд заявила во время церемонии награждения: «Сегодня мы можем для всех практических целей читать, писать и редактировать любую последовательность ДНК, но не можем ее составить. Перенесемся на пять лет вперед, в 2023 год. Команда исследователей из Стэнфордского университета и Salesforce Research, стартапа, ориентированного на искусственный интеллект, сделали публикацию в журнале «Nature Biotechnology». Используя большую языковую модель, усовершенствованную на основе GPT-3, они создали совершенно новый каталог из 1 миллиона белков. Среди них они обнаружили два белка с различной структурой, оба наделенные антибактериальной функцией, что потенциально прокладывает путь к новым стратегиям устойчивости бактерий, выходящим за рамки традиционных антибиотиков. Это означает колоссальный скачок в преодолении препятствий, связанных с созданием белка с помощью ИИ.

  • До этого алгоритм искусственного интеллекта AlphaFold предсказал структуры почти всех 2,14 миллиардов типов белков на Земле за 18 месяцев — важная веха, которая в несколько раз увеличивает достижения структурных биологов на протяжении всей истории.

Трансформация уже на подходе, и появление AGI еще больше ускорит этот процесс.

Однако появление AGI также создает огромные проблемы.

AGI заменит не только большое количество работников умственного труда, но и тех, кто работает в сфере физических услуг, которые в настоящее время считаются «менее подверженными влиянию ИИ». По мере развития робототехнических технологий и снижения производственных затрат с помощью новых материалов доля рабочих мест, замененных машинами и программным обеспечением, будет быстро увеличиваться.

Когда это произойдет, быстро всплывут две проблемы, которые когда-то казались очень далекими:

  1. Проблемы занятости и доходов большого количества безработных

  2. Как отличить ИИ от людей в мире, где ИИ распространен повсеместно

Worldcoin и Worldchain пытаются найти решения, внедряя систему универсального базового дохода (UBI) для обеспечения базового дохода для населения и используя биометрию на основе радужной оболочки глаза, чтобы различать людей и ИИ.

На самом деле, ББД – это не просто теоретическая концепция; это проверено на реальной практике. Такие страны, как Финляндия и Англия, проводили эксперименты по ББД, а политические партии в Канаде, Испании и Индии активно предлагают и продвигают аналогичные инициативы.

Преимущество использования модели биометрической идентификации и блокчейна для распространения UBI заключается в его глобальном охвате, обеспечивающем более широкий охват населения. Кроме того, сеть пользователей, расширенная за счет распределения доходов, может поддерживать другие бизнес-модели, такие как финансовые услуги (DeFi), социальные сети и краудсорсинг задач, создавая синергию в коммерческой экосистеме сети.

Одним из примечательных проектов, направленных на устранение последствий появления AGI, является Worldcoin ($WLD) с оборотной рыночной капитализацией в 1,03 миллиарда долларов и полностью разводненной рыночной капитализацией в 47,2 миллиарда долларов.

Риски и неопределенности в повествованиях о крипто-ИИ

В отличие от многих исследовательских отчетов, ранее опубликованных Mint Ventures, эта статья содержит значительную степень субъективности в своих повествовательных прогнозах и предсказаниях. Читателям следует рассматривать содержание этой статьи как спекулятивную дискуссию, а не как прогноз будущего. Упомянутые выше описательные прогнозы сталкиваются с многочисленными неопределенностями, которые могут привести к неверным предположениям. Эти риски или влияющие факторы включают, помимо прочего:

Энергетический риск: быстрое снижение энергопотребления из-за модернизации графического процессора

Несмотря на растущий спрос на энергию для ИИ, производители чипов, такие как NVIDIA, постоянно модернизируют свое оборудование, чтобы обеспечить более высокую вычислительную мощность при меньшем энергопотреблении. Например, в марте 2024 года NVIDIA выпустила вычислительную карту AI нового поколения GB200, которая объединяет два графических процессора B200 и один процессор Grace. Его производительность обучения в четыре раза выше, чем у предыдущего массового AI-графического процессора H100, а производительность вывода в семь раз выше, чем у H100, при этом требуется лишь четверть энергопотребления H100. Тем не менее, потребность в мощи, основанной на искусственном интеллекте, продолжает расти. С уменьшением удельного энергопотребления и дальнейшим расширением сценариев применения ИИ и спроса общее потребление энергии может фактически увеличиться.

Риск данных: проект Q* и «самогенерируемые данные»

По слухам, внутри OpenAI существует проект, известный как «Q*», о котором упоминается во внутренних сообщениях сотрудникам. По данным Reuters со ссылкой на инсайдеров OpenAI, это может стать значительным прорывом на пути OpenAI к достижению сверхинтеллекта или общего искусственного интеллекта (AGI). Ходят слухи, что Q* решает ранее невиданные математические задачи посредством абстракции и генерирует собственные данные для обучения больших моделей без необходимости ввода реальных данных. Если этот слух правдив, то узкое место в обучении крупных моделей ИИ, сдерживаемое отсутствием высококачественных данных, будет устранено.

Прибытие AGI: опасения OpenAI

Действительно ли AGI появится к 2025 году, как предсказывает Маск, остается неясным, но это лишь вопрос времени. Worldcoin, как прямой бенефициар истории AGI, сталкивается с наибольшей озабоченностью со стороны OpenAI, учитывая, что она широко рассматривается как «теневой токен OpenAI».

Рано утром 14 мая компания OpenAI представила новейшую производительность GPT-4o и 19 других версий больших языковых моделей в комплексных оценках задач на весеннем выпуске нового продукта. Согласно таблице, GPT-4o набрал 1310 баллов, что визуально оказывается существенно выше остальных. Однако по общему баллу он всего на 4,5% выше, чем у GPT-4 Turbo, занявшего второе место, на 4,9% выше, чем у Google Gemini 1.5 Pro, занявшего четвертое место, и на 5,1% выше, чем у Anthropic Claude3 Opus, занявшего пятое место.

С тех пор, как GPT-3.5 впервые ошеломил мир, прошло всего чуть больше года, а конкуренты OpenAI уже значительно сократили отставание (несмотря на то, что GPT-5 еще не выпущен, что, как ожидается, произойдет в этом году). Вопрос о том, сможет ли OpenAI сохранить лидирующие позиции в отрасли в будущем, становится все более неопределенным. Если ведущее преимущество и доминирование OpenAI будут ослаблены или даже превзойдены, тогда повествовательная ценность Worldcoin как теневого токена OpenAI также уменьшится.

Помимо решения для аутентификации по радужной оболочке от Worldcoin, на рынок выходит все больше и больше конкурентов. Например, проект Humanity Protocol по сканированию ладони недавно завершил новый раунд финансирования, собрав 30 миллионов долларов при оценке в 1 миллиард долларов. LayerZero Labs также объявила, что будет работать на Humanity и присоединиться к ее сети узлов валидации, используя доказательства ZK для аутентификации учетных данных.

Заключение

В заключение, хотя я экстраполировал потенциальные будущие сценарии для сектора крипто-ИИ, важно признать, что он отличается от родных секторов криптовалют, таких как DeFi. Во многом это результат шумихи вокруг искусственного интеллекта, распространившейся на криптовалютный мир. Многие из текущих проектов еще не доказали свою бизнес-модель, а многие проекты больше похожи на мемы на тему ИИ (например, $RNDR напоминает мем NVIDIA, Worldcoin напоминает мем OpenAI). Читателям следует относиться к этому осторожно.