Microsoft запустила чат-бота с искусственным интеллектом, созданного на основе технологии GPT-4, который предназначен исключительно для использования спецслужбами США в автономном режиме в безопасной среде. Такое развитие событий означает существенный прорыв, поскольку это первый случай применения MLM в секретной среде, которая способствует безопасной обработке информации без рисков, связанных с Интернетом.

Microsoft $MSFT создала генеративную модель искусственного интеллекта на основе GPT-4, изолированную от Интернета, что позволяет спецслужбам США анализировать сверхсекретную информацию с помощью LLM.

– Бет Киндиг (@Beth_Kindig) 7 мая 2024 г.

Безопасный и изолированный искусственный интеллект для интеллектуальных систем

Недавно разработанный чат-бот с искусственным интеллектом, имя которого еще не опубликовано, был разработан для удовлетворения растущего спроса на использование передовых генеративных технологий искусственного интеллекта, с одной стороны, и защиты от вероятных рисков утечки данных или киберугроз, с другой стороны. В отличие от обычных облачных систем, таких как ChatGPT, которым присущ риск перехвата данных, этот специализированный ИИ работает независимо от Интернета, что делает взаимодействие и анализ данных более безопасным.

Главный технический директор Microsoft Уильям Чаппелл подчеркнул, что эта подготовка включала 18-месячную миссию по настройке суперкомпьютера искусственного интеллекта в Айове для размещения измененной модели GPT-4. Чаппелл подчеркивает ключевую роль этой изолированной сети, доступ к которой имеют только государственные чиновники, имеющие гражданство США.

Особенности и недостатки ГПТ-4 в разведывательных операциях

Модифицированная модель GPT-4 облегчает проверку файлов пользователя и имитирует разговоры ChatGPT или Microsoft Copilot. Эта новинка отличается от известных ранее облачных платформ искусственного интеллекта тем, что создает защитную среду от внешних сил. Однако языковые модели ИИ, хотя и эффективны, обладают присущими им ограничениями. Другая сторона медали — это возможность того, что ИИ может давать неточные сводки или выводы из-за своей фундаментальной природы, которая опирается на статистические вероятности, а не на полные базы данных.

Эксперты обеспокоены тем, что это может привести к склонности ИИ фальсифицировать или неверно истолковывать данные. Хотя GPT-4 способен обрабатывать естественный язык и имитировать человеческие разговоры, человек-аналитик остается непревзойденным, когда дело касается контекста и точных фактов. Чтобы преодолеть эту проблему, спецслужбы могли бы изучить такие методы, как RAG, которые повышают производительность ИИ за счет интеграции с ним внешних источников данных.

Развертывание и тестирование чат-бота с искусственным интеллектом

В прошлый четверг был успешно запущен AI Chatbot, к которому имеют доступ около 10 000 сотрудников различных спецслужб для первоначального тестирования, мониторинга и оценки. Это развертывание представляет собой важную веху на пути интеграции передовых технологий искусственного интеллекта в секретные операции, что может привести к революционным изменениям в том, как аналитики разведки безопасно взаимодействуют и анализируют большие объемы данных.

Выпуск Microsoft независимого и безопасного чат-бота с искусственным интеллектом, управляемого GPT-4, олицетворяет собой значительный прорыв в области анализа разведывательных данных. Эта инициатива достигает этой цели за счет использования передовых языковых моделей и одновременного устранения рисков кибербезопасности, вызванных подключением к Интернету. И наоборот, внутренние ограничения языковых моделей ИИ проливают свет на необходимость использования других подходов наряду с ними, чтобы сделать разведывательную информацию точной и заслуживающей доверия.