По данным Bloomberg, Microsoft запустила искусственный интеллект большой языковой модели (LLM), который работает полностью отдельно от Интернета и отвечает потребностям анализа секретной информации американских спецслужб, таких как ФБР и ЦРУ.

Это событие знаменует собой важный шаг вперед в применении ИИ в сфере разведки. Новая модель искусственного интеллекта, основанная на GPT-4 и развернутая в облаке с изолированной системой, позволяет спецслужбам США использовать возможности технологии искусственного интеллекта для безопасного и эффективного анализа секретной информации. Раньше большинство моделей искусственного интеллекта, включая ChatGPT от OpenAI, полагались на облачные сервисы для обучения и вывода, что создавало потенциальный риск утечки данных.

Разработка Microsoft модели искусственного интеллекта, не требующей Интернета, отвечает насущным потребностям разведывательного сообщества в условиях растущего объема секретной информации. Шпионские агентства по всему миру хотят применять ИИ для анализа данных, но обеспокоены проблемами информационной безопасности.

«Это первый раз, когда у нас есть изолированная версия — то есть она не подключена к Интернету и находится в специальной сети, к которой имеет доступ только правительство США», — Уильям Чаппелл, директор по технологиям, отвечающий за стратегические миссии и технологии Microsoft, акции.

Реализованная модель GPT-4 представляет собой статическую модель, способную читать файлы, но не учиться на их основе или из Интернета. Это обеспечивает информационную безопасность и предотвращает попадание конфиденциальных данных на платформу. Ожидается, что доступ к этому ИИ получат около 10 000 человек.

Перед официальным запуском в эксплуатацию новый ИИ-сервис Microsoft пройдет тестирование и проверку разведывательного сообщества. Это мероприятие обещает открыть новую эру в сфере разведки, которая позволит более быстро и эффективно анализировать информацию, способствуя обеспечению национальной безопасности.

Однако использование ИИ в разведке также вызывает некоторые этические проблемы. Некоторые эксперты опасаются, что ИИ может быть использован для манипулирования общественным мнением, распространения ложной информации или нарушения конфиденциальности. Поэтому использование ИИ необходимо тщательно контролировать и обеспечивать соблюдение строгих этических правил.