В рамках недавней разработки, направленной на повышение безопасности и прозрачности искусственного интеллекта, Google представила три новые модели генеративного ИИ. Эти модели, входящие в серию Google Gemma 2, разработаны так, чтобы быть более безопасными, эффективными и прозрачными, чем многие существующие модели.

В сообщении в блоге на веб-сайте компании говорится, что новые модели — Gemma 2 2B, ShieldGemma и Gemma Scope — основаны на фундаменте, заложенном оригинальной серией Gemma 2, выпущенной в мае.

Новая эра искусственного интеллекта с Gemma 2

В отличие от моделей Gemini от Google, серия Gemma имеет открытый исходный код. Этот подход отражает стратегию Meta с ее моделями Llama, направленную на предоставление доступных и надежных инструментов искусственного интеллекта для более широкой аудитории.

Gemma 2 2B — облегченная модель для генерации и анализа текста. Он достаточно универсален, чтобы работать на различном оборудовании, включая ноутбуки и периферийные устройства. Его способность функционировать в различных средах делает его привлекательным вариантом для разработчиков и исследователей, которым нужны гибкие решения искусственного интеллекта.

Между тем, модель ShieldGemma фокусируется на повышении безопасности, выступая в качестве набора классификаторов безопасности. ShieldGemma создана для обнаружения и фильтрации токсичного контента, включая разжигание ненависти, оскорбления и материалы откровенно сексуального характера. Он работает на базе Gemma 2, обеспечивая уровень модерации контента, который имеет решающее значение в современном цифровом мире.

По данным Google, ShieldGemma может фильтровать запросы по генеративной модели и генерируемому контенту, что делает его ценным инструментом для обеспечения целостности и безопасности контента, созданного ИИ.

Модель Gemma Scope позволяет разработчикам глубже понять внутреннюю работу моделей Gemma 2. По данным Google, Gemma Scope состоит из специализированных нейронных сетей, которые помогают распаковывать плотную и сложную информацию, обрабатываемую Gemma 2.

Связанный материал: Бюро авторских прав США сообщает о «срочной необходимости» в защите от дипфейков

Преобразовав эту информацию в более понятную форму, исследователи смогут лучше понять, как Gemma 2 идентифицирует закономерности, обрабатывает данные и делает прогнозы. Эта прозрачность жизненно важна для повышения надежности и надежности ИИ.

Решение проблем безопасности и одобрение правительства

Запуск этих моделей Google также последовал за предупреждением инженера Microsoft Шейна Джонса, который выразил обеспокоенность по поводу инструментов искусственного интеллекта Google, создающих изображения насилия и сексуального характера и игнорирующих авторские права.

Выпуск этих новых моделей совпадает с предварительным отчетом Министерства торговли США, одобряющим открытые модели искусственного интеллекта. В отчете подчеркиваются преимущества повышения доступности генеративного искусственного интеллекта для небольших компаний, исследователей, некоммерческих организаций и отдельных разработчиков.

Тем не менее, он также подчеркивает важность мониторинга этих моделей на предмет потенциальных рисков, подчеркивая необходимость мер безопасности, подобных тем, которые реализованы в ShieldGemma.

Журнал: Правда, стоящая за ответами ИИ, ребята, паника из-за фотографий второго пилота, дипфейки Трампа: AI Eye