W ramach niedawnego rozwoju mającego na celu poprawę bezpieczeństwa i przejrzystości sztucznej inteligencji Google wprowadził trzy nowe modele generatywnej sztucznej inteligencji. Modele te, należące do serii Google Gemma 2, zostały zaprojektowane tak, aby były bezpieczniejsze, wydajniejsze i bardziej przejrzyste niż wiele istniejących modeli.

Z wpisu na blogu na stronie internetowej firmy wynika, że ​​nowe modele – Gemma 2 2B, ShieldGemma i Gemma Scope – opierają się na fundamentach ustanowionych przez oryginalną serię Gemma 2, która została wprowadzona na rynek w maju.

Nowa era sztucznej inteligencji z Gemma 2

W przeciwieństwie do modeli Gemini firmy Google, seria Gemma jest oprogramowaniem typu open source. Podejście to odzwierciedla strategię Meta z jej modelami Llama, mającą na celu zapewnienie dostępnych, niezawodnych narzędzi AI szerszemu gronu odbiorców.

Gemma 2 2B to lekki model do generowania i analizowania tekstu. Jest na tyle wszechstronny, że można go uruchomić na różnym sprzęcie, w tym na laptopach i urządzeniach brzegowych. Jego zdolność do działania w różnych środowiskach czyni go atrakcyjną opcją dla programistów i badaczy poszukujących elastycznych rozwiązań AI.

Tymczasem model ShieldGemma koncentruje się na zwiększaniu bezpieczeństwa, działając jako zbiór klasyfikatorów bezpieczeństwa. ShieldGemma służy do wykrywania i filtrowania toksycznych treści, w tym mowy nienawiści, molestowania i materiałów o charakterze jednoznacznie seksualnym. Działa w oparciu o Gemma 2, zapewniając warstwę moderacji treści niezbędną w dzisiejszym cyfrowym krajobrazie.

Według Google ShieldGemma może filtrować podpowiedzi do modelu generatywnego i wygenerowanej treści, co czyni go cennym narzędziem do utrzymywania integralności i bezpieczeństwa treści generowanych przez sztuczną inteligencję.

Model Gemma Scope pozwala programistom uzyskać głębszy wgląd w wewnętrzne działanie modeli Gemma 2. Według Google Gemma Scope składa się z wyspecjalizowanych sieci neuronowych, które pomagają rozpakować gęste, złożone informacje przetwarzane przez Gemma 2.

Powiązane: Urząd ds. praw autorskich Stanów Zjednoczonych zgłasza „pilną potrzebę” ochrony przed deepfake’ami

Rozszerzając te informacje do bardziej zrozumiałej formy, badacze mogą lepiej zrozumieć, w jaki sposób Gemma 2 identyfikuje wzorce, przetwarza dane i prognozuje. Ta przejrzystość ma kluczowe znaczenie dla poprawy niezawodności i wiarygodności sztucznej inteligencji.

Rozwiązanie kwestii bezpieczeństwa i poparcie rządu

Wprowadzenie tych modeli przez Google następuje również po ostrzeżeniu inżyniera Microsoftu Shane’a Jonesa, który wyraził obawy dotyczące narzędzi Google AI tworzących obrazy przedstawiające przemoc i seksualność oraz ignorujących prawa autorskie.

Wprowadzenie tych nowych modeli zbiega się ze wstępnym raportem Departamentu Handlu Stanów Zjednoczonych, w którym zatwierdzono otwarte modele sztucznej inteligencji. W raporcie podkreślono korzyści płynące ze zwiększenia dostępności generatywnej sztucznej inteligencji dla mniejszych firm, badaczy, organizacji non-profit i indywidualnych programistów.

Jednakże podkreśla również znaczenie monitorowania tych modeli pod kątem potencjalnych zagrożeń, podkreślając potrzebę wprowadzenia środków bezpieczeństwa, takich jak te wdrożone w ShieldGemma.

Magazyn: Prawda kryjąca się za odpowiedziami AI, panika obrazowa drugiego pilota, fałszywe podróbki Trumpa: AI Eye