Robot ChatGPT, wykorzystujący sztuczną inteligencję, opracowany przez firmę technologiczną OpenAI, został zakazany przez włoski rząd za naruszenie przepisów dotyczących przechowywania danych i brak weryfikacji wieku użytkowników.

Startup OpenAI, skupiony na sztucznej inteligencji, ChatGPT, który cieszył się popularnością w ostatnich miesiącach, został zakazany przez włoskie władze. W oświadczeniu włoskiego organu ochrony danych stwierdzono, że aplikacja nie szanuje danych użytkowników i nie weryfikuje ich wieku. Decyzja, która wejdzie w życie natychmiast, tymczasowo ograniczy przetwarzanie danych włoskich użytkowników przez OpenAI, zgodnie z oświadczeniem. Organ ogłosił również, że wszczęto postępowanie wyjaśniające w sprawie aplikacji. Jednak organ ujawnił również 20 marca, że aplikacja doświadczyła naruszenia danych, które obejmowało rozmowy użytkowników i informacje o płatnościach.
Tymczasem włoskie sądownictwo orzekło, że platforma nie może gromadzić i przechowywać danych osobowych w dużych ilościach w celu „szkolenia” algorytmów stanowiących podstawę działania platformy. Ponadto, ponieważ nie ma możliwości weryfikacji wieku użytkowników, aplikacja naraża „nieletnich na odpowiedzi, które zdecydowanie nie są odpowiednie w porównaniu do ich poziomu rozwoju i świadomości” – podkreślono.
W przypadku naruszenia odpowiedniej decyzji firma zostanie ukarana grzywną w wysokości do 20 milionów euro lub do 4% rocznych przychodów. Zakaz ChatGPT we Włoszech nastąpił po tym, jak europejska organizacja policyjna Europol ostrzegła, że przestępcy mogą używać aplikacji do wszystkiego, od phishingu po złośliwe oprogramowanie i inne cyberprzestępstwa. ChatGPT, stworzony przez amerykański startup OpenAI i wspierany przez Microsoft, może jasno odpowiadać na trudne pytania, pisać kod, piosenki lub eseje, a nawet zdawać trudne egzaminy dla studentów.
