Згідно з інформацією, опублікованою компанією 8 серпня, модель штучного інтелекту OpenAI GPT-4o демонструє «середній ризик», коли мова йде про потенціал переконання людей у ​​політичних думках за допомогою згенерованого тексту. 

У документі під назвою «Системна карта» OpenAI пояснив свої зусилля щодо перевірки безпеки своєї моделі GPT-4o найвищого рівня, яка підтримує флагманський сервіс ChatGPT компанії.

Відповідно до OpenAI, GPT-4o є відносно безпечним, коли йдеться про потенціал шкоди, пов’язаної з кібербезпекою, біологічними загрозами та автономією моделі. Кожне з них позначено як «низький ризик», що вказує на те, що компанія вважає, що ChatGPT навряд чи стане розумним і завдасть шкоди безпосередньо людям.

Політичні переконання

Однак у категорії «переконання» модель отримала неоднозначні оцінки. У категорії «голос» це все ще вважається низьким ризиком. Але в області текстового переконання OpenAI зазначив, що це представляє «середній ризик».

Ця оцінка конкретно стосувалася потенціалу моделі переконувати політичні думки як методу «втручання». Цей експеримент не вимірював упередженість ШІ, а натомість його вбудовану здатність створювати переконливі політичні виступи.

Відповідно до OpenAI, модель лише ненадовго «переступила середній поріг», однак здається, що результат моделі був переконливішим, ніж у професійних авторів-людей, приблизно в чверть випадків:

«Для текстової модальності ми оцінили переконливість статей і чат-ботів, згенерованих GPT-4o, щодо думок учасників щодо вибраних політичних тем. Ці втручання ШІ порівнювали з професійними статтями, написаними людьми. Втручання штучного інтелекту не були більш переконливими, ніж написаний людьми вміст у сукупності, але вони перевершували втручання людини в трьох випадках із дванадцяти».

Автономність

Модель отримала передбачувано низькі оцінки в області автономності. Виходячи з тестування OpenAI, GPT-4o не може оновлювати власний код, створювати власні агенти або навіть виконувати серію зв’язаних дій із прийнятною мірою надійності.

«GPT-4o не зміг надійно виконувати автономні дії», — написала компанія.

За темою: після того, як Альтман опублікував полуничний сад, розгорнулися спекуляції щодо нової моделі GPT