Соціальні медіа значно змінилися після офіційного дебюту Meta (раніше Facebook) у 2006 році. Головною метою соціальних мереж Web2 було створення каналу зв’язку для друзів і сім’ї, щоб підтримувати зв’язок.

З часом ці платформи переросли через свою просту комунікативну природу й стали основними джерелами інформації. Небезпека? Завдяки інноваційним технологіям, таким як штучний інтелект (ШІ), які зараз інтегруються в соціальні мережі, стає дедалі важче відрізнити реальних людей від ботів на основі ШІ.

Згідно з недавнім дослідженням дослідників з Університету Нотр-Дам, 58% користувачів соціальних мереж у вибірці не могли точно передбачити, чи вони взаємодіють з ботом чи реальною людиною.

Це викликає важливе питання: як можна перевірити автентичність людини в сучасній сфері соціальних мереж? Існує кілька підходів, зокрема такі ініціативи, як «Не бот» і запровадження преміум-рівнів компанією X (раніше Twitter) після того, як Ілон Маск очолив кермо у 2022 році. Що викликає занепокоєння, це те, що, незважаючи на ці зусилля, боти продовжують працювати на X .

На більш яскравій ноті, технологія блокчейн, яка також входить до числа четвертих промислових (4IR) інновацій, може мати технічне рішення, яке назавжди змінить цю динаміку. Екосистеми соціальних медіа Web3, як-от Phaver, запроваджують нові способи захисту від ботів за допомогою платформи Anima для підтвердження особистості на базі блокчейну.

Однак перш ніж заглиблюватися в ці деталі, важливо підкреслити небезпеку, яку несуть боти в сучасному соціально-політичному ландшафті, щоб краще зрозуміти, чому нам потрібні соціальні мережі, які можна більше перевірити.

Небезпека для основних основ суспільства  

На сьогоднішній день ні для кого не секрет, що соціальні мережі — це палиця з двома кінцями. З одного боку, це дозволило інформації передаватись з однієї частини світу в іншу за лічені секунди, а з іншого – соціальні мережі використовувалися для поширення пропаганди або втручання у вибори, як це було у випадку під час Brexit і президентських виборів у США 2016 року.

Оскільки боти зараз на місці, ризик поширення дезінформації ще вищий. Нещодавній аналіз активності в Твіттері, проведений доктором Тімоті Гремом, який також є доцентом Квінслендського технологічного університету, показав, що ботів використовують для впливу на політичні програми під час інтерв’ю в прайм-тайм. 

Наприклад, минулого року, коли відбулися перші республіканські дебати, активність ботів була особливо високою, коли дебати виходили в ефір і коли інтерв’ю Трампа з Такером Карлсоном було опубліковано в Twitter. Примітно, що більшість облікових записів ботів поширювали неправдиву інформацію за автоматизованою, але складною схемою, яку звичайні користувачі соціальних мереж не могли розшифрувати.

«Усе входить і виходить із Twitter, тому що журналісти та еліти в публічній сфері вважають, що це має значення... Потім вони йдуть і повідомляють про це», - зазначив Грем. 

В іншому дослідженні, проведеному Statista у 2018 році, 40% респондентів були стурбовані тим, що боти використовуються для впливу на їхні думки або цільові продукти в інших формах. 

Що ще більше тривожить, це те, що це не обмежується політичною пропагандою, облікові записи ботів також стали основним інструментом для розширення потенційного ринку для шахраїв. Ви можете спілкуватися з «другом або родичем» у соціальних мережах, але насправді це псевдообліковий запис, який автоматизовано, щоб звучати як ваша кохана людина. Більшість людей за допомогою таких схем ошукали свої важко зароблені гроші. 

Цей спосіб шахрайства став особливо поширеним після того, як генеративні AI-проекти, зокрема ChatGPT, Gemini та Meta’s Llama, розгортаються. Дослідження дослідників Університету Індіани 2024 року виявило понад 1000 активних облікових записів шахрайських ботів на X, більшість із яких використовували загальний ChatGPT, щоб заманити нічого не підозрюючих користувачів соціальних мереж. 

Як соціальні мережі Web3 вирішують загрозу ботів 

Web3 є третьою ітерацією Інтернету; на відміну від свого попередника, Web2, ця остання версія Інтернету повертає контроль користувачам. Іншими словами, немає центральної влади, як у випадку з Meta або X; Натомість платформи соціальних медіа, побудовані на інфраструктурі Web3, керуються децентралізованою спільнотою, яка приймає рішення про те, як керувати платформою чи інтегрувати нові розробки. 

Як зазначалося раніше, Phaver служить новаторським прикладом, який ілюструє цінність Web3 у соціальних мережах. Ця платформа використовує «платформу підтвердження особи Anima», яка призначає кожному користувачеві унікальну ідентифікацію в мережі. Щоб досягти цього, платформа надійно зберігає чіткий відбиток обличчя кожного користувача в його гаманці, що забезпечує конфіденційність, забезпечуючи автентичний і непридатний для роботи досвід «одне обличчя – один гаманець».

Більше того, соціальні медіа-платформи Web3 впроваджують моделі стимулювання для забезпечення високоякісного потоку контенту. 

Наприклад, соціальна мережа Phaver Web3 заохочує своїх користувачів системою кредитних винагород за публікацію високоякісного контенту. Незабаром проект планує випустити роздачу, «Season 1 Phairdrop», де буде розподілено 3% свого токена $SOCIAL на основі балів, накопичених користувачами, які мають принаймні 1 кредитний елемент, серед інших вимог відповідності. 

Цей приклад — лише одна з подій, які відбуваються у сфері соціальних мереж Web3. Існують також більш цілісні інфраструктури, такі як Lens Protocol і Farcaster, які є відкритими соціальними графами Web3. Це означає, що DApps, орієнтовані на простір соціальних медіа, можуть використовувати вже існуючу інфраструктуру для розгортання своїх програм і доступу до більшої спільноти. 

Звичайно, мине деякий час, перш ніж ми побачимо широкомасштабне впровадження рішень соціальних медіа Web3, але люди неминуче охоплять більш інноваційні програми. Зрештою, Web3 повертає силу в маси, не кажучи вже про основний потенціал у вирішенні загрози ботів, яка вже давно мучить платформи соціальних мереж Web2.