Ten artykuł został przygotowany przez Cointelegraph Accelerator - społeczność inwestorów krypto i założycieli, którzy współpracują, aby zbudować przyszłość branży.
Ostatnie kilka lat to znaczny wzrost wezwań do cenzury wolności słowa pod pretekstem ochrony nas przed dezinformacją. Nie ma realnej alternatywy dla pozwolenia obywatelom na samodzielne osądzenie prawdy, ale lepsze platformy mogłyby dostarczyć im narzędzi do tego.
Wezwania do cenzury wymuszonej przez rząd pojawiały się z obu stron i ze wszystkich części świata. UE rozpoczęła egzekwowanie cenzury w mediach społecznościowych za pomocą swojej Ustawy o usługach cyfrowych, zarówno Brazylia, jak i UE zagroziły platformie X za niewystarczające tłumienie niekorzystnych głosów politycznych, orzeczenie Sądu Najwyższego Stanów Zjednoczonych zezwoliło rządowi na naciskanie na firmy technologiczne w celu usunięcia dezinformacji, Mark Zuckerburg wyraził żal za ulegnięcie dokładnie takim naciskom ze strony Białego Domu podczas pandemii, a Tim Walz stwierdził, że „nie ma gwarancji wolności słowa w przypadku dezinformacji.”
Dezinformacja w internecie to poważny problem, ale sama dezinformacja nie jest nowa, a nie jest jasne, że ludzie są bardziej podatni na kłamstwa niż kiedyś. Dwadzieścia lat temu wojna w Iraku była uzasadniana twierdzeniami o broni masowego rażenia, które teraz są powszechnie zdyskredytowane. W trakcie „Satanicznej paniki” lat 80. dochodzenie w sprawie ponad 12 000 zgłoszeń nie zdołało potwierdzić istnienia jednego satanistycznego kultu, który nadużywał dzieci. W latach 50. McCarthy wywołał czerwoną panikę, twierdząc, że w Departamencie Stanu jest setki znanych komunistów, nie przedstawiając żadnych dowodów na poparcie swoich oskarżeń. Niezbyt dawno temu wieszaliśmy czarownice, praktyka, która trwa do dziś.
Procesy czarownic w Salem. Źródło: Wikipedia
Wielu z tego, co dzisiaj jest nowo niebezpieczne w przypadku dezinformacji, nie dotyczy samego rozprzestrzeniania fałszywych informacji. To zdolność złych aktorów — wzmocnionych przez AI i udających zwykłych użytkowników — do celowego promowania dezinformacji. Hordy skoordynowanych fałszywych lub zachęcających kont tworzą iluzję konsensusu i sprawiają, że marginalne pomysły wydają się mainstreamowe. Popularne platformy mediów społecznościowych dzisiaj są zamkniętymi ekosystemami, co utrudnia ocenę reputacji źródeł lub pochodzenia twierdzeń. Jesteśmy ograniczeni do informacji, które platformy wybierają do pomiaru i ujawnienia — obserwujących, polubień i statusu „zweryfikowanego”. W miarę jak AI staje się coraz bardziej zdolna, hiperealistyczne medium syntetyczne podważa naszą zdolność do zaufania jakiejkolwiek surowej treści, niezależnie od tego, czy jest to dźwięk, wideo, obrazy, zrzuty ekranu, dokumenty czy cokolwiek innego, co zazwyczaj konsumowalibyśmy jako dowód twierdzeń.
Politycy sami w sobie nie są bardziej godni zaufania niż informacje, które starają się cenzurować. Zaufanie publiczne do rządu jest bliskie historycznych minimów. Wiele z najbardziej agresywnych wysiłków cenzurujących miało na celu informacje, które później okazały się prawdziwe, podczas gdy narracje wspierane przez rząd wielokrotnie były zdyskredytowane. Ta sama aparatura wywiadowcza, która proaktywnie ostrzega nas o dezinformacji w tegorocznych wyborach, stłumiła i błędnie oznaczyła historię laptopa Huntera Bidena jako "rosyjską dezinformację" ostatnim razem. Podczas pandemii, poważna debata naukowa na temat pochodzenia COVID i środków zdrowia publicznego została uciszona, podczas gdy urzędnicy promowali twierdzenia o maskach, transmisji i szczepionkach, które później musieli odwołać. Zarówno "Pliki Twittera" Elona Muska, jak i niedawne przyznania Marka Zuckerberga do żalu ujawniły skalę presji rządowej na platformy społecznościowe, aby stłumić konkretne głosy i poglądy — często celując w rzeczywiste wypowiedzi, a nie w faktyczną dezinformację. Nasi przywódcy udowodnili, że są niebezpiecznie niezdolni do bycia arbitrami prawdy.
Zaufanie publiczne do rządu w pobliżu historycznych minimów. Źródło: Pew Research Center
Problem, z którym się borykamy, to brak zaufania. Obywatele stracili wiarę w instytucje, tradycyjne media i polityków. Platformy treści — Google, Facebook, YouTube, TikTok, X i inne — są nieustannie oskarżane o stronniczość polityczną w jedną lub drugą stronę. Nawet jeśli takie platformy zdołałyby moderować treści z całkowitą bezstronnością, nie miałoby to znaczenia — ich nieprzejrzystość zawsze będzie rodzić teorie spiskowe i zapraszać do roszczeń o stronniczość i shadowbanning.
Na szczęście, blockchainy to maszyny zaufania. Zamiast wymagać wiary w scentralizowane władze, zapewniają otwarte, weryfikowalne systemy, które każdy może skontrolować. Każde konto ma przejrzystą historię i mierzalną reputację, każdy kawałek treści można prześledzić do jego źródła, każda edycja jest na stałe rejestrowana, a żaden centralny organ nie może być zmuszony do manipulowania wynikami lub selektywnego egzekwowania zasad. W kontekście zbliżających się wyborów w USA, nie jest przypadkiem, że Polymarket — oparty na blockchainie, przejrzysty i weryfikowalny rynek prognoz — stał się pierwszym punktem odniesienia dla prognoz wyborczych, podczas gdy wyborcy tracą wiarę w socjologów. Przejrzystość i weryfikowalność umożliwiają wspólną podstawę prawdy, z której możemy próbować odbudować zaufanie społeczne.
Blockchain umożliwia potężne nowe formy weryfikacji. Narzędzia takie jak WorldCoin pokazują, jak użytkownicy mogą udowodnić, że są unikalnymi ludźmi, a podobna technologia może weryfikować konkretne atrybuty, takie jak miejsce zamieszkania, obywatelstwo lub kwalifikacje zawodowe. Dowody zerowej wiedzy mogą pozwolić nam na weryfikację tych atrybutów bez ujawniania podstawowych danych osobowych. Takie technologie mogą ujawniać istotne informacje o osobach i tłumach uczestniczących w dyskursie online — czy są ludźmi, skąd pochodzą i jakie mają kwalifikacje — jednocześnie zachowując prywatność użytkowników.
Na przykład użytkownicy poszukujący porad medycznych mogą filtrować do zweryfikowanych lekarzy, lub ignorować nieobywateli w debatach politycznych. Dezinformacja w czasie wojny może być ignorowana poprzez ograniczenie wyników do zweryfikowanych członków różnych sił zbrojnych. Politycy mogą koncentrować swoje kanały i ankiety na zweryfikowanych wyborcach, aby uniknąć presji iluzji oburzenia ze strony dobrze zorganizowanych marginesów lub obcych aktorów. Analiza oparta na AI może ujawnić autentyczne wzorce w zweryfikowanych grupach, ujawniając, jak różnią się perspektywy między ekspertami i społeczeństwem, obywatelami i globalnymi obserwatorami, lub innymi istotnymi segmentami.
Weryfikacja kryptograficzna wykracza poza transakcje blockchain. Inicjatywa Autentyczności Treści — koalicja ponad 200 członków założona przez Adobe, The New York Times i Twitter — opracowuje protokoły, które działają jak cyfrowy notariusz dla kamer i tworzenia treści. Te protokoły kryptograficznie podpisują treści cyfrowe w momencie ich rejestracji, osadzając bezpieczne metadane na temat tego, kto je stworzył, jakim urządzeniem je uchwycono i jak zostały zmodyfikowane. Ta kombinacja podpisów kryptograficznych i metadanych o pochodzeniu umożliwia weryfikowalną autentyczność, którą każdy może skontrolować. Na przykład film może zawierać kryptograficzny dowód, że został nagrany na urządzeniu danego użytkownika, w określonym miejscu i o określonym czasie.
Ostatecznie otwarte protokoły umożliwiają stronom trzecim budowanie narzędzi, których użytkownicy potrzebują, aby ocenić prawdę i kontrolować swoje doświadczenia online. Protokół taki jak Farcaster już pozwala użytkownikom wybierać preferowane interfejsy i podejścia do moderacji. Strony trzecie mogą budować systemy reputacji, usługi weryfikacji faktów, filtry treści i narzędzia analityczne — wszystkie działające na tych samych zweryfikowanych danych. Zamiast być zamkniętymi w algorytmach czarnej skrzynki i scentralizowanej moderacji, użytkownicy zyskują prawdziwe narzędzia do oceny informacji i prawdziwe wybory w sposobie, w jaki to robią.
Zaufanie jest coraz bardziej rzadkim zasobem. W miarę jak wiara w nasze instytucje maleje, gdy treści generowane przez AI zalewają nasze kanały, a scentralizowane platformy stają się coraz bardziej podejrzane, użytkownicy będą domagać się weryfikowalności i przejrzystości swoich treści. Nowe systemy będą oparte na dowodach kryptograficznych, a nie na autorytecie instytucjonalnym — gdzie autentyczność treści można zweryfikować, tożsamość uczestników ustalić, a tętniący życiem ekosystem narzędzi i analiz wspiera naszą pogoń za prawdą. Technologia tego bezzaufanego przyszłości już istnieje — adopcja nastąpi w miarę konieczności.
Ben Turtel (@bturtel) jest założycielem i dyrektorem generalnym Kazm. Wcześniej był założycielem Area 120 i starszym inżynierem oprogramowania pracującym nad zastosowaną AI w Google. Jest doradcą startupowym i inwestorem, mentorem w Cointelegraph Accelerator i pisze o filozofii i technologii.
Twitter - Substack - Linkedin - LinkTree
Zastrzeżenie. Ten artykuł ma charakter ogólnoinformacyjny i nie jest przeznaczony ani nie powinien być traktowany jako porada prawna lub inwestycyjna. Poglądy, myśli i opinie wyrażone tutaj są wyłącznie autora i niekoniecznie odzwierciedlają lub reprezentują poglądy i opinie Cointelegraph.