Dieser Artikel wurde Ihnen von Cointelegraph Accelerator präsentiert - einer Gemeinschaft von Krypto-Investoren und Gründern, die zusammenarbeiten, um die Zukunft der Branche zu gestalten.
In den letzten Jahren gab es einen starken Anstieg der Forderungen nach Zensur der Meinungsfreiheit unter dem Vorwand, uns vor Misinformation zu schützen. Es gibt keine tragfähige Alternative dazu, den Bürgern zu erlauben, die Wahrheit selbst zu beurteilen, aber bessere Plattformen könnten ihnen die Werkzeuge dazu bereitstellen.
Forderungen nach staatlich durchgesetzter Zensur kamen von beiden Seiten des politischen Spektrums und aus allen Teilen der Welt. Die EU begann mit der Durchsetzung von Zensur in sozialen Medien mit ihrem Digital Services Act, sowohl Brasilien als auch die EU drohten X mit Maßnahmen wegen der Nichteinhaltung der Unterdrückung unliebsamer politischer Stimmen, ein Urteil des Obersten Gerichtshofs der Vereinigten Staaten erlaubte der Regierung, Tech-Unternehmen zu drängen, Misinformation zu entfernen, Mark Zuckerberg äußerte Bedauern darüber, genau solchen Druck vonseiten des Weißen Hauses während der Pandemie nachgegeben zu haben, und Tim Walz erklärte, „es gibt keine Garantie für die Meinungsfreiheit bei Misinformation.“
Online-Misinformation ist ein echtes Problem, aber Misinformation selbst ist nicht neu, und es ist nicht klar, dass Menschen anfälliger für Falschinformationen sind als früher. Vor zwanzig Jahren wurde der Irakkrieg mit Behauptungen über Massenvernichtung gerechtfertigt, die jetzt weitgehend diskreditiert sind. Während der “Satanic Panic” der 1980er Jahre konnte eine Untersuchung von über 12.000 Berichten keine einzige satanische Sekte nachweisen, die Kinder missbrauchte. In den 1950er Jahren startete McCarthy eine Roten Angst, indem er behauptete, es gäbe Hunderte von bekannten Kommunisten im Außenministerium, ohne Beweise für seine Anschuldigungen. Nicht allzu lange her hängten wir Hexen, eine Praxis, die bis heute anhält.
Salem Hexenprozesse. Quelle: Wikipedia
Vieles von dem, was heute neu gefährlich an Misinformation ist, ist nicht die Verbreitung falscher Informationen selbst. Es ist die Fähigkeit von böswilligen Akteuren — gestärkt durch KI und die vorgeben, gewöhnliche menschliche Nutzer zu sein — absichtlich Misinformation zu fördern. Horden von koordinierten gefälschten oder incentivierten Konten schaffen den Eindruck von Konsens und lassen Randideen mainstream erscheinen. Beliebte soziale Medienplattformen sind heute geschlossene Ökosysteme, die es schwierig machen, den Ruf von Quellen oder die Herkunft von Behauptungen zu bewerten. Wir sind auf die Informationen beschränkt, die die Plattformen wählen, um sie zu messen und offenzulegen — Follower, Likes und „verifiziert“ Status. Da KI zunehmend fähig wird, untergraben hyperrealistische synthetische Medien unsere Fähigkeit, irgendeinen Rohinhalt zu vertrauen, sei es Audio, Video, Bilder, Screenshots, Dokumente oder was auch immer wir typischerweise konsumieren, um Behauptungen zu belegen.
Politiker selbst sind nicht vertrauenswürdiger als die Informationen, die sie zu zensieren versuchen. Das öffentliche Vertrauen in die Regierung ist auf historischen Tiefstständen. Viele der aggressivsten Zensurversuche haben Informationen ins Visier genommen, die sich später als wahr erwiesen, während von der Regierung unterstützte Narrative wiederholt diskreditiert wurden. Dasselbe Geheimdienstapparat, der uns proaktiv vor der Desinformation dieser Wahl warnte, unterdrückte und etikettierte die Hunter-Biden-Laptop-Geschichte beim letzten Mal als "russische Desinformation". Während der Pandemie wurde legitime wissenschaftliche Debatte über die Ursprünge von COVID und öffentliche Gesundheitsmaßnahmen zum Schweigen gebracht, während Beamte Behauptungen über Masken, Übertragung und Impfstoffe förderten, die sie später zurücknehmen mussten. Sowohl Elon Musks "Twitter Files" als auch Mark Zuckerbergs kürzliche Eingeständnisse des Bedauerns legten das Ausmaß des Drucks der Regierung auf soziale Plattformen offen, um bestimmte Stimmen und Standpunkte zu unterdrücken — oft legitime Meinungen anstelle tatsächlicher Desinformation ins Visier nehmend. Unsere Führer haben sich als gefährlich ungeeignet erwiesen, die Schiedsrichter der Wahrheit zu sein.
Das öffentliche Vertrauen in die Regierung ist auf historischen Tiefstständen. Quelle: Pew Research Center
Das Problem, dem wir gegenüberstehen, ist ein Mangel an Vertrauen. Die Bürger haben das Vertrauen in Institutionen, traditionelle Medien und Politiker verloren. Inhaltsplattformen — Google, Facebook, YouTube, TikTok, X und mehr — werden ständig der politischen Voreingenommenheit in die eine oder andere Richtung beschuldigt. Selbst wenn solche Plattformen es schaffen würden, Inhalte vollkommen unparteiisch zu moderieren, wäre es nicht von Bedeutung — ihre Intransparenz wird immer Verschwörungstheorien hervorrufen und Ansprüche auf Voreingenommenheit und Schattenbanning einladen.
Glücklicherweise sind Blockchains Vertrauensmaschinen. Anstatt Glauben an zentralisierte Autoritäten zu erfordern, bieten sie offene, verifizierbare Systeme, die jeder inspizieren kann. Jedes Konto hat eine transparente Geschichte und quantifizierbaren Ruf, jedes Stück Inhalt kann auf seine Quelle zurückverfolgt werden, jede Bearbeitung ist dauerhaft aufgezeichnet, und keine zentrale Autorität kann unter Druck gesetzt werden, Ergebnisse zu manipulieren oder Regeln selektiv durchzusetzen. Im Vorfeld der US-Wahlen ist es kein Zufall, dass Polymarket — ein blockchain-basierten, transparenten und verifizierbaren Prognosemarkt — als Anlaufstelle für Wahlprognosen aufgetaucht ist, während die Wähler das Vertrauen in Umfrageinstitute verlieren. Transparenz und Verifizierbarkeit ermöglichen eine gemeinsame Grundlage der Wahrheit, von der aus wir versuchen können, das soziale Vertrauen wieder aufzubauen.
Blockchain ermöglicht mächtige neue Formen der Verifizierung. Werkzeuge wie WorldCoin zeigen, wie Nutzer beweisen können, dass sie einzigartige Menschen sind, und ähnliche Technologien können konkrete Attribute wie Wohnsitz, Staatsangehörigkeit oder berufliche Qualifikationen verifizieren. Null-Wissen-Beweise könnten es uns ermöglichen, diese Attribute zu verifizieren, ohne die zugrunde liegenden persönlichen Daten offenzulegen. Solche Technologien könnten bedeutungsvolle Informationen über die Individuen und Gruppen, die an Online-Diskursen teilnehmen, offenbaren — ob sie menschlich sind, woher sie kommen und welche Qualifikationen sie besitzen — während die Privatsphäre der Nutzer gewahrt bleibt.
Zum Beispiel könnten Nutzer, die medizinischen Rat suchen, auf verifizierte Ärzte filtern oder Nicht-Bürger in Debatten über Innere Angelegenheiten ignorieren. Kriegszeitliche Desinformation könnte ignoriert werden, indem die Ergebnisse auf verifizierte Mitglieder verschiedener Streitkräfte beschränkt werden. Politiker könnten ihre Feeds und Umfragen auf verifizierte Wähler konzentrieren, um zu vermeiden, von der Illusion der Empörung gut organisierter Randgruppen oder ausländischer Akteure unter Druck gesetzt zu werden. KI-gestützte Analysen könnten authentische Muster in verifizierbaren Gruppen aufdecken und zeigen, wie sich Perspektiven zwischen Experten und der Öffentlichkeit, Bürgern und globalen Beobachtern oder anderen bedeutungsvollen Segmenten unterscheiden.
Kryptografische Verifizierung geht über Blockchain-Transaktionen hinaus. Die Content Authenticity Initiative — ein Zusammenschluss von über 200 Mitgliedern, gegründet von Adobe, The New York Times und Twitter — entwickelt Protokolle, die wie ein digitaler Notar für Kameras und Inhaltserstellung fungieren. Diese Protokolle signieren digitale Inhalte kryptografisch im Moment der Aufnahme und betten sichere Metadaten darüber ein, wer sie erstellt hat, welches Gerät sie aufgenommen hat und wie sie verändert wurden. Diese Kombination aus kryptografischen Signaturen und Herkunftsmetadaten ermöglicht verifizierbare Authentizität, die jeder inspizieren kann. Ein Video könnte beispielsweise kryptografische Beweise enthalten, dass es auf dem Gerät eines bestimmten Nutzers, an einem bestimmten Ort und zu einem bestimmten Zeitpunkt aufgenommen wurde.
Schließlich ermöglichen offene Protokolle Dritten, die Werkzeuge zu entwickeln, die Nutzer benötigen, um die Wahrheit zu bewerten und ihre Online-Erfahrung zu kontrollieren. Protokolle wie Farcaster ermöglichen es bereits Nutzern, ihre bevorzugten Schnittstellen und Moderationsansätze auszuwählen. Dritte können Reputationssysteme, Faktenprüfungsdienste, Inhaltsfilter und Analysewerkzeuge entwickeln — alle auf denselben verifizierten Daten basierend. Anstatt in Black-Box-Algorithmen und zentralisierte Moderation eingeschlossen zu sein, erhalten Nutzer echte Werkzeuge zur Bewertung von Informationen und echte Entscheidungen, wie sie dies tun.
Vertrauen ist ein zunehmend knappes Gut. Während der Glauben an unsere Institutionen erodiert, KI-generierte Inhalte unsere Feeds überschwemmen und zentralisierte Plattformen zunehmend verdächtig werden, werden die Nutzer Verifizierbarkeit und Transparenz von ihren Inhalten verlangen. Neue Systeme werden auf kryptografischem Beweis statt auf institutioneller Autorität basieren — wo die Authentizität von Inhalten verifiziert, die Identität der Teilnehmer festgestellt und ein florierendes Ökosystem von Drittanbieter-Tools und Analysen unsere Suche nach der Wahrheit unterstützt wird. Die Technologie für diese vertrauenslose Zukunft existiert bereits — die Akzeptanz wird aus der Notwendigkeit folgen.
Ben Turtel (@bturtel) ist Gründer & CEO von Kazm. Zuvor war er Gründer von Area 120 und leitender Software-Ingenieur, der an angewandter KI bei Google arbeitete. Er ist Startup-Berater und Investor, Mentor beim Cointelegraph Accelerator und schreibt über Philosophie und Technologie.
Twitter - Substack - Linkedin - LinkTree
Haftungsausschluss. Dieser Artikel dient allgemeinen Informationszwecken und ist nicht als rechtliche oder Investitionsberatung gedacht und sollte nicht so verstanden werden. Die hier geäußerten Ansichten, Gedanken und Meinungen sind allein die des Autors und spiegeln nicht notwendigerweise die Ansichten und Meinungen von Cointelegraph wider.