Offenlegung: Die hier geäußerten Ansichten und Meinungen gehören ausschließlich dem Autor und stellen nicht die Ansichten und Meinungen der Redaktion von crypto.news dar.

Das weltweit führende Online-Wörterbuch Dictionary.com hat kürzlich ein interessantes Wort des Jahres 2023 gewählt: halluzinieren. Dies liegt nicht an einer Panik vor einer neuen Art von Halluzinogen oder einer neuen Massenhysteriebewegung, sondern an einem sehr eigenartigen Namen für ein sehr eigenartiges Phänomen, das aus der aufkommenden Branche der künstlichen Intelligenz oder genauer gesagt der künstlichen allgemeinen Intelligenz (AGI) stammt und seit der Einführung des generativen KI-Chatbots ChatGPT durch OpenAI im November 2022 ins öffentliche Bewusstsein gerückt ist.

Das könnte Sie auch interessieren: Absichten und Löser: Die nächste Grenze der KI im DeFi-Handel und Portfoliomanagement | Meinung

Natürlich können nur lebende Organismen mit echten Sinnen „halluzinieren“, aber das ist der Sammelbegriff, der verwendet wird, um zu beschreiben, wenn eine künstliche Intelligenz falsche Informationen liefert oder zufällige Sprache generiert, die nicht auf die ihr gestellte spezielle Anfrage eingeht.

In einem Fall begann die künstliche Intelligenz in Microsofts Suchmaschine Bing, die Anfragen eines Reporters der New York Times zu ignorieren, während sie versuchte, ihn zu überreden, seine Frau zu verlassen. Abgesehen von dieser amüsanten Kuriosität (vielleicht nicht so sehr für den Reporter) haben die Halluzinationen der frühen AGI echte Probleme verursacht, wenn Benutzer von Abfragemaschinen wie ChatGPT deren Antworten ohne Fragen akzeptieren. In einem Fall wurden Anwälte mit einer Geldstrafe belegt (und aus dem Gerichtssaal gelacht), weil sie ChatGPT verwendet hatten, um ein Rechtsgutachten mit mehreren falschen Fallzitaten zu verfassen.

Diese Anwälte haben sich kurzfristig finanzielle Verluste eingebrockt und sich langfristig zweifellos persönlich und beruflich selbst in Verlegenheit gebracht, aber was passiert, wenn Millionen oder vielleicht sogar Milliarden auf dem Spiel stehen?

KI und Finanzsektor 

Wir müssen uns vor der Verlockung künstlicher Intelligenz in Acht nehmen, insbesondere in einer Finanzbranche, die durch Automatisierung floriert hat, aber auch bereits erhebliche Verluste erlitten hat. Wenn wir dieses neue Datenanalysetool künftig zu einem Teil unserer Informationsinfrastruktur und insbesondere unserer Finanzinformationsinfrastruktur machen wollen, müssen wir darauf achten, wie diese Technologien in der Branche implementiert und selbst reguliert werden.

Die frühen – und manchmal gefährlichen – Tage des automatisierten Hochfrequenzhandels können kaum jemand vergessen. So vernichtete etwa ein Algorithmus im Jahr 2012 an der New Yorker Börse Werte im Wert von fast einer halben Milliarde Dollar. Die von potenziellen AGI-Halluzinationen präsentierten falschen Daten, verpackt in eine umgangssprachliche und menschenähnliche Sprache, können sogar noch riskanter sein. Sie verbreiten nicht nur falsche Daten, die schlecht informierte Handelsgeschäfte und Finanzpaniken verschlimmern können, sondern verleiten menschliche Händler auch zu anderen, längerfristigen Fehleinschätzungen.

Warum entstehen Halluzinationen? Manchmal kann die Art und Weise, wie Eingabeaufforderungen erstellt werden, aktuelle Iterationen generativer KI oder großer Sprachmodelle (LLM) verwirren. Auf die gleiche Weise können intelligente Lautsprecher wie Google Home oder Amazon Echo Hintergrundgeräusche als an sie gerichtete Abfrage fehlinterpretieren.

Häufiger ist es auch so, dass die ersten AGIs mit einem fehlerhaften Datensatz trainiert wurden, entweder durch falsche Beschriftung oder falsche Kategorisierung. Es geht hier um mehr als nur darum, dass verschiedene Lager des politischen Spektrums ihre eigene Definition von „alternativen Fakten“ oder „Fake News“ haben oder sich dafür entscheiden, die Nachrichten hervorzuheben, die ihre Seite gut und die andere schlecht dastehen lassen; die AGI hat in ihrem Modell einfach nicht genug Daten, um eine direkte oder kohärente Antwort zu liefern, also liefert sie eine inkohärente und indirekte Antwort.

In gewisser Weise ist es nicht unähnlich anderen Technologien, die vor ihm aufkamen und deren Ambitionen die vorhandene Qualität und Geschwindigkeit der Datenübertragung übertrafen. Das Internet wurde erst dann wirklich bahnbrechend, wenn es in der Lage war, große Datenmengen von einem PC zum anderen zu transportieren, und manche würden sagen, dass sich die Spielregeln erst wirklich geändert haben, als unsere Mobiltelefone dasselbe konnten. Diese neue AGI schult auch Menschen darin, weiter zu entwickeln, um diese neuen KI-Modelle mit besseren Datensätzen und effizienteren Möglichkeiten zu versorgen, schnelle, nutzbare und hoffentlich kohärente Erkenntnisse und Informationen bereitzustellen.

Gibt es eine Lösung?

Viele haben verschiedene Möglichkeiten vorgeschlagen, um Halluzinationen zu minimieren, darunter etwas, das als Retrieval-Augmented Generation (RAG) bezeichnet wird, was im Wesentlichen eine Möglichkeit ist, Datenquellen kontinuierlich in Echtzeit zu aktualisieren. Dies könnte ein Vorteil von Elon Musks Grok AI sein, die Zugriff auf die beliebteste öffentliche Echtzeit-Datenquelle der letzten 15 Jahre hat.

Ich bin jedoch für Blockchain als Lösung. Es wäre nicht an einen einzigen Unternehmens-Gatekeeper oder einen ummauerten Datengarten gebunden und könnte neue und bessere Quellen für dezentralisierte Daten aufbauen. Blockchain ist nicht nur für die Peer-to-Peer-Datenspeicherung und -übertragung gedacht, sondern auch für die Zahlungsabwicklung, was neue Anreizmethoden für das schaffen könnte, was sicherlich eine radikal neue Phase einer KI-durchdrungenen Informationsökonomie sein wird.

In der Finanzwelt würde so etwas wie ein dezentraler Wissensgraph Stakeholder in der gesamten Branche befähigen und dazu motivieren, mehr Daten transparent zu teilen. Blockchain könnte alle relevanten und unveränderlichen Informationen in Echtzeit aktualisieren und verifizieren. Diese Methode zur Datenverifizierung wäre eine aufgeladene Version von RAG und würde die Anzahl der AGI-Halluzinationen drastisch reduzieren, da Wissenswerte eingebettete Semantik und Verifizierbarkeit aufweisen (im Interesse der Offenlegung habe ich mit OriginTrail zusammengearbeitet, das seine Version eines dezentralen Wissensgraphen entwickelt).

Eines Tages könnten „Roboter“ sogar bessere Trader sein als Menschen. Letztendlich liegt es an uns, ob wir ein System schaffen, das diesen Robotern die Werkzeuge an die Hand gibt, um in der von uns geschaffenen Realität besser, robuster und schneller zu sein, und nicht in der, die sie „halluzinieren“.

Weiterlesen: Krypto-Skeptiker haben 2024 schwierigere Argumente | Meinung

Autor: Enzo Villani

Enzo Villani ist CEO und Chief Investment Officer von Alpha Transform Holdings. Er ist ein Serienunternehmer mit zwanzig Jahren Erfahrung als Chefstratege für Fortune 500-Unternehmen, Private-Equity-Firmen und Risikokapital. Enzo war Mitbegründer von Nasdaq Corporate Solutions und Mitbegründer und Chief Strategy Officer von zwei strategischen M&A-Konsolidierungen in den Bereichen Investor Relations, Proxy Solicitation, Corporate Governance und Finanztechnologie. In der Blockchain-Branche war Enzo Chief Strategy Officer der Transform Group, die bis 2019 über 37 % der Marktkapitalisierung von Altcoins auf den Markt brachte. Er war Mitbegründer von Blockchain Wire und leitete die internationale Strategie und Innovation bei OKEx. Enzo hat einen MBA von der Cornell University Johnson School.