Ein Teil der Magie der Generativen KI besteht darin, dass die meisten Menschen keine Ahnung haben, wie sie funktioniert. Auf einer gewissen Ebene kann man sogar sagen, dass niemand ganz sicher ist, wie sie funktioniert, denn die Funktionsweise von ChatGPT kann selbst die klügsten Wissenschaftler ratlos zurücklassen. Es ist eine Blackbox. Wir sind uns nicht ganz sicher, wie sie trainiert wird, welche Daten welche Ergebnisse hervorbringen und welches geistige Eigentum dabei mit Füßen getreten wird. Das ist sowohl Teil der Magie als auch Teil des Erschreckenden. Ariana Spring ist eine Rednerin beim diesjährigen Consensus-Festival, das vom 29. bis 31. Mai in Austin, Texas, stattfindet.

Was wäre, wenn es eine Möglichkeit gäbe, in die Blackbox hineinzuschauen und so klar zu visualisieren, wie KI gesteuert, trainiert und produziert wird? Dies ist das Ziel – oder eines der Ziele – von EQTY Lab, das Forschung betreibt und Tools entwickelt, um KI-Modelle transparenter und kollaborativer zu machen. Der Lineage Explorer von EQTY Lab beispielsweise bietet eine Echtzeitansicht der Erstellung des Modells.

All diese Tools sollen Intransparenz und Zentralisierung vorbeugen. „Wenn man nicht versteht, warum eine KI die Entscheidungen trifft, die sie trifft, oder wer dafür verantwortlich ist, ist es wirklich schwer zu hinterfragen, warum schädliche Dinge verbreitet werden“, sagt Ariana Spring, Forschungsleiterin bei EQTY Lab. „Deshalb denke ich, dass Zentralisierung – und das Aufbewahren dieser Geheimnisse in Blackboxes – wirklich gefährlich ist.“

Gemeinsam mit ihrem Kollegen Andrew Stanco (Finanzchef) erzählt Spring, wie Kryptowährungen zu einer transparenteren KI beitragen können, wie diese Tools bereits in der Klimaforschung eingesetzt werden und warum diese Open-Source-Modelle integrativer und repräsentativer für die Menschheit als Ganzes sein können.

Das Interview wurde aus Gründen der Klarheit gekürzt und leicht bearbeitet.

Was sind die Vision und das Ziel von EQTY Lab?

Ariana Spring: Wir sind Vorreiter bei neuen Lösungen, um Vertrauen und Innovation in der KI aufzubauen. Und generative KI ist derzeit ein heißes Thema, und das ist die am stärksten aufstrebende Eigenschaft, also ist das etwas, worauf wir uns konzentrieren.

Aber wir betrachten auch alle möglichen Arten von KI und Datenmanagement. Und wir konzentrieren uns wirklich auf Vertrauen und Innovation. Wir tun dies, indem wir fortschrittliche Kryptografie verwenden, um Modelle transparenter, aber auch kollaborativer zu machen. Wir sehen Transparenz und Zusammenarbeit als zwei Seiten derselben Medaille, wenn es darum geht, intelligentere und sicherere KI zu schaffen.

Können Sie etwas mehr darüber sagen, wie Krypto hier hineinpasst? Denn viele Leute sagen, „Krypto und KI passen gut zusammen“, aber oft bleibt die Begründung auf einer sehr hohen Ebene stehen.

Andrew Stanco: Ich denke, die Schnittstelle zwischen KI und Kryptographie ist eine offene Frage, oder? Wir haben herausgefunden, dass das verborgene Geheimnis der KI darin liegt, dass sie kollaborativ ist; es gibt eine Vielzahl von Beteiligten. Kein einzelner Datenwissenschaftler könnte ein KI-Modell erstellen. Sie können es trainieren, sie können es feinabstimmen, aber Kryptographie wird zu einer Möglichkeit, etwas zu tun und dann eine manipulationssichere Möglichkeit zu haben, zu überprüfen, ob es passiert ist.

Bei einem so komplexen Prozess wie dem KI-Training ist es also wirklich hilfreich, diese manipulationssicheren und überprüfbaren Bescheinigungen sowohl während des Trainings als auch danach zu haben. Es schafft Vertrauen und Transparenz.

Ariana Spring: Was wir tun, ist, dass bei jedem Schritt des KI-Lebenszyklus und des Trainingsprozesses eine Beglaubigung – oder ein Stempel – dessen erfolgt, was passiert ist. Dies ist die dezentrale ID oder Kennung, die dem Agenten oder Menschen oder der Maschine zugeordnet ist, die diese Aktion ausführt. Sie haben den Zeitstempel. Und mit unserem Lineage Explorer können Sie sehen, dass alles, was wir tun, automatisch mithilfe von Kryptografie registriert wird.

Und dann verwenden wir Smart Contracts in unseren Governance-Produkten. Wenn also der Parameter X erfüllt oder nicht erfüllt ist, kann eine bestimmte Aktion ausgeführt werden oder nicht. Eines unserer Tools ist ein Governance Studio, das im Grunde programmiert, wie Sie eine KI trainieren oder wie Sie Ihren KI-Lebenszyklus verwalten können, und das wird dann nachgelagert widergespiegelt.

Können Sie etwas genauer erläutern, welche Art von Tools Sie entwickeln? Entwickeln Sie beispielsweise Tools und betreiben Sie Forschung, die anderen Startups beim Erstellen von Schulungsmodellen helfen sollen, oder entwickeln Sie selbst Schulungsmodelle? Mit anderen Worten: Was genau ist die Rolle von EQTY Labs in diesem Umfeld?

Andrew Stanco: In gewisser Weise ist es eine Mischung, denn unser Fokus liegt auf dem Unternehmen, da dies einer der ersten großen Bereiche sein wird, in denen Sie KI aus Sicht der Schulung und Verwaltung richtig machen müssen. Wenn Sie sich damit befassen, müssen wir einen Bereich haben, in dem ein Entwickler – oder jemand in dieser Organisation – den Code kommentieren und sagen kann: „Okay, das ist passiert“ und dann einen Datensatz erstellen kann. Es ist unternehmensorientiert und legt einen Schwerpunkt auf die Zusammenarbeit mit Entwicklern und den Leuten, die die Modelle erstellen und bereitstellen.

Ariana Spring: Und wir haben auch über das Endowment for Climate Intelligence an der Schulung des Modells mitgearbeitet. Wir haben dabei geholfen, ein Modell namens ClimateGPT zu trainieren, ein klimaspezifisches Modell in großer Sprache. Das ist nicht unser täglich Brot, aber wir haben den Prozess durchlaufen und unsere Technologiesuite verwendet, um ihn zu visualisieren. Wir verstehen also, wie es ist.

Was begeistert Sie an KI am meisten und was macht Ihnen an KI am meisten Angst?

Andrew Stanco: Ich meine, was die Aufregung betrifft, fühlte sich der erste Moment, in dem man mit generativer KI interagierte, so an, als ob man den Blitz im Modell entkorkt hätte. Als man zum ersten Mal eine Eingabeaufforderung in MidJourney erstellte oder ChatGPT eine Frage stellte, musste einen niemand davon überzeugen, dass es vielleicht leistungsstark ist. Und ich dachte nicht, dass es noch viele neue Dinge gab, oder?

Und was den Terror betrifft?

Andrew Stanco: Ich denke, diese Sorge ist vielleicht der Subtext für vieles, was bei Consensus besprochen wird, wenn man nur einen Blick auf die Tagesordnung wirft. Die Sorge ist, dass diese Tools es den bestehenden Gewinnern ermöglichen, tiefere Wege zu finden. Dass es sich nicht unbedingt um eine disruptive Technologie handelt, sondern um eine, die sich festsetzt.

Und Ariana, Ihre größte KI-Aufregung und Ihr größter Schrecken?

Ariana Spring: Ich fange mit meiner Angst an, denn ich wollte etwas Ähnliches sagen. Ich würde Zentralisierung sagen. Wir haben gesehen, welche Schäden Zentralisierung anrichtet, wenn sie mit mangelnder Transparenz darüber einhergeht, wie etwas funktioniert. Das haben wir in den letzten 10, 15 Jahren zum Beispiel bei sozialen Medien gesehen. Und wenn man nicht versteht, warum eine KI die Entscheidungen trifft, die sie trifft, oder wer dafür verantwortlich ist, ist es wirklich schwer zu hinterfragen, warum schädliche Dinge verbreitet werden. Daher denke ich, dass Zentralisierung – und das Bewahren dieser Geheimnisse in Blackboxes – wirklich gefährlich ist.

Wie wäre es mit Aufregung?

Worauf ich mich am meisten freue, ist, noch mehr Leute einzubeziehen. Wir hatten die Möglichkeit, während der Schulung von ClimateGPT mit verschiedenen Interessengruppen zusammenzuarbeiten, wie etwa mit indigenen älteren Gruppen oder einkommensschwachen, städtischen, schwarzen und braunen Jugendlichen oder Studenten im Nahen Osten. Wir arbeiten mit all diesen Klimaaktivisten und Akademikern zusammen, um ihnen sozusagen zu sagen: „Hey, wollt ihr helfen, dieses Modell zu verbessern?“

Die Leute sind wirklich begeistert, aber vielleicht haben sie nicht verstanden, wie es funktioniert. Nachdem wir ihnen erklärt hatten, wie es funktioniert und wie sie helfen können, konnten sie sagen: „Oh, das ist gut.“ Ihr Selbstvertrauen wächst. Dann wollen sie mehr beitragen. Ich freue mich also wirklich darauf, einige dieser Frameworks zu veröffentlichen, damit wir uns nicht auf Systeme verlassen müssen, die vielleicht nicht so repräsentativ sind, insbesondere durch die Arbeit, die wir bei EQTY Research leisten.

Schön gesagt. Wir sehen uns in Austin beim AI Summit von Consensus.