Die britische Regierung hat 12 Millionen Pfund für eine Reihe bahnbrechender Projekte bereitgestellt, die sich mit der richtigen Entscheidungsfindung befassen, wenn die bedeutende Entwicklung der künstlichen Intelligenz die Gefahr birgt, dass sich die Lücken vertiefen. Diese Mittel wurden über RAi UK, d. h. Responsible AI UK, bereitgestellt, ein 31 Millionen Pfund teures, auf vier Jahre angelegtes Projekt zur Untersuchung der gesellschaftlichen Folgen und Auswirkungen generativer KI. Ein relevantes Beispiel wären die drei Projekte, die auf Themen wie Gesundheit, soziale Sicherheit, Strafverfolgung und Finanzdienstleistungsbranche abzielen, sowie die beiden anderen Projekte, die sich mit der KI-Verantwortlichkeit für intelligente Operationen und der öffentlichen Beteiligung an der Entwicklung neuer Technologien befassen.

Stärkung der Strafverfolgung und der Finanzdienstleistungen

Da die Bekämpfung von Geldwäsche und Terrorismusfinanzierung ohne die wirksame Umsetzung gemeinsamer Regeln und eine enge Zusammenarbeit zwischen Strafverfolgungsbehörden und Finanzdienstleistern kaum zu einem durchschlagenden Erfolg werden kann, müssen wir den Kampf gegen Geldwäsche und Terrorismusfinanzierung fortsetzen.

Die Diagramme zeigen, dass, wenn Ereignisse wahrscheinlich sind, sie bei etwa 3 £ liegen. Wir müssen außerdem 5 Millionen Dollar ausgeben, um das Fehlen von KI in der Strafverfolgung zu beheben. Prof. Marion Oswald von der Northumbria University, die die Initiative leitet, erklärte bereits, dass KI genau dort als Lösung für das Problem der Informationsüberflutung und betrieblichen Ineffizienz ansetzen kann. KI-Tools erfüllen jedoch nicht die gesetzlichen Standards für die Erzielung angemessener Ergebnisse für KI. In dieser Reihenfolge könnte eine Struktur entwickelt werden, die durch KI verursachte Unvorhersehbarkeit mit den drei Hauptgruppen verknüpft, die von KI betroffen sind, und so dazu beiträgt, Anwendungen zu entwickeln, die probabilistische KI-Ergebnisse liefern, aber Gerechtigkeit und Verantwortung wahren.

Die Einschränkungen von LLMs angehen

Weitere 3,5 Millionen Pfund sind für das Projekt vorgesehen, das sich mit den Einschränkungen großer Sprachmodelle (LLMs) befasst, die in medizinischen und sozialen Prozessen eingesetzt werden. Diese Initiative wurde von einer Professorin der Universität London namens Maria Liakata geleitet. In diesem Zusammenhang ist sie der Ansicht, dass die Notwendigkeit einer glaubwürdigen Anwendung der Modelle ein wesentlicher Bestandteil der Angleichung ethischer Praktiken ist. Das Projekt zielt auf eine gründliche Analyse soziotechnischer Barrieren sowie auf die Verhinderung unbeabsichtigter Ergebnisse in sensiblen Bereichen ab, in denen es ständig zu Datenschutzverletzungen kommt, beispielsweise im Rechts- und Gesundheitswesen.

Das an der Universität Glasgow angesiedelte Projekt „Participatory Harm Auditing Workbenches and Methodologies“ wird mit 3,5 Millionen Pfund gefördert. Die Teamleiterin Dr. Simone Stumpf wies darauf hin, dass die Hauptaufgabe, die sie zu erfüllen versuchen, darin bestehe, die Anreize für Fehlvorhersagen und Fehlentwicklungen durch KI zu mildern. „Mit diesem Projekt helfen wir denjenigen mit der größten Fachkompetenz in bestimmten Bereichen, Tools zur Erkennung potenzieller Risiken zu verwenden und das System in gutem Zustand zu hinterlassen. Dadurch können andere Interessengruppen aktiv am Entscheidungsprozess teilnehmen und so sicherstellen, dass die KI-Systeme zukünftiger Generationen unter Berücksichtigung aller ethischen Fragen entwickelt werden.“

Zusätzliche Unterstützung durch UKRI

Der Technology Missions Fund des britischen Forschungs- und Innovationsministeriums (UKRI) hat einen Betrag von 4 Millionen Pfund investiert, der diese Projekte unterstützen soll. Davon wurden 750.000 Pfund an das Digital Good Network, das Alan Turing Institute und das Ada Lovelace Institute vergeben, um die Beteiligung der Öffentlichkeit zu erleichtern und der öffentlichen Meinung im KI-Forschungs- und Politikgestaltungsprozess Gewicht zu verleihen. Professor Helen Kennedy, die diese Initiative leitet und stets das Engagement der Öffentlichkeit bei der Entwicklung fairer und verantwortungsvoller KI-Politiken betont, betonte die bedeutende Rolle der öffentlichen Meinung in diesem Zusammenhang. Außerdem werden diese 650.000 Pfund einem vom Productivity Institute zusammengestellten Projekt zugewiesen, das sich auf die Umsetzung von KI konzentriert.

Die Professorin Diane Coyle plädierte für interdisziplinäre Forschung, indem sie nicht nur die Kluft zwischen Forschern, sondern auch zwischen Politikern, Unternehmen und Entwicklern von KI-Technologien überbrückte, um sicherzustellen, dass KI-Technologien die Produktivität und das Wohlergehen der Gesellschaft steigern. Diese strategischen Mittel sind Teil eines Projektportfolios im Wert von 1 Milliarde Pfund, das von UKRI umgesetzt wird, um die KI-Forschung und -Entwicklung zu stärken. Dies ist eine der Maßnahmen, die Großbritannien ergriffen hat, um seine Wettbewerbsposition bei der ethischen Entwicklung von KI zu verbessern.