Google arbeitet daran, fehlerhafte und potenziell gefährliche Antworten aus seinen KI-Suchergebnissen zu entfernen. Allerdings stellt die neue Funktion „KI-Übersicht“ Witze und Satire auf sozialen Medien und Satireseiten manchmal fälschlicherweise als Tatsachen dar.

Googles jüngste Veröffentlichung von Suchergebnissen mit künstlicher Intelligenz hat viel Aufmerksamkeit erregt, allerdings nicht aus den erwarteten positiven Gründen. Der Technologieriese kündigte letzte Woche im Rahmen seiner neu eingeführten „Gemini Era“-Strategie eine Reihe neuer Tools für künstliche Intelligenz an. Damit einher geht eine bedeutende Änderung an seinem Signatur-Websuchdienst, bei dem Antworten auf Fragen in Suchergebnissen jetzt in natürlicher Sprache direkt über den Website-Links angezeigt werden.

Obwohl das Update von Google die Suchtechnologie fortschrittlicher macht und komplexere Benutzerfragen bewältigen kann, wirft es auch einige Bedenken auf. Wenn KI beispielsweise Suchergebnisse verarbeitet, präsentiert sie den Benutzern manchmal falsche oder irreführende Informationen, was besonders problematisch ist, wenn es um sensible Themen wie Eugenik geht. Eugenik wurde im Laufe der Geschichte in einigen unmenschlichen Maßnahmen fälschlicherweise eingesetzt, daher ist die Genauigkeit und Sensibilität ihrer Informationen besonders wichtig.

Darüber hinaus verfügt die KI auch nicht über eine unzureichende Genauigkeit bei der Identifizierung bestimmter Dinge, beispielsweise bei der Unterscheidung zwischen giftigen und ungiftigen Pilzen. Dies erinnert uns daran, dass wir bei der Verwendung von KI-Suchtools bei gesundheits- und sicherheitsbezogenen Fragen besonders vorsichtig sein und nach Möglichkeit eine professionelle Bestätigung einholen müssen.

Wenn Google AI Antworten zur „KI-Übersicht“ bereitstellt, verweist es manchmal auf Inhalte aus sozialen Medien wie Reddit, die möglicherweise für Humor oder Satire gedacht waren. Dies führt dazu, dass den Benutzern einige offensichtlich falsche oder unsinnige Antworten gegeben werden.

Einige Nutzer berichteten beispielsweise, dass Google AI auf die Frage, wie man mit Depressionen umgehen solle, tatsächlich vorschlug, „von der Golden Gate Bridge zu springen“. Andere Antworten bestätigten absurderweise eine Anti-Schwerkraft-Fähigkeit, die es Menschen ermöglichen würde, in der Luft zu bleiben, solange sie nicht nach unten schauen.

Diese Beispiele zeigen, dass die KI zwar Fortschritte bei der Bereitstellung von Suchergebnissen gemacht hat, es aber immer noch Defizite bei der Genauigkeit und Zuverlässigkeit gibt und weitere Verbesserungen erforderlich sind.

Die ursprüngliche Absicht der Zusammenarbeit von Google mit Reddit besteht darin, den Nutzern das Auffinden und die Teilnahme an Communities und Diskussionen, die sie interessieren, zu erleichtern. Allerdings birgt diese Zusammenarbeit auch einige Risiken, insbesondere wenn KI Inhalte von Reddit verarbeitet. Da die KI möglicherweise nicht ausreichend in der Lage ist, die Authentizität oder den Kontext von Informationen zu erkennen, kann sie wahllos Informationen von Reddit übernehmen und zitieren. Diese wahllose Übernahme von Informationen kann dazu führen, dass in den Suchergebnissen irreführende oder sogar lächerliche Vorschläge erscheinen.

Beispielsweise machte die KI einmal einen unangemessenen Vorschlag, dass Kinder mindestens einen kleinen Stein pro Tag essen sollten, und bezeichnete den Vorschlag fälschlicherweise als von einem Geologen der University of California in Berkeley stammend. Dieses Beispiel zeigt, dass KI bei der Verarbeitung von Online-Informationen möglicherweise die Glaubwürdigkeit und Angemessenheit von Informationen ignoriert und dadurch irreführt.

Obwohl Google einige offensichtlich lächerliche Antworten gelöscht oder korrigiert hat, produzieren KI-generierte Modelle manchmal ungenaue oder fiktive Antworten, ein Phänomen, das als „Halluzination“ bekannt ist. Diese „Halluzinationen“ können als unwahre Aussagen angesehen werden, da die KI etwas erschafft, das nicht den Tatsachen entspricht.

Unterdessen empfahl Google AI einmal fälschlicherweise die Verwendung von Kleber, um zu verhindern, dass Käse von der Pizza rutscht, ein Vorschlag, der auf einen zehn Jahre alten Kommentar auf Reddit zurückgeht.

Es ist bekannt, dass das ChatGPT-Modell von OpenAI Fakten fabriziert, darunter die fälschliche Anschuldigung des Juraprofessors Jonathan Turley des sexuellen Übergriffs auf der Grundlage einer Reise, an der er nicht teilgenommen hat. Dieser Vorfall spiegelt wider, dass KI bei der Verarbeitung von Informationen möglicherweise zu selbstbewusst ist und die Authentizität von Inhalten im Internet nicht genau erkennen kann.

Darüber hinaus kann die Selbstüberschätzung der KI dazu führen, dass sie alle Informationen im Internet wahllos als wahr ansieht. Dieses Vertrauen kann zu falschen Urteilen führen, beispielsweise zu falschen Verurteilungen von Unternehmen im Zusammenhang mit Kartellgesetzen und der fälschlichen Schuldzuweisung an ehemalige Google-Führungskräfte.

Wenn Nutzer bei Google nach Fragen zur Popkultur suchen, kann die Funktion „KI-Suchvorschläge“ manchmal humorvolle oder verwirrende Ergebnisse liefern. Dies kann daran liegen, dass die KI bei der Verarbeitung von Inhalten der Popkultur auf Verständnisschwierigkeiten stößt, insbesondere wenn die Inhalte Humor, Satire oder bestimmte soziale Kontexte enthalten. Gleichzeitig kann es für die KI schwierig sein, die wahre Absicht dieser Inhalte genau zu erfassen, was zu Vorschlägen oder Antworten führt, die möglicherweise nicht den Erwartungen der Benutzer entsprechen und unerwartete Reaktionen auslösen.

Darüber hinaus bietet Google AI aktualisierte Vorschläge zum Problem der Steineinnahme von Kindern, was darauf hindeutet, dass mögliche Gründe die Neugier der Kinder, sensorische Verarbeitungsschwierigkeiten oder Ernährungsstörungen sein könnten. Dies zeigt einmal mehr, dass wir bei der Nutzung der von der KI bereitgestellten Informationen äußerst vorsichtig sein müssen, insbesondere wenn es sich dabei um Gesundheits- und Sicherheitsratschläge handelt, und dass wir professionellen Rat und Hilfe einholen müssen.

Abschluss:

Obwohl die Suchvorschlagsfunktion von Google AI erhebliche technische Fortschritte gemacht hat, kann ihre mangelnde Genauigkeit und Zuverlässigkeit immer noch schwerwiegende Folgen haben. Von der wahllosen Übernahme von Informationen auf Social-Media-Plattformen wie Reddit über irreführende Informationen zu sensiblen Themen wie Eugenik bis hin zu unangemessener Selbstkriminalisierung im juristischen Bereich haben diese Vorfälle die Bedeutung von KI bei der Überprüfung und Beurteilung von Informationen verdeutlicht.

Darüber hinaus zeigt das Problem, dass KI-Modelle Fakten fabrizieren oder „Halluzinationen“ erzeugen, auch ihre Grenzen bei der Bewältigung komplexer Probleme. Daher müssen wir die von der KI bereitgestellten Informationen wachsam betrachten, professionellen Rat einholen und Entwickler und Forscher auffordern, die KI-Technologie weiter zu verbessern, um sicherzustellen, dass sie dem Menschen mehr Nutzen als Risiken bringt. #GoogleAI #准确性 #AI模型 #可靠性