Antwort von Google an OpenAI: Ankündigung von Project Astra

Vor sechs Jahren zeigte Google auf einer I/O-Entwicklerveranstaltung eine Demo zu künstlicher Intelligenz namens Duplex und vereinbarte einen Termin mit einem Friseur. Nach vielen Jahren kündigte Google kürzlich Project Astra an. In der geteilten Demo kann Project Astra durch eine Telefonkamera alles um sich herum sehen und Ihre Fragen dazu beantworten.

Googles DeepMind-CEO Demis Hassabis sagte in seiner heutigen Keynote, dass sein Team daran arbeitet, universelle KI-Agenten zu entwickeln, die im täglichen Leben helfen können. Project Astra ist ein Schritt in Richtung dieses Ziels.

In der geteilten Demo sehen wir, dass die Person, die das Telefon hält, die Kamera des Geräts und Project Astra in einige Teile des Büros mitnimmt und Fragen stellt. Im gezeigten Beispiel sagt der Benutzer laut: „Sag mir Bescheid, wenn du etwas siehst, das ein Geräusch macht“, und die Gemini-betriebene KI antwortet: „Ich sehe einen Lautsprecher, der ein Geräusch macht.“ Der Benutzer fragt die KI dann, worauf er auf dem Lautsprecher zeigt, und sagt: „Das ist der Hochtöner. Er erzeugt hochfrequente Töne.“ bekommt die Antwort.

Laut seiner Aussage betont Google, dass dieses Video in einer einzigen Aufnahme und in Echtzeit erstellt wurde. Später im Video wird Gemini gezeigt, wie er Codeteile auf einem Monitor identifiziert und erklärt und dem Benutzer anhand der Sicht aus dem Fenster mitteilt, in welcher Nachbarschaft er sich befindet.

Am beeindruckendsten ist, wenn der Benutzer fragt: „Erinnerst du dich, wo ich meine Brille gesehen habe?“ Das passiert, wenn man die Frage stellt. Im Video wurde die künstliche Intelligenz nicht nach Brillen gefragt, tatsächlich gab es in der Szene, die der Benutzer in diesem Moment auf der Telefonkamera zeigte, keine Brille. Aber trotz allem sagt Gemini: „Ja, ich erinnere mich. Deine Brille steht neben einem roten Apfel.“