Phản hồi từ Google tới OpenAI: Dự án Astra đã được công bố

Sáu năm trước, Google đã trình diễn bản demo trí tuệ nhân tạo có tên Duplex tại một sự kiện dành cho nhà phát triển I/O và đặt lịch hẹn với một thợ cắt tóc. Sau nhiều năm, Google mới đây đã công bố Project Astra. Trong bản demo được chia sẻ, Project Astra có thể xem mọi thứ xung quanh thông qua camera của điện thoại và trả lời các câu hỏi của bạn về nó.

Giám đốc điều hành DeepMind của Google, Demis Hassabis, cho biết trong bài phát biểu quan trọng hôm nay rằng nhóm của ông đang nỗ lực phát triển các tác nhân AI phổ quát có thể trợ giúp trong cuộc sống hàng ngày. Dự án Astra là một bước hướng tới mục tiêu này.

Trong bản demo được chia sẻ, chúng tôi thấy người cầm điện thoại cầm camera của thiết bị và Project Astra đến một số khu vực trong văn phòng và đặt câu hỏi. Trong ví dụ hiển thị, người dùng nói to: “Hãy cho tôi biết khi bạn thấy thứ gì đó phát ra âm thanh” và AI do Gemini cung cấp sẽ trả lời: “Tôi thấy một chiếc loa đang phát ra âm thanh”. Sau đó, người dùng hỏi AI mà anh ta đang chỉ vào cái gì trên loa và nói: "Đây là loa tweeter. Nó tạo ra âm thanh tần số cao." nhận được câu trả lời.

Theo tuyên bố của mình, Google nhấn mạnh rằng video này được thực hiện chỉ bằng một lần quay duy nhất và theo thời gian thực. Ở phần sau của video, Gemini xác định và giải thích các đoạn mã trên màn hình, cho người dùng biết họ đang ở khu vực lân cận nào dựa trên chế độ xem từ cửa sổ.

Phần ấn tượng nhất là khi người dùng hỏi: “Bạn có nhớ tôi đã nhìn thấy chiếc kính của mình ở đâu không?” Nó xảy ra khi bạn đặt câu hỏi. Trong video, trí tuệ nhân tạo không được hỏi gì về kính, thực tế là không có kính trong cảnh mà người dùng chiếu trên camera điện thoại vào thời điểm đó. Nhưng bất chấp điều này, Song Tử vẫn nói, "Ừ, anh nhớ rồi. Cặp kính của em ở cạnh một quả táo đỏ."