Google đang nỗ lực loại bỏ các câu trả lời sai và có khả năng gây nguy hiểm khỏi kết quả tìm kiếm AI của mình. Tuy nhiên, tính năng "Tổng quan về AI" mới đôi khi trình bày những câu chuyện cười và châm biếm trên mạng xã hội và các trang web châm biếm không chính xác như thực tế.

Việc Google công bố kết quả tìm kiếm trí tuệ nhân tạo gần đây đã thu hút rất nhiều sự chú ý nhưng không phải vì những lý do tích cực như mong đợi. Gã khổng lồ công nghệ đã công bố một loạt công cụ trí tuệ nhân tạo mới vào tuần trước như một phần của chiến lược "Kỷ nguyên Song Tử" mới ra mắt. Cùng với đó là một thay đổi đáng kể đối với dịch vụ tìm kiếm trên web đặc trưng của nó, trong đó câu trả lời cho các câu hỏi trong kết quả tìm kiếm hiện được hiển thị bằng ngôn ngữ tự nhiên ngay trên đầu các liên kết trang web.

Mặc dù bản cập nhật của Google giúp công nghệ tìm kiếm tiên tiến hơn và có thể xử lý các câu hỏi phức tạp hơn của người dùng nhưng nó cũng đặt ra một số lo ngại. Ví dụ: khi AI xử lý kết quả tìm kiếm, đôi khi nó đưa ra thông tin không chính xác hoặc gây hiểu lầm cho người dùng, điều này đặc biệt gây rắc rối khi đề cập đến các chủ đề nhạy cảm như thuyết ưu sinh. Thuyết ưu sinh đã bị sử dụng sai trái trong một số chính sách vô nhân đạo trong suốt lịch sử, vì vậy tính chính xác và nhạy cảm của thông tin nó đặc biệt quan trọng.

Ngoài ra, AI còn thiếu độ chính xác khi xác định những thứ cụ thể, chẳng hạn như phân biệt nấm độc và nấm không độc. Điều này nhắc nhở chúng ta rằng khi sử dụng các công cụ tìm kiếm AI, chúng ta cần hết sức cẩn thận với các truy vấn liên quan đến sức khỏe và an toàn cũng như tìm kiếm xác nhận của chuyên gia nếu có thể.

Khi Google AI cung cấp câu trả lời "tổng quan về AI", đôi khi nó sẽ tham chiếu nội dung từ mạng xã hội như Reddit, nội dung này có thể nhằm mục đích hài hước hoặc châm biếm. Điều này dẫn đến một số câu trả lời rõ ràng là sai hoặc vô nghĩa được cung cấp cho người dùng.

Ví dụ: một số người dùng báo cáo rằng khi họ hỏi cách đối phó với chứng trầm cảm, Google AI thực sự đã đề xuất "nhảy khỏi Cầu Cổng Vàng". Các câu trả lời khác đã xác nhận một cách ngớ ngẩn khả năng chống trọng lực sẽ cho phép mọi người ở trên không trung miễn là họ không nhìn xuống.

Những ví dụ này cho thấy mặc dù AI đã đạt được tiến bộ trong việc cung cấp kết quả tìm kiếm nhưng vẫn còn những thiếu sót về độ chính xác và độ tin cậy và cần phải cải thiện thêm.

Mục đích ban đầu của việc Google hợp tác với Reddit là giúp người dùng dễ dàng tìm thấy và tham gia vào các cộng đồng cũng như các cuộc thảo luận mà họ quan tâm. Tuy nhiên, sự hợp tác này cũng bộc lộ một số rủi ro, đặc biệt là khi AI xử lý nội dung từ Reddit. Vì AI có thể không có đủ khả năng để phân biệt tính xác thực hoặc bối cảnh của thông tin nên nó có thể áp dụng và trích dẫn thông tin từ Reddit một cách bừa bãi. Việc áp dụng thông tin một cách bừa bãi này có thể dẫn đến những gợi ý sai lệch hoặc thậm chí vô lý xuất hiện trong kết quả tìm kiếm.

Ví dụ, AI từng đưa ra một gợi ý không phù hợp rằng trẻ em nên ăn ít nhất một tảng đá nhỏ mỗi ngày và dán nhãn sai cho gợi ý đó là đến từ một nhà địa chất tại Đại học California, Berkeley. Ví dụ này minh họa rằng AI có thể bỏ qua độ tin cậy và tính phù hợp của thông tin khi xử lý thông tin trực tuyến, từ đó gây hiểu nhầm.

Mặc dù Google đã xóa hoặc sửa một số câu trả lời rõ ràng là vô lý nhưng các mô hình do AI tạo ra đôi khi đưa ra những câu trả lời không chính xác hoặc hư cấu, một hiện tượng được gọi là "ảo giác". Những "ảo giác" này có thể coi là tuyên bố sai sự thật vì AI đang tạo ra thứ gì đó không có thật.

Trong khi đó, Google AI đã nhầm lẫn khi khuyến nghị sử dụng keo để ngăn phô mai trượt khỏi bánh pizza, một gợi ý xuất phát từ một bình luận cách đây hàng thập kỷ trên Reddit.

Mô hình ChatGPT của OpenAI được biết đến là người bịa đặt sự thật, bao gồm cả việc cáo buộc sai giáo sư luật Jonathan Turley về tội tấn công tình dục dựa trên chuyến đi mà ông không tham gia. Sự việc này phản ánh AI có thể quá tự tin khi xử lý thông tin và không phân biệt chính xác tính xác thực của nội dung trên Internet.

Ngoài ra, sự tự tin quá mức của AI có thể khiến nó bừa bãi chấp nhận mọi thông tin trên Internet là đúng. Sự tin tưởng này có thể dẫn đến những phán đoán sai lầm, chẳng hạn như kết án sai các công ty trong bối cảnh luật chống độc quyền và đổ lỗi sai cho các cựu giám đốc điều hành của Google.

Khi người dùng tìm kiếm những câu hỏi liên quan đến văn hóa đại chúng trên Google, tính năng Gợi ý tìm kiếm AI đôi khi có thể đưa ra một số kết quả hài hước hoặc khó hiểu. Điều này có thể là do AI gặp phải những thách thức về khả năng hiểu khi xử lý nội dung văn hóa đại chúng, đặc biệt khi nội dung đó chứa đựng sự hài hước, châm biếm hoặc bối cảnh xã hội cụ thể. Đồng thời, AI có thể khó nắm bắt chính xác ý đồ thực sự của những nội dung này, dẫn đến những gợi ý hoặc câu trả lời có thể không đúng với mong đợi của người dùng, gây ra một số phản ứng không mong muốn.

Ngoài ra, Google AI còn cung cấp các đề xuất cập nhật về vấn đề trẻ ăn phải đá, cho thấy các nguyên nhân có thể bao gồm tính tò mò của trẻ, khó khăn trong xử lý cảm giác hoặc rối loạn chế độ ăn uống. Điều này một lần nữa chứng tỏ rằng chúng ta phải cực kỳ thận trọng khi sử dụng thông tin do AI cung cấp, đặc biệt khi thông tin liên quan đến lời khuyên về sức khỏe và an toàn, đồng thời chúng ta phải tìm kiếm lời khuyên và trợ giúp từ chuyên gia.

Phần kết luận:

Mặc dù tính năng gợi ý tìm kiếm của Google AI đã đạt được tiến bộ đáng kể về mặt kỹ thuật nhưng những thiếu sót về độ chính xác và độ tin cậy của nó vẫn có thể dẫn đến những hậu quả nghiêm trọng. Từ việc áp dụng thông tin một cách bừa bãi trên các nền tảng truyền thông xã hội như Reddit, đến thông tin sai lệch về các chủ đề nhạy cảm như thuyết ưu sinh, đến việc tự hình sự hóa không phù hợp trong lĩnh vực pháp lý, những sự cố này đã làm nổi bật tầm quan trọng của AI trong việc sàng lọc và phán đoán thông tin.

Ngoài ra, vấn đề các mô hình AI bịa đặt sự thật hay tạo ra “ảo giác” cũng cho thấy những hạn chế của nó trong việc xử lý các vấn đề phức tạp. Vì vậy, chúng ta phải luôn cảnh giác với thông tin do AI cung cấp, tìm kiếm lời khuyên chuyên môn và kêu gọi các nhà phát triển, nhà nghiên cứu tiếp tục cải tiến công nghệ AI để đảm bảo rằng nó mang lại nhiều lợi ích hơn cho con người hơn là rủi ro. #GoogleAI #准确性 #AI模型 #可靠性