Thông qua một nghiên cứu từ ba trường đại học, Đại học Cornell, Cao đẳng Olin và Đại học Stanford, Họ đã nhận ra rằng khả năng thể hiện sự đồng cảm của AI trong các tác nhân trò chuyện, chẳng hạn như Alexa và Siri, khá hạn chế. Những phát hiện của nghiên cứu này, được đệ trình lên hội nghị CHI 2024, chỉ ra rằng mặc dù CA rất giỏi thể hiện phản ứng cảm xúc, nhưng tình hình sẽ trở nên khó khăn khi diễn giải và khám phá trải nghiệm của người dùng.

Nghiên cứu phát hiện ra những thành kiến ​​và phân biệt đối xử

Sử dụng dữ liệu được thu thập từ nhà nghiên cứu Andrea Cuadra từ Stanford, nghiên cứu này nhằm mục đích đo lường cách CA phát hiện và phản ứng với các bản sắc xã hội khác nhau giữa con người. Kiểm tra 65 danh tính khác nhau, nghiên cứu cho thấy CA có xu hướng phân loại các cá nhân và những danh tính, đặc biệt liên quan đến xu hướng tình dục hoặc tôn giáo, là những đối tượng dễ bị ảnh hưởng bởi thói quen này nhất.

Do đó, các CA, kiến ​​thức được tích hợp trong các mô hình ngôn ngữ (LLM), được đào tạo trên khối lượng lớn dữ liệu do con người tạo ra, có thể có những thành kiến ​​​​có hại trong dữ liệu mà họ đã sử dụng. Đặc biệt, nó dễ bị phân biệt đối xử, bản thân CA có thể sẵn sàng thể hiện sự đoàn kết đối với những hệ tư tưởng có tác động tiêu cực đến con người như Chủ nghĩa Quốc xã.

Ý nghĩa của sự đồng cảm tự động

Từ khái niệm đồng cảm nhân tạo của ông, người ta đã tiết lộ rằng các ứng dụng của nó trong lĩnh vực giáo dục và chăm sóc sức khỏe rất đa dạng. Mặt khác, người ta nhấn mạnh nhiều đến nhu cầu của con người là luôn cảnh giác và tránh phải cày xới những vấn đề có thể nảy sinh với những tiến bộ như vậy.

Như các nhà nghiên cứu đã nêu, LLM thể hiện khả năng cao trong việc cung cấp phản ứng cảm xúc, nhưng đồng thời, chúng còn khập khiễng hoặc thiếu đủ khả năng để diễn giải và khám phá trải nghiệm người dùng. Đây là một nhược điểm vì giao diện người dùng có thể không thể tương tác hoàn toàn với khách hàng trong các tương tác cảm xúc sâu sắc ngoài giao diện người dùng đã bị loại bỏ các lớp.