Nhà tâm lý học nổi tiếng của Harvard B.F. Skinner đã từng cho rằng "vấn đề thực sự không phải là máy móc có suy nghĩ hay không mà là con người có suy nghĩ hay không". Quan sát dí dỏm này nhấn mạnh một điểm từng rất quan trọng: rằng niềm tin của chúng ta vào công nghệ phụ thuộc vào phán đoán của con người. Chúng ta không nên lo lắng về trí thông minh của máy móc mà là về sự khôn ngoan và trách nhiệm của những người kiểm soát nó. Hoặc ít nhất là trường hợp đó.
Với phần mềm như ChatGPT hiện là một phần không thể thiếu trong cuộc sống làm việc của nhiều người, hiểu biết sâu sắc của Skinner có vẻ gần như kỳ lạ. Sự gia tăng nhanh chóng của các tác nhân AI – các thực thể phần mềm có khả năng nhận thức môi trường của chúng và thực hiện các hành động để đạt được các mục tiêu cụ thể – đã thay đổi cơ bản mô hình. Những trợ lý kỹ thuật số này, ra đời từ sự bùng nổ AI của người tiêu dùng vào đầu những năm 2020, hiện đã thâm nhập vào cuộc sống kỹ thuật số của chúng ta, xử lý các nhiệm vụ từ lên lịch hẹn đến đưa ra quyết định đầu tư.
Tác nhân AI là gì?
Các tác nhân AI khác biệt đáng kể so với các mô hình ngôn ngữ lớn (LLM) như ChatGPT ở khả năng hành động tự chủ. Trong khi LLM chủ yếu xử lý và tạo văn bản, các tác nhân AI được thiết kế để nhận thức môi trường của chúng, đưa ra quyết định và thực hiện hành động để đạt được các mục tiêu cụ thể. Các tác nhân này kết hợp nhiều công nghệ AI khác nhau, bao gồm xử lý ngôn ngữ tự nhiên, thị giác máy tính và học tăng cường, cho phép chúng thích nghi và học hỏi từ kinh nghiệm của mình.
Nhưng khi các tác nhân AI sinh sôi và lặp lại, thì nỗi lo lắng dai dẳng cũng xuất hiện. Liệu chúng ta có bao giờ thực sự tin tưởng những thực thể kỹ thuật số này không? Câu hỏi này không hề mang tính học thuật. Các tác nhân AI hoạt động trong môi trường phức tạp, đưa ra quyết định dựa trên các tập dữ liệu khổng lồ và các thuật toán phức tạp mà ngay cả những người tạo ra chúng cũng phải vật lộn để hiểu hết. Sự mơ hồ cố hữu này gây ra sự ngờ vực. Khi một tác nhân AI đề xuất một phương pháp điều trị y tế hoặc dự đoán xu hướng thị trường, làm sao chúng ta có thể chắc chắn về lý do đằng sau các lựa chọn của nó?
Hậu quả của việc đặt niềm tin sai chỗ vào các tác nhân AI có thể rất thảm khốc. Hãy tưởng tượng một cố vấn tài chính được hỗ trợ bởi AI vô tình làm sụp đổ thị trường do một điểm dữ liệu bị hiểu sai hoặc một AI chăm sóc sức khỏe khuyến nghị các phương pháp điều trị không chính xác dựa trên dữ liệu đào tạo thiên vị. Khả năng gây hại không chỉ giới hạn ở các lĩnh vực riêng lẻ; khi các tác nhân AI ngày càng tích hợp nhiều hơn vào cuộc sống hàng ngày của chúng ta, ảnh hưởng của chúng tăng theo cấp số nhân. Một bước đi sai lầm có thể lan rộng khắp xã hội, ảnh hưởng đến mọi thứ từ quyền riêng tư cá nhân đến nền kinh tế toàn cầu.
Vấn đề cốt lõi của sự thiếu hụt lòng tin này nằm ở sự tập trung hóa. Việc phát triển và triển khai các mô hình AI phần lớn là phạm vi của một số ít các công ty công nghệ lớn. Các mô hình AI tập trung này hoạt động như những hộp đen, các quy trình ra quyết định của chúng bị che khuất khỏi sự giám sát của công chúng. Sự thiếu minh bạch này khiến chúng ta hầu như không thể tin tưởng vào các quyết định của chúng trong các hoạt động có rủi ro cao. Làm sao chúng ta có thể tin tưởng vào một tác nhân AI để đưa ra những lựa chọn quan trọng khi chúng ta không thể hiểu hoặc xác minh lý luận của nó?
Phân cấp như một câu trả lời
Tuy nhiên, một giải pháp cho những lo ngại này vẫn tồn tại: AI phi tập trung. Một mô hình cung cấp con đường hướng đến các tác nhân AI minh bạch và đáng tin cậy hơn. Cách tiếp cận này tận dụng thế mạnh của công nghệ blockchain và các hệ thống phi tập trung khác để tạo ra các mô hình AI không chỉ mạnh mẽ mà còn có trách nhiệm.
Các công cụ để xây dựng lòng tin vào các tác nhân AI đã tồn tại. Blockchain có thể cho phép tính toán có thể xác minh, đảm bảo rằng các hành động của AI có thể kiểm toán và theo dõi được. Mọi quyết định mà tác nhân AI đưa ra đều có thể được ghi lại trên sổ cái công khai, cho phép minh bạch chưa từng có. Đồng thời, các kỹ thuật mã hóa tiên tiến như máy học môi trường thực thi đáng tin cậy (TeeML) có thể bảo vệ dữ liệu nhạy cảm và duy trì tính toàn vẹn của mô hình, đạt được cả tính minh bạch và quyền riêng tư.
Khi các tác nhân AI ngày càng hoạt động gần hoặc trực tiếp trên các blockchain công khai, khái niệm về khả năng xác minh trở nên quan trọng. Các mô hình AI truyền thống có thể gặp khó khăn trong việc chứng minh tính toàn vẹn của các hoạt động của chúng, nhưng các tác nhân AI dựa trên blockchain có thể cung cấp các đảm bảo mật mã về hành vi của chúng. Khả năng xác minh này không chỉ là một sự tinh tế về mặt kỹ thuật; đó là một yêu cầu cơ bản để tạo nên sự tin tưởng trong các môi trường có rủi ro cao.
Các kỹ thuật điện toán bảo mật, đặc biệt là môi trường thực thi đáng tin cậy (TEE), cung cấp một lớp đảm bảo quan trọng. TEE cung cấp một vùng an toàn nơi các phép tính AI có thể diễn ra, tách biệt khỏi sự can thiệp tiềm ẩn. Công nghệ này đảm bảo rằng ngay cả những người vận hành hệ thống AI cũng không thể can thiệp hoặc do thám quá trình ra quyết định của tác nhân, qua đó củng cố thêm lòng tin.
Các khuôn khổ như Runtime Off-chain Logic (ROFL) của Oasis Network đại diện cho phương pháp tiên tiến nhất của cách tiếp cận này, cho phép tích hợp liền mạch tính toán AI có thể xác minh với khả năng kiểm toán và tính minh bạch trên chuỗi. Những cải tiến như vậy mở rộng khả năng cho các ứng dụng do AI điều khiển trong khi vẫn duy trì các tiêu chuẩn cao nhất về độ tin cậy và tính minh bạch.
Hướng tới tương lai AI đáng tin cậy
Con đường đến với các tác nhân AI đáng tin cậy không phải là không có thách thức. Vẫn còn những rào cản kỹ thuật và việc áp dụng rộng rãi các hệ thống AI phi tập trung sẽ đòi hỏi sự thay đổi trong cả hoạt động của ngành và sự hiểu biết của công chúng. Tuy nhiên, phần thưởng tiềm năng là rất lớn. Hãy tưởng tượng một thế giới mà các tác nhân AI đưa ra quyết định quan trọng với sự minh bạch hoàn toàn, nơi hành động của họ có thể được xác minh và kiểm toán bởi bất kỳ ai và nơi sức mạnh của trí tuệ nhân tạo được phân bổ thay vì tập trung trong tay một số ít tập đoàn.
Cũng có cơ hội để mở khóa tăng trưởng kinh tế đáng kể. Một nghiên cứu năm 2023 tại Bắc Kinh phát hiện ra rằng mức tăng 1% trong thâm nhập AI dẫn đến mức tăng 14,2% trong năng suất tổng yếu tố (TFP). Tuy nhiên, hầu hết các nghiên cứu về năng suất AI tập trung vào LLM nói chung, không phải tác nhân AI. Các tác nhân AI tự động có khả năng thực hiện nhiều nhiệm vụ một cách độc lập có khả năng mang lại mức tăng năng suất cao hơn. Các tác nhân AI đáng tin cậy và có thể kiểm toán được có khả năng sẽ hiệu quả hơn nữa.
Có lẽ đã đến lúc cập nhật câu nói nổi tiếng của Skinner. Vấn đề thực sự không còn là máy móc có suy nghĩ hay không, mà là chúng ta có thể tin tưởng vào suy nghĩ của chúng hay không. Với AI phi tập trung và blockchain, chúng ta có các công cụ để xây dựng lòng tin đó. Câu hỏi bây giờ là liệu chúng ta có đủ trí tuệ để sử dụng chúng hay không.
Lưu ý: Quan điểm thể hiện trong bài viết này là quan điểm của tác giả và không nhất thiết phản ánh quan điểm của CoinDesk, Inc. hoặc chủ sở hữu và chi nhánh của công ty này.