Altman hy vọng AI sẽ "Yêu nhân loại"; AI đã tiến xa.
Giám đốc điều hành OpenAI Sam Altman đã bày tỏ một khát vọng táo bạo cho AI: rằng nó "yêu nhân loại."
Trong khi tự tin rằng đặc tính này có thể được nhúng vào các hệ thống AI, ông thừa nhận rằng không có sự chắc chắn nào.
“Tôi nghĩ vậy,” Altman nhận xét khi được hỏi câu hỏi bởi phó hiệu trưởng cao cấp của Trường Kinh doanh Harvard, Debora Spar.
Sam Altman nói rằng nếu ông có một điều ước cho AI, đó sẽ là nó "yêu nhân loại" và việc điều chỉnh một hệ thống AI để hoạt động theo một cách cụ thể đang hoạt động một cách đáng ngạc nhiên tốt pic.twitter.com/zQJmviq0W8
— Tsarathustra (@tsarnick) Ngày 20 tháng 11 năm 2024
Những gì trước đây dường như là lĩnh vực của khoa học viễn tưởng, từ các tiểu thuyết của Isaac Asimov đến những bộ sử thi điện ảnh của James Cameron, đã tiến hóa thành một cuộc tranh luận nghiêm túc và cấp bách.
Ý tưởng về một cuộc nổi dậy của AI, trước đây bị coi là suy đoán, đã trở thành một mối quan tâm quy định hợp pháp.
Các cuộc trò chuyện mà trước đây có thể đã bị xếp vào lý thuyết âm mưu giờ đây đang định hình các cuộc thảo luận chính sách trên toàn cầu.
Altman đã nhấn mạnh mối quan hệ "khá xây dựng" của OpenAI với chính phủ, thừa nhận tầm quan trọng của sự hợp tác trong việc điều hướng sự tiến triển nhanh chóng của AI.
Ông cũng lưu ý rằng một dự án có quy mô như AI có thể lý tưởng được dẫn dắt bởi các chính phủ, nhấn mạnh các tác động xã hội rộng lớn liên quan đến sự phát triển của nó.
Altman đã lưu ý:
“Trong một xã hội hoạt động tốt, đây sẽ là một dự án của chính phủ. Vì điều đó không diễn ra, tôi nghĩ tốt hơn là nó diễn ra như một dự án của Mỹ.”
Hướng dẫn an toàn AI vẫn chưa có sẵn.
Chính phủ liên bang đã không đạt được nhiều tiến bộ trong việc thúc đẩy luật an toàn AI.
Một nỗ lực gần đây ở California đã cố gắng buộc các nhà phát triển AI phải chịu trách nhiệm cho những lạm dụng thảm khốc, chẳng hạn như việc tạo ra vũ khí hủy diệt hàng loạt hoặc các cuộc tấn công vào cơ sở hạ tầng quan trọng.
Mặc dù dự luật đã được thông qua tại cơ quan lập pháp bang, nhưng cuối cùng nó đã bị thống đốc Gavin Newsom phủ quyết.
Sự cấp bách trong việc giải quyết sự điều chỉnh của AI với phúc lợi của con người đã được nhấn mạnh bởi một số tiếng nói có ảnh hưởng nhất trong lĩnh vực này.
Nhà vô địch Nobel Geoffrey Hinton, thường được gọi là "Cha đẻ của AI," đã bày tỏ lo ngại nghiêm trọng, thừa nhận ông không thấy con đường rõ ràng nào để đảm bảo an toàn cho AI.
Geoffrey Hinton nói rằng các công ty AI nên bị buộc phải sử dụng một phần ba nguồn tài nguyên máy tính của họ cho nghiên cứu an toàn vì AI sẽ trở nên thông minh hơn chúng ta trong 20 năm tới và chúng ta cần bắt đầu lo lắng về những gì sẽ xảy ra sau đó pic.twitter.com/ocT3Scmyxg
— Tsarathustra (@tsarnick) Ngày 25 tháng 10 năm 2024
Tương tự, Giám đốc điều hành Tesla Elon Musk đã liên tục cảnh báo rằng AI đặt ra những rủi ro tồn vong cho nhân loại.
Thật mỉa mai, Musk, một nhà phê bình gay gắt các thực hành AI hiện tại, là một nhân vật quan trọng trong việc thành lập OpenAI, cung cấp nguồn tài chính đáng kể ban đầu—một đóng góp mà Altman vẫn "biết ơn," ngay cả khi Musk hiện đang kiện tổ chức này.
Thách thức về an toàn AI đã thúc đẩy việc tạo ra các tổ chức chuyên biệt nhằm giải quyết những mối quan tâm này.
Các nhóm như Trung tâm Nghiên cứu Điều chỉnh và Siêu trí tuệ An toàn, được thành lập bởi cựu giám đốc khoa học của OpenAI, đã xuất hiện để khám phá các chiến lược nhằm đảm bảo các hệ thống AI hoạt động theo đúng giá trị của con người.
Những nỗ lực này nhấn mạnh sự nhận thức ngày càng tăng rằng sự phát triển nhanh chóng của AI phải đi đôi với các biện pháp bảo vệ nghiêm ngặt để bảo vệ tương lai của nhân loại.
Altman hy vọng AI sẽ đạt được sự đồng cảm.
Altman tin rằng thiết kế AI hiện tại rất phù hợp cho việc điều chỉnh, khiến nó khả thi hơn nhiều so với nhiều người cho rằng để đảm bảo các hệ thống AI không gây hại cho nhân loại.
Ông ấy nói:
“Một trong những điều đã hoạt động một cách đáng ngạc nhiên tốt là khả năng điều chỉnh một hệ thống AI để cư xử theo một cách cụ thể. Vì vậy, nếu chúng tôi có thể diễn đạt điều đó có nghĩa là gì trong nhiều trường hợp khác nhau thì, vâng, tôi nghĩ chúng tôi có thể khiến hệ thống hành động theo cách đó.”
Ông đề xuất một phương pháp đổi mới để xác định các nguyên tắc và giá trị nên hướng dẫn phát triển AI: tận dụng chính AI để tương tác trực tiếp với công chúng.
Altman hình dung việc sử dụng chatbot AI để thăm dò hàng tỷ người dùng, thu thập thông tin về giá trị và ưu tiên của họ.
Bằng cách thúc đẩy sự giao tiếp sâu sắc và rộng rãi, AI có thể có được một hiểu biết tinh tế về những thách thức xã hội và xác định những biện pháp nào sẽ phục vụ tốt nhất cho phúc lợi của công chúng.
Ông giải thích:
“Tôi quan tâm đến thí nghiệm tư tưởng [trong đó] một AI trò chuyện với bạn trong vài giờ về hệ thống giá trị của bạn. Nó làm điều đó với tôi, với mọi người khác. Và sau đó nói 'được rồi, tôi không thể làm mọi người hạnh phúc mọi lúc.'"
Altman đề xuất rằng phản hồi tập thể này có thể được sử dụng để điều chỉnh các hệ thống AI với lợi ích rộng lớn hơn của nhân loại, có khả năng tạo ra một khuôn khổ cho AI hoạt động hòa hợp với các mục tiêu xã hội.
Cách tiếp cận này không chỉ nhấn mạnh tiềm năng của AI như một công cụ để thúc đẩy đối thoại toàn cầu mà còn đặt ra những câu hỏi gây suy nghĩ.
Sam Altman nói rằng việc yêu cầu người dùng giải thích hệ thống giá trị của họ cho một AI và khiến nó đồng bộ hóa tập thể trên cơ sở đó là một hướng đi hứa hẹn cho việc điều chỉnh AI pic.twitter.com/Ev97Ts3fQN
— Tsarathustra (@tsarnick) Ngày 20 tháng 11 năm 2024
Liệu một phương pháp như vậy có thực sự nắm bắt được sự phức tạp của các giá trị con người không?
Và liệu nó có thể cân bằng các quan điểm đa dạng của hàng tỷ người để đạt được một tầm nhìn thống nhất về lợi ích xã hội không?
Ý tưởng của Altman cung cấp một cái nhìn vào cách AI không chỉ phục vụ nhân loại mà còn hợp tác với nó để giải quyết những thách thức cấp bách nhất của chúng ta.
Nhiều nhân viên cũ của OpenAI lo lắng rằng an toàn đã bị đặt xuống hàng thứ yếu trong AI.
OpenAI từng có một đội ngũ siêu phối hợp chuyên trách nhằm ngăn chặn tình trạng siêu trí tuệ kỹ thuật số trong tương lai trở nên vô chính phủ và gây ra thiệt hại thảm khốc.
Vào tháng 12 năm 2023, đội ngũ đã công bố một tài liệu nghiên cứu sớm phác thảo một quy trình tiềm năng trong đó một mô hình ngôn ngữ lớn sẽ giám sát một mô hình khác, hoạt động như một biện pháp bảo vệ.
Tuy nhiên, đến mùa xuân tiếp theo, đội ngũ đã bị giải tán sau khi các lãnh đạo của nó, Ilya Sutskever và Jan Leike, rời công ty.
Leike đã trích dẫn những bất đồng ngày càng tăng với lãnh đạo OpenAI về các ưu tiên an toàn của công ty khi công ty tiến tới trí tuệ nhân tạo tổng quát (AGI)—một cấp độ trí tuệ AI tương đương với con người.
Xây dựng những cỗ máy thông minh hơn con người là một nỗ lực vốn dĩ nguy hiểm.
OpenAI đang gánh vác một trách nhiệm khổng lồ thay mặt cho toàn nhân loại.
— Jan Leike (@janleike) Ngày 17 tháng 5 năm 2024
Sự ra đi của anh đã làm nổi bật những căng thẳng gia tăng về sự cân bằng giữa đổi mới và an toàn trong cuộc đua phát triển AGI.
Khi Leike rời đi, Altman đã bày tỏ lòng biết ơn về những đóng góp của anh trong một bài đăng trên X (trước đây được gọi là Twitter), nhưng tình hình đã khiến nhiều người tự hỏi OpenAI sẽ giải quyết các mối quan tâm về an toàn quan trọng như thế nào trong tương lai.
Tôi rất biết ơn những đóng góp của @janleike cho nghiên cứu và văn hóa an toàn của openai, và rất buồn khi thấy anh ấy ra đi. Anh ấy đúng, chúng tôi còn nhiều việc phải làm; chúng tôi cam kết sẽ làm điều đó. Tôi sẽ có một bài đăng dài hơn trong vài ngày tới.
🧡 https://t.co/t2yexKtQEk
— Sam Altman (@sama) Ngày 17 tháng 5 năm 2024