Theo Wall Street Journal, OpenAI, công ty chịu trách nhiệm phát triển ChatGPT, gần đây đã gặp phải một vụ vi phạm an ninh nghiêm trọng, làm dấy lên lo ngại về những rủi ro an ninh quốc gia tiềm ẩn. Vụ việc xảy ra vào đầu năm ngoái đã làm lộ ra các cuộc thảo luận nội bộ giữa các nhà nghiên cứu và nhân viên nhưng không làm tổn hại đến mã cốt lõi của hệ thống OpenAI. Bất chấp mức độ nghiêm trọng của vụ việc, OpenAI đã chọn không công khai vụ việc, một quyết định dẫn đến sự giám sát nội bộ và bên ngoài.

Thông tin liên lạc nội bộ OpenAI bị xâm phạm

Đầu năm 2023, một hacker đã đột nhập vào hệ thống nhắn tin nội bộ của OpenAI và moi thông tin chi tiết về công nghệ AI của công ty. Theo hai người quen thuộc với vấn đề này, các tin tặc đã truy cập một diễn đàn trực tuyến nơi các nhân viên thảo luận về những tiến bộ AI mới nhất, nhưng không đột nhập vào hệ thống nơi lưu trữ công nghệ cốt lõi.

Giám đốc điều hành OpenAI chọn không tiết lộ nó cho công chúng

Theo các nguồn tin, các giám đốc điều hành của OpenAI đã thông báo cho nhân viên về vấn đề này tại một cuộc họp toàn thể được tổ chức tại trụ sở chính của công ty ở San Francisco vào tháng 4 năm 2023 và ban giám đốc cũng đã được thông báo. Bất chấp vi phạm, các giám đốc điều hành đã chọn không thông báo cho công chúng, với lý do không có thông tin khách hàng hoặc đối tác nào bị xâm phạm. Họ đánh giá hacker là một cá nhân không có quan hệ gì với chính phủ nước ngoài và không báo cáo vụ việc cho các cơ quan thực thi pháp luật, bao gồm cả FBI.

Mối lo ngại về gián điệp nước ngoài gia tăng

Vụ vi phạm này làm gia tăng mối lo ngại của các nhân viên OpenAI rằng các đối thủ nước ngoài, đặc biệt là Trung Quốc, có thể đánh cắp công nghệ AI và đe dọa an ninh quốc gia Hoa Kỳ. Vụ việc cũng làm dấy lên cuộc tranh luận trong nội bộ công ty về tính đầy đủ của các biện pháp bảo mật của OpenAI, cũng như những rủi ro rộng hơn liên quan đến trí tuệ nhân tạo.

Vấn đề bảo mật AI xuất hiện

Sau vụ việc, giám đốc dự án kỹ thuật của OpenAI, Leopold Aschenbrenner đã gửi một bản ghi nhớ lên hội đồng quản trị bày tỏ lo ngại về khả năng công ty bị gián điệp bởi các thực thể nước ngoài. Aschenbrenner sau đó đã bị sa thải vì cáo buộc rò rỉ thông tin. Ông tin rằng các biện pháp an ninh của công ty không đủ để bảo vệ trước các mối đe dọa tinh vi từ các tác nhân nước ngoài.

Tuyên bố chính thức từ OpenAI

Người phát ngôn của OpenAI, Liz Bourgeois thừa nhận những lo ngại của Aschenbrenner nhưng cho biết sự ra đi của ông không liên quan đến những vấn đề ông nêu ra. Cô nhấn mạnh rằng OpenAI cam kết xây dựng trí tuệ nhân tạo chung (AGI) an toàn, nhưng không đồng ý với đánh giá của Aschenbrenner về các giao thức bảo mật của nó.

Gián điệp công nghệ trong bối cảnh chiến tranh Trung Mỹ

Những lo ngại về mối quan hệ tiềm năng với Trung Quốc không phải là không có cơ sở. Ví dụ, Chủ tịch Microsoft Brad Smith gần đây đã làm chứng rằng tin tặc Trung Quốc đã sử dụng hệ thống của công ty để tấn công các mạng liên bang. Tuy nhiên, các ràng buộc pháp lý cấm OpenAI phân biệt đối xử trong việc tuyển dụng dựa trên nguồn gốc quốc gia, vì việc ngăn chặn tài năng nước ngoài có thể cản trở sự phát triển AI của Hoa Kỳ.

(Từ DEI hay MEI: Tại sao chính sách tuyển dụng của kỳ lân AI ScalAI lại khiến Musk và Coinbase thường xuyên phải gật đầu?)

Tầm quan trọng của tài năng đa dạng

Matt Knight, người đứng đầu bộ phận bảo mật tại OpenAI, nhấn mạnh rằng việc tuyển dụng nhân tài hàng đầu toàn cầu là cần thiết bất chấp rủi ro. Ông nhấn mạnh tầm quan trọng của việc đạt được sự cân bằng giữa các mối quan tâm về an ninh và nhu cầu tư duy đổi mới để thúc đẩy công nghệ AI.

Toàn bộ ngành công nghiệp AI đang đối mặt với những thách thức

OpenAI không phải là công ty duy nhất đối mặt với những thách thức này. Các đối thủ cạnh tranh như Meta và Google cũng đang phát triển các hệ thống AI mạnh mẽ, một số trong đó là nguồn mở, thúc đẩy tính minh bạch và giải quyết vấn đề tập thể trong ngành. Tuy nhiên, vẫn còn lo ngại về việc AI đang được sử dụng để đánh lừa thông tin và thay thế công việc.

Đánh giá rủi ro an ninh quốc gia: AI có thể tạo ra vũ khí sinh học và hóa học

Một số nghiên cứu của các công ty AI như OpenAI và Anthropic đã phát hiện ra rằng công nghệ AI hiện nay ít gây ra rủi ro cho an ninh quốc gia. Tuy nhiên, cuộc tranh luận vẫn tiếp tục về tiềm năng tương lai của AI trong việc tạo ra vũ khí sinh học và hóa học hoặc xâm nhập vào hệ thống chính phủ. Các công ty như OpenAI và Anthropic đang tích cực giải quyết những lo ngại này bằng cách tăng cường các giao thức bảo mật của họ và thành lập các ủy ban tập trung vào an toàn AI.

Hành động lập pháp của chính phủ: Hạn chế đối với một số công nghệ AI

Các nhà lập pháp liên bang và tiểu bang đang xem xét các quy định nhằm hạn chế việc phát hành một số công nghệ AI nhất định và trừng phạt những hành vi sử dụng có hại. Các quy định này nhằm mục đích giảm thiểu rủi ro lâu dài, mặc dù các chuyên gia tin rằng sẽ phải mất nhiều năm nữa mới có thể xuất hiện những mối nguy hiểm đáng kể từ AI.

Sự tiến bộ của Trung Quốc trong lĩnh vực AI

Các công ty Trung Quốc đang đạt được tiến bộ nhanh chóng trong công nghệ AI và Trung Quốc là nơi có nhiều nhà nghiên cứu AI hàng đầu thế giới. Các chuyên gia như Clément Delangue của Ôm Mặt tin rằng Trung Quốc có thể sớm vượt qua Hoa Kỳ về năng lực AI.

Kêu gọi phát triển AI có trách nhiệm

Ngay cả khi tỷ lệ cược hiện tại thấp, những nhân vật nổi bật như Susan Rice đang kêu gọi xem xét nghiêm túc các kịch bản AI trong trường hợp xấu nhất, nhấn mạnh trách nhiệm giải quyết các rủi ro có thể có tác động cao.

Bài viết này Wall Street Journal: Hacker xâm chiếm OpenAI, gây lo ngại về an ninh quốc gia lần đầu tiên xuất hiện trên Chain News ABMedia.