TLDR

  • OpenAI đã gặp phải một vụ vi phạm bảo mật vào đầu năm 2023 khi một hacker giành được quyền truy cập vào hệ thống nhắn tin nội bộ

  • Tin tặc đã đánh cắp thông tin chi tiết về thiết kế công nghệ AI của OpenAI từ các cuộc thảo luận của nhân viên, chứ không phải mã AI cốt lõi

  • OpenAI đã không công khai vụ hack hoặc báo cáo cho cơ quan thực thi pháp luật vì tin rằng đó không phải là mối đe dọa an ninh quốc gia

  • Vụ việc làm dấy lên mối lo ngại của một số nhân viên về những lỗ hổng tiềm ẩn trước các đối thủ nước ngoài như Trung Quốc.

  • Vụ vi phạm này đã làm dấy lên các cuộc tranh luận về an ninh AI, tính minh bạch và những tác động tiềm tàng đến an ninh quốc gia.

Người ta phát hiện ra rằng OpenAI, người tạo ra ChatGPT, đã gặp phải một vụ vi phạm bảo mật nghiêm trọng vào đầu năm 2023.

Theo báo cáo của New York Times, một hacker đã giành được quyền truy cập vào hệ thống nhắn tin nội bộ của công ty và đánh cắp thông tin chi tiết về thiết kế công nghệ trí tuệ nhân tạo của OpenAI.

Vụ vi phạm xảy ra vào tháng 4 năm 2023, cho phép kẻ xâm nhập truy cập vào một diễn đàn trực tuyến nơi các nhân viên thảo luận về các công nghệ mới nhất của OpenAI.

Mặc dù hacker không xâm nhập vào các hệ thống nơi công ty đặt và xây dựng AI nhưng chúng vẫn có thể lấy được các chi tiết nhạy cảm từ các cuộc thảo luận nội bộ. Điều quan trọng là mã AI cốt lõi, tài sản quý giá nhất của OpenAI, vẫn được bảo mật.

Các giám đốc điều hành của OpenAI đã tiết lộ vụ việc với nhân viên trong cuộc họp toàn thể tại văn phòng của công ty ở San Francisco và thông báo cho ban giám đốc.

Tuy nhiên, họ quyết định không công khai tin tức hoặc báo cáo cho các cơ quan thực thi pháp luật như FBI. Lý do cơ bản của công ty là không có thông tin nào về khách hàng hoặc đối tác bị đánh cắp và họ tin rằng hacker là một cá nhân không có mối quan hệ nào với chính phủ nước ngoài.

Quyết định này đã đặt ra câu hỏi về tính minh bạch và thực tiễn bảo mật trong lĩnh vực trí tuệ nhân tạo đang phát triển nhanh chóng. Vụ việc cũng làm dấy lên mối lo ngại về khả năng dễ bị tổn thương của các công ty AI trước các đối thủ nước ngoài, đặc biệt là Trung Quốc.

Leopold Aschenbrenner, cựu giám đốc chương trình kỹ thuật OpenAI, đã gửi một bản ghi nhớ tới hội đồng quản trị của công ty sau vụ vi phạm.

Ông lập luận rằng OpenAI chưa làm đủ để ngăn chặn chính phủ Trung Quốc và các đối thủ nước ngoài khác đánh cắp bí mật của họ. Aschenbrenner, người sau đó đã bị sa thải khỏi công ty vì những lý do không liên quan, bày tỏ lo lắng rằng các biện pháp bảo mật của OpenAI có thể không đủ mạnh để bảo vệ khỏi hành vi trộm cắp bí mật quan trọng nếu tác nhân nước ngoài xâm nhập vào công ty.

OpenAI đã bác bỏ những tuyên bố này. Liz Bourgeois, người phát ngôn của OpenAI, cho biết: “Chúng tôi đánh giá cao những lo ngại mà Leopold nêu ra khi còn ở OpenAI và điều này không dẫn đến sự chia tay của anh ấy”. Cô ấy nói thêm, “Mặc dù chúng tôi chia sẻ cam kết của anh ấy trong việc xây dựng AGI an toàn, nhưng chúng tôi không đồng ý với nhiều tuyên bố mà anh ấy đã đưa ra về công việc của chúng tôi. Điều này bao gồm những đặc điểm của anh ấy về vấn đề an ninh của chúng tôi, đặc biệt là vụ việc này mà chúng tôi đã giải quyết và chia sẻ với hội đồng quản trị trước khi anh ấy gia nhập công ty.”

Vụ việc nêu bật sự cân bằng mong manh mà các công ty AI phải đạt được giữa tính cởi mở và bảo mật.

Trong khi một số công ty, như Meta, đang tự do chia sẻ các thiết kế AI của họ dưới dạng phần mềm nguồn mở thì những công ty khác lại có cách tiếp cận thận trọng hơn. OpenAI, cùng với các đối thủ cạnh tranh như Anthropic và Google, đã bổ sung các biện pháp bảo vệ cho các ứng dụng AI của họ trước khi cung cấp chúng cho công chúng, nhằm ngăn chặn việc sử dụng sai mục đích và các vấn đề tiềm ẩn.

Matt Knight, người đứng đầu bộ phận bảo mật của OpenAI, nhấn mạnh cam kết của công ty về bảo mật:

“Chúng tôi đã bắt đầu đầu tư vào bảo mật nhiều năm trước ChatGPT. Chúng tôi đang trên hành trình không chỉ để hiểu những rủi ro và đón đầu chúng mà còn để tăng cường khả năng phục hồi của mình.”

Vụ vi phạm cũng thu hút sự chú ý đến vấn đề rộng hơn về tác động tiềm tàng của AI đối với an ninh quốc gia. Mặc dù các hệ thống AI hiện tại chủ yếu được sử dụng làm công cụ làm việc và nghiên cứu nhưng vẫn có những lo ngại về các ứng dụng trong tương lai có thể gây ra nhiều rủi ro đáng kể hơn.

Một số nhà nghiên cứu và lãnh đạo an ninh quốc gia lập luận rằng ngay cả khi các thuật toán toán học cốt lõi của hệ thống AI hiện tại không nguy hiểm ở thời điểm hiện tại thì chúng vẫn có thể trở nên như vậy trong tương lai.

Susan Rice, cựu cố vấn chính sách đối nội của Tổng thống Biden và cựu cố vấn an ninh quốc gia của Tổng thống Barack Obama, nhấn mạnh tầm quan trọng của việc xem xét nghiêm túc các rủi ro tiềm ẩn:

“Ngay cả khi các tình huống xấu nhất có xác suất tương đối thấp, nhưng nếu chúng có tác động lớn thì trách nhiệm của chúng tôi là phải xem xét chúng một cách nghiêm túc. Tôi không nghĩ đó là khoa học viễn tưởng như nhiều người vẫn khẳng định”.

Để đáp lại những lo ngại ngày càng tăng, OpenAI gần đây đã thành lập Ủy ban An toàn và Bảo mật để khám phá cách xử lý các rủi ro do các công nghệ trong tương lai gây ra. Ủy ban bao gồm Paul Nakasone, cựu tướng quân đội, người lãnh đạo Cơ quan An ninh Quốc gia và Bộ Tư lệnh Mạng.

Bài đăng Bản hack chưa được tiết lộ năm 2023 của OpenAI đặt ra câu hỏi về tính minh bạch và bảo mật AI xuất hiện đầu tiên trên Blockonomi.