Một dự luật của California yêu cầu các nhà phát triển AI phải đưa ra các giao thức an toàn để ngăn chặn "tác hại nghiêm trọng" đối với loài người đã gây chấn động trong cộng đồng công nghệ tại Thung lũng Silicon.

'Đạo luật đổi mới an toàn và bảo mật cho các mô hình trí tuệ nhân tạo tiên tiến' của California, còn được gọi là SB 1047, sẽ yêu cầu các nhà phát triển AI triển khai các giao thức an toàn để ngăn ngừa các sự kiện như thương vong hàng loạt hoặc các cuộc tấn công mạng lớn.

Dự luật này được các nhà lập pháp đảng Dân chủ California đề xuất vào tháng 2.

Các quy định được đề xuất cũng yêu cầu phải có nút "dừng khẩn cấp" cho các mô hình AI, yêu cầu kiểm toán hàng năm của bên thứ ba về các hoạt động an toàn của AI, thành lập một Ban Mô hình Biên giới (FMD) mới để giám sát việc tuân thủ và áp dụng các hình phạt nặng đối với các hành vi vi phạm.

Tuy nhiên, đã có sự phản đối từ Quốc hội, với việc Dân biểu Hoa Kỳ Ro Khanna đưa ra tuyên bố phản đối SB 1047 vào ngày 13 tháng 8, bày tỏ lo ngại rằng "dự luật theo cách viết hiện tại sẽ không hiệu quả, trừng phạt các doanh nhân cá nhân và doanh nghiệp nhỏ, và làm tổn hại đến tinh thần đổi mới của California."

Khanna, người đại diện cho Thung lũng Silicon, thừa nhận nhu cầu ban hành luật AI “để bảo vệ người lao động và giải quyết các rủi ro tiềm ẩn bao gồm thông tin sai lệch, deepfake và gia tăng chênh lệch giàu nghèo”.

Dự luật này cũng vấp phải sự phản đối từ Thung lũng Silicon khi các công ty đầu tư mạo hiểm như Andreessen Horowitz cho rằng nó sẽ gây gánh nặng cho các công ty khởi nghiệp và kìm hãm sự đổi mới.

Vào ngày 2 tháng 8, giám đốc pháp lý của a16z, Jaikumar Ramaswamy đã gửi một lá thư cho Thượng nghị sĩ Scott Wiener, một trong những người sáng lập dự luật, tuyên bố rằng dự luật này sẽ "gây gánh nặng cho các công ty khởi nghiệp vì các ngưỡng tùy tiện và thay đổi".

Cũng có sự phản đối từ các nhà nghiên cứu nổi tiếng trong ngành như Fei-Fei Li và Andrew Ng, những người tin rằng điều này sẽ gây hại cho hệ sinh thái AI và sự phát triển nguồn mở.

Vào ngày 6 tháng 8, nhà khoa học máy tính Li đã nói với tạp chí Fortune:

“Nếu được thông qua thành luật, SB-1047 sẽ gây tổn hại đến hệ sinh thái AI đang phát triển của chúng ta, đặc biệt là những bộ phận vốn đã bất lợi so với các gã khổng lồ công nghệ hiện nay: khu vực công, học viện và 'công nghệ nhỏ'.”

Có liên quan: Các cơ quan quản lý đang sai lầm trong nỗ lực hạn chế AI nguồn mở

Trong khi đó, các công ty công nghệ lớn tuyên bố rằng việc quản lý quá mức AI sẽ hạn chế quyền tự do ngôn luận và có thể đẩy sự đổi mới công nghệ ra khỏi California.

Nhà khoa học AI hàng đầu của Meta, Yann LeCun, cho biết luật này sẽ gây tổn hại đến các nỗ lực nghiên cứu khi tuyên bố "việc quản lý R&D sẽ gây ra hậu quả thảm khốc cho hệ sinh thái AI" trong một bài đăng trên X vào tháng 6.

Dự luật đã được Thượng viện thông qua với sự ủng hộ của cả hai đảng vào tháng 5 và hiện đang được chuyển đến Hạ viện, nơi dự luật phải được thông qua vào ngày 31 tháng 8.

Tạp chí: AI có thể đã sử dụng nhiều năng lượng hơn Bitcoin — và nó đe dọa hoạt động khai thác Bitcoin