Theo Cointelegraph, Liên minh châu Âu đang thúc đẩy các nỗ lực định hình tương lai của trí tuệ nhân tạo với việc tạo ra 'Bộ quy tắc thực hành AI mục đích chung' đầu tiên theo Đạo luật AI của mình. Sáng kiến ​​này, do Văn phòng AI châu Âu dẫn đầu, có sự tham gia của hàng trăm chuyên gia toàn cầu từ các học viện, ngành công nghiệp và xã hội dân sự để cùng nhau soạn thảo một khuôn khổ giải quyết các vấn đề chính như tính minh bạch, bản quyền, đánh giá rủi ro và quản trị nội bộ.

Quá trình này bắt đầu bằng phiên họp toàn thể trực tuyến vào ngày 30 tháng 9, có gần 1.000 người tham gia. Đây là khởi đầu cho nỗ lực kéo dài nhiều tháng, sẽ đạt đến đỉnh cao là bản dự thảo cuối cùng vào tháng 4 năm 2025. Bộ quy tắc thực hành này nhằm mục đích trở thành nền tảng cho việc áp dụng Đạo luật AI vào các mô hình AI mục đích chung, bao gồm các mô hình ngôn ngữ lớn (LLM) và các hệ thống AI được sử dụng trong nhiều lĩnh vực khác nhau.

Bốn nhóm làm việc, do các chủ tịch và phó chủ tịch danh tiếng trong ngành đứng đầu, đã được thành lập để thúc đẩy quá trình phát triển Bộ quy tắc thực hành. Các nhóm này bao gồm các chuyên gia như Nuria Oliver, một nhà nghiên cứu trí tuệ nhân tạo và Alexander Peukert, một chuyên gia luật bản quyền người Đức. Họ sẽ tập trung vào tính minh bạch và bản quyền, xác định rủi ro, giảm thiểu rủi ro kỹ thuật và quản lý rủi ro nội bộ. Văn phòng AI châu Âu tuyên bố rằng các nhóm này sẽ họp từ tháng 10 năm 2024 đến tháng 4 năm 2025 để soạn thảo các điều khoản, thu thập ý kiến ​​đóng góp của các bên liên quan và tinh chỉnh Bộ quy tắc thực hành thông qua quá trình tham vấn liên tục.

Đạo luật AI của EU, được Nghị viện châu Âu thông qua vào tháng 3 năm 2024, là một văn bản luật mang tính bước ngoặt nhằm mục đích điều chỉnh công nghệ AI trên toàn khối. Đạo luật này thiết lập một cách tiếp cận dựa trên rủi ro đối với quản trị AI, phân loại các hệ thống thành các mức độ rủi ro khác nhau và bắt buộc các biện pháp tuân thủ cụ thể. Đạo luật này đặc biệt liên quan đến các mô hình AI mục đích chung do các ứng dụng rộng rãi và tiềm năng tác động đáng kể đến xã hội, thường xếp chúng vào các danh mục rủi ro cao hơn.

Tuy nhiên, một số công ty AI lớn, bao gồm Meta, đã chỉ trích các quy định là quá hạn chế, cho rằng chúng có thể kìm hãm sự đổi mới. Để đáp lại, cách tiếp cận hợp tác của EU trong việc soạn thảo Bộ quy tắc thực hành nhằm cân bằng giữa an toàn và đạo đức với việc thúc đẩy đổi mới. Cuộc tham vấn của nhiều bên liên quan đã thu thập được hơn 430 bài nộp, điều này sẽ giúp định hình việc viết mã.

EU đặt mục tiêu thiết lập tiền lệ cho việc phát triển, triển khai và quản lý có trách nhiệm các mô hình AI mục đích chung vào tháng 4 năm 2025, nhấn mạnh vào việc giảm thiểu rủi ro và tối đa hóa lợi ích xã hội. Khi bối cảnh AI toàn cầu phát triển, nỗ lực này có khả năng ảnh hưởng đến các chính sách AI trên toàn thế giới, với nhiều quốc gia tìm đến EU để được hướng dẫn về việc quản lý các công nghệ mới nổi.