Binance Square
LIVE
PCB Block
@blockchain247
Top news channel 247 🚀🚀🚀
Obserwowani
Obserwujący
Polubione
Udostępniony
Cała zawartość
LIVE
--
Tłumacz
Tạp Chí Do AI Viết Làm Loạn Các Nhà Xuất BảnTrong tuần này, sự xuất hiện của những sản phẩm do các AI tạo sinh tạo ra đang xáo trộn ngành xuất bản học thuật, gióng lên hồi chuông cảnh báo về nguy cơ sai lệch thông tin. Hai giáo sư triết học Tomasz Żuradzk và Leszek Wroński đã phát hiện ra ba tạp chí thuộc nhà xuất bản Addleton Academic Publishers có vẻ như phần lớn nội dung được tạo ra bằng AI tạo sinh (Gen AI). Điều này được khẳng định qua việc các bài báo trong những tạp chí này đều theo một khuôn mẫu chung, lạm dụng các thuật ngữ phổ biến và hội đồng biên tập của cả ba tạp chí đều giống hệt nhau, bao gồm 10 thành viên đã qua đời và cùng sử dụng một địa chỉ không rõ ràng tại Queens, New York. Sự tồn tại của các tạp chí “ma” này không chỉ gây ảnh hưởng đến uy tín của các nhà xuất bản mà còn phơi bày lỗ hổng trong hệ thống đánh giá năng lực nghiên cứu. Hệ thống CiteScore, một trong những thước đo uy tín, đã xếp hạng các tạp chí này trong top 10 về nghiên cứu triết học do các tạp chí này liên tục trích dẫn lẫn nhau. Điều này cho thấy việc lợi dụng hệ thống đánh giá nghiên cứu để thăng tiến và tuyển dụng dễ dàng đến mức nào, có thể dẫn đến nguy cơ tương tự trong các ngành nghề tri thức khác. Theo các giáo sư Żuradzk và Wroński, nếu các tạp chí “ma” và thông tin giả mạo tràn lan, uy tín của toàn bộ hệ thống nghiên cứu khoa học sẽ bị lung lay. Bởi vì, các bảng xếp hạng như CiteScore được sử dụng để đánh giá chất lượng nghiên cứu và đóng vai trò quan trọng trong các quyết định liên quan đến giải thưởng học thuật, tuyển dụng và thăng chức. Công nghệ này có thể được sử dụng để tạo ra các bài báo giả mạo tinh vi, gây ảnh hưởng tiêu cực đến uy tín của các nhà nghiên cứu chân chính và tạo ra sự bất công trong đánh giá năng lực. Điều này đòi hỏi sự tái cấu trúc toàn diện của hệ thống đánh giá nghiên cứu để đảm bảo rằng chúng phản ánh chính xác hơn chất lượng nghiên cứu thực sự và không bị lợi dụng bởi những nội dung nhân tạo. Để đối phó với nguy cơ này, cần có những giải pháp đồng bộ để ngăn chặn và xử lý các trường hợp lạm dụng AI trong nghiên cứu khoa học. Các tổ chức và cơ quan chức năng cần nâng cao nhận thức về vấn đề này, đồng thời xây dựng các cơ chế kiểm soát chặt chẽ hơn đối với việc xuất bản khoa học, đảm bảo tính minh bạch và trung thực trong nghiên cứu. Về lâu dài, cần nghiên cứu và phát triển các công cụ hiệu quả hơn để phát hiện và ngăn chặn các bài báo giả mạo, bảo vệ uy tín cho ngành nghiên cứu khoa học. Đây cũng là lời cảnh tỉnh cho cộng đồng nghiên cứu khoa học về những nguy cơ tiềm ẩn từ AI tạo sinh. Việc đảm bảo tính trung thực và uy tín của hệ thống nghiên cứu là điều tối quan trọng để duy trì sự phát triển bền vững của khoa học trong tương lai.

Tạp Chí Do AI Viết Làm Loạn Các Nhà Xuất Bản

Trong tuần này, sự xuất hiện của những sản phẩm do các AI tạo sinh tạo ra đang xáo trộn ngành xuất bản học thuật, gióng lên hồi chuông cảnh báo về nguy cơ sai lệch thông tin.

Hai giáo sư triết học Tomasz Żuradzk và Leszek Wroński đã phát hiện ra ba tạp chí thuộc nhà xuất bản Addleton Academic Publishers có vẻ như phần lớn nội dung được tạo ra bằng AI tạo sinh (Gen AI). Điều này được khẳng định qua việc các bài báo trong những tạp chí này đều theo một khuôn mẫu chung, lạm dụng các thuật ngữ phổ biến và hội đồng biên tập của cả ba tạp chí đều giống hệt nhau, bao gồm 10 thành viên đã qua đời và cùng sử dụng một địa chỉ không rõ ràng tại Queens, New York.

Sự tồn tại của các tạp chí “ma” này không chỉ gây ảnh hưởng đến uy tín của các nhà xuất bản mà còn phơi bày lỗ hổng trong hệ thống đánh giá năng lực nghiên cứu. Hệ thống CiteScore, một trong những thước đo uy tín, đã xếp hạng các tạp chí này trong top 10 về nghiên cứu triết học do các tạp chí này liên tục trích dẫn lẫn nhau. Điều này cho thấy việc lợi dụng hệ thống đánh giá nghiên cứu để thăng tiến và tuyển dụng dễ dàng đến mức nào, có thể dẫn đến nguy cơ tương tự trong các ngành nghề tri thức khác.

Theo các giáo sư Żuradzk và Wroński, nếu các tạp chí “ma” và thông tin giả mạo tràn lan, uy tín của toàn bộ hệ thống nghiên cứu khoa học sẽ bị lung lay. Bởi vì, các bảng xếp hạng như CiteScore được sử dụng để đánh giá chất lượng nghiên cứu và đóng vai trò quan trọng trong các quyết định liên quan đến giải thưởng học thuật, tuyển dụng và thăng chức.

Công nghệ này có thể được sử dụng để tạo ra các bài báo giả mạo tinh vi, gây ảnh hưởng tiêu cực đến uy tín của các nhà nghiên cứu chân chính và tạo ra sự bất công trong đánh giá năng lực. Điều này đòi hỏi sự tái cấu trúc toàn diện của hệ thống đánh giá nghiên cứu để đảm bảo rằng chúng phản ánh chính xác hơn chất lượng nghiên cứu thực sự và không bị lợi dụng bởi những nội dung nhân tạo.

Để đối phó với nguy cơ này, cần có những giải pháp đồng bộ để ngăn chặn và xử lý các trường hợp lạm dụng AI trong nghiên cứu khoa học. Các tổ chức và cơ quan chức năng cần nâng cao nhận thức về vấn đề này, đồng thời xây dựng các cơ chế kiểm soát chặt chẽ hơn đối với việc xuất bản khoa học, đảm bảo tính minh bạch và trung thực trong nghiên cứu. Về lâu dài, cần nghiên cứu và phát triển các công cụ hiệu quả hơn để phát hiện và ngăn chặn các bài báo giả mạo, bảo vệ uy tín cho ngành nghiên cứu khoa học.

Đây cũng là lời cảnh tỉnh cho cộng đồng nghiên cứu khoa học về những nguy cơ tiềm ẩn từ AI tạo sinh. Việc đảm bảo tính trung thực và uy tín của hệ thống nghiên cứu là điều tối quan trọng để duy trì sự phát triển bền vững của khoa học trong tương lai.
Tłumacz
Đức Gửi 195 Triệu USD Bitcoin Lên Các Sàn Tập TrungĐức đã gửi ít nhất 195 triệu USD trong tổng số 600 triệu USD giá trị Bitcoin (BTC) được di chuyển sang các sàn giao dịch tập trung, theo Arkham Intelligence. Hành động này khiến nhiều người lo ngại về tác động tiềm ẩn lên thị trường nếu họ bán lượng Bitcoin khổng lồ đang nắm giữ. Theo Arkham, Chính phủ Đức đã di chuyển tổng cộng 600 triệu USD Bitcoin (BTC) vào ngày 19/6, trong đó 195 triệu USD được chuyển đến 4 địa chỉ có khả năng là sàn giao dịch. Ba trong số đó được xác định là của các sàn giao dịch Kraken, Bitstamp và Coinbase. Các giao dịch Bitcoin này được thực hiện bởi Cục Cảnh sát Hình sự Liên bang Đức (BKA), cơ quan đã tịch thu gần 50.000 BTC từ trang web vi phạm bản quyền Movie2k.to hồi đầu năm nay. Vụ tịch thu này là kết quả của vụ án lớn vào năm 2018, đánh dấu một trong những vụ tịch thu tiền mã hoá lớn nhất trong lịch sử. Sau các giao dịch gần đây, Chính phủ Đức hiện sở hữu 47.179 BTC – trị giá khoảng 3 tỷ USD – theo dữ liệu của Arkham. Đức cũng là quốc gia sở hữu Bitcoin lớn thứ tư trên thế giới, dựa trên thông tin công khai. Ba quốc gia dẫn đầu là Mỹ với 13,9 tỷ USD, Trung Quốc 12,4 tỷ USD và Anh với gần 4 tỷ USD. Mỗi chính phủ đã tích lũy BTC chủ yếu thông qua các vụ tịch thu của cơ quan thực thi pháp luật trong những năm gần đây. Ukraine là quốc gia sở hữu Bitcoin lớn thứ năm với 46.351 BTC, phần lớn thu được từ cựu quan chức chính phủ Yuri Shchigol. Trong khi đó, các quốc gia như El Salvador, Venezuela và Cộng hòa Trung Phi đang tích lũy Bitcoin thông qua mua bán hay đầu tư và quyên góp, như một giải pháp cho những thách thức kinh tế và chính trị của họ. Việc bán Bitcoin của Chính phủ Đức được cho sẽ gây ảnh hưởng thị trường, bởi những giao dịch này có thể tác động đến giá Bitcoin và làm giảm niềm tin của nhà đầu tư. Mặt khác, các quốc gia khác lại đang tích lũy Bitcoin, đã cho thấy tiềm năng của đồng tiền số này, đặc biệt trong bối cảnh những thách thức về kinh tế và chính trị toàn cầu đang gia tăng.

Đức Gửi 195 Triệu USD Bitcoin Lên Các Sàn Tập Trung

Đức đã gửi ít nhất 195 triệu USD trong tổng số 600 triệu USD giá trị Bitcoin (BTC) được di chuyển sang các sàn giao dịch tập trung, theo Arkham Intelligence. Hành động này khiến nhiều người lo ngại về tác động tiềm ẩn lên thị trường nếu họ bán lượng Bitcoin khổng lồ đang nắm giữ.

Theo Arkham, Chính phủ Đức đã di chuyển tổng cộng 600 triệu USD Bitcoin (BTC) vào ngày 19/6, trong đó 195 triệu USD được chuyển đến 4 địa chỉ có khả năng là sàn giao dịch. Ba trong số đó được xác định là của các sàn giao dịch Kraken, Bitstamp và Coinbase.

Các giao dịch Bitcoin này được thực hiện bởi Cục Cảnh sát Hình sự Liên bang Đức (BKA), cơ quan đã tịch thu gần 50.000 BTC từ trang web vi phạm bản quyền Movie2k.to hồi đầu năm nay. Vụ tịch thu này là kết quả của vụ án lớn vào năm 2018, đánh dấu một trong những vụ tịch thu tiền mã hoá lớn nhất trong lịch sử.

Sau các giao dịch gần đây, Chính phủ Đức hiện sở hữu 47.179 BTC – trị giá khoảng 3 tỷ USD – theo dữ liệu của Arkham. Đức cũng là quốc gia sở hữu Bitcoin lớn thứ tư trên thế giới, dựa trên thông tin công khai. Ba quốc gia dẫn đầu là Mỹ với 13,9 tỷ USD, Trung Quốc 12,4 tỷ USD và Anh với gần 4 tỷ USD. Mỗi chính phủ đã tích lũy BTC chủ yếu thông qua các vụ tịch thu của cơ quan thực thi pháp luật trong những năm gần đây.

Ukraine là quốc gia sở hữu Bitcoin lớn thứ năm với 46.351 BTC, phần lớn thu được từ cựu quan chức chính phủ Yuri Shchigol. Trong khi đó, các quốc gia như El Salvador, Venezuela và Cộng hòa Trung Phi đang tích lũy Bitcoin thông qua mua bán hay đầu tư và quyên góp, như một giải pháp cho những thách thức kinh tế và chính trị của họ.

Việc bán Bitcoin của Chính phủ Đức được cho sẽ gây ảnh hưởng thị trường, bởi những giao dịch này có thể tác động đến giá Bitcoin và làm giảm niềm tin của nhà đầu tư. Mặt khác, các quốc gia khác lại đang tích lũy Bitcoin, đã cho thấy tiềm năng của đồng tiền số này, đặc biệt trong bối cảnh những thách thức về kinh tế và chính trị toàn cầu đang gia tăng.
Tłumacz
Amazon Triển Khai AI Hỗ Trợ Niêm Yết Sản PhẩmChỉ vài tuần sau khi ra mắt tại Anh và một số thị trường Châu Âu, công cụ AI tạo thông tin niêm yết sản phẩm của Amazon đã thu hút hơn 30.000 người bán hàng sử dụng. Đây là nỗ lực mới nhất của gã khổng lồ thương mại điện tử nhằm đơn giản hóa quy trình bán hàng trên nền tảng của mình bằng cách tích hợp công nghệ AI tạo sinh. Công cụ AI mới được thiết kế để tự động tạo mô tả sản phẩm, tiêu đề và thông tin chi tiết dựa trên từ khóa và hình ảnh được người dùng cung cấp. Người bán cũng có thể sử dụng công cụ này để bổ sung thông tin còn thiếu cho các danh sách sản phẩm hiện có. Thông tin về việc Amazon phát triển công nghệ AI tạo sinh cho người bán hàng đã được hé lộ từ tháng 9 năm ngoái. Tuy nhiên, lộ trình triển khai cụ thể vẫn là một ẩn số, khiến nhiều người cho rằng công nghệ này sẽ chỉ được áp dụng tại thị trường Mỹ. Đầu tháng này, Amazon âm thầm ra mắt các công cụ AI tại Anh. Mới đây, trong một bài đăng trên blog, công ty đã xác nhận việc triển khai tính năng này tại Anh và một số thị trường EU đã được thực hiện vài tuần trước. Với các công cụ mới, người bán có thể tiết kiệm thời gian và công sức trong việc tạo danh sách sản phẩm. Thay vì phải tự tay nhập liệu, người bán chỉ cần cung cấp từ khóa hoặc hình ảnh sản phẩm. Các thuật toán AI sẽ tự động tạo ra nội dung cho danh sách sản phẩm, bao gồm tiêu đề, gạch đầu dòng và mô tả chi tiết. Amazon khuyến nghị người bán nên kiểm tra kỹ lưỡng nội dung được tạo tự động bởi các mô hình ngôn ngữ lớn (LLM) trước khi đăng tải, bởi các mô hình này vẫn tiềm ẩn khả năng tạo ra thông tin sai lệch. Việc triển khai công cụ AI tạo thông tin niêm yết sản phẩm, đặc biệt là ở thị trường châu Âu vốn nổi tiếng với những quy định nghiêm ngặt về quyền riêng tư dữ liệu, đặt ra câu hỏi về nguồn dữ liệu mà Amazon sử dụng để huấn luyện các mô hình AI. Liệu dữ liệu của người dùng châu Âu có đang được Amazon sử dụng cho mục đích này? Bản thân Amazon không phải cái tên xa lạ với AI và học máy. Gã khổng lồ thương mại điện tử này đã ứng dụng các công nghệ này vào rất nhiều hoạt động. Tuy nhiên, việc triển khai AI tạo sinh tại châu Âu tiềm ẩn nhiều rủi ro pháp lý, đặc biệt là trong bối cảnh GDPR và Đạo luật Dịch vụ Kỹ thuật số (DSA) đang được siết chặt. Amazon cũng từng vướng vào nhiều bê bối liên quan đến việc sử dụng dữ liệu người dùng. Việc thiếu minh bạch về nguồn dữ liệu huấn luyện AI của Amazon có thể khiến công ty đối mặt với nhiều rủi ro pháp lý, đặc biệt khi EU đang ngày càng gia tăng giám sát các hoạt động ứng dụng AI của các tập đoàn công nghệ lớn.

Amazon Triển Khai AI Hỗ Trợ Niêm Yết Sản Phẩm

Chỉ vài tuần sau khi ra mắt tại Anh và một số thị trường Châu Âu, công cụ AI tạo thông tin niêm yết sản phẩm của Amazon đã thu hút hơn 30.000 người bán hàng sử dụng. Đây là nỗ lực mới nhất của gã khổng lồ thương mại điện tử nhằm đơn giản hóa quy trình bán hàng trên nền tảng của mình bằng cách tích hợp công nghệ AI tạo sinh.

Công cụ AI mới được thiết kế để tự động tạo mô tả sản phẩm, tiêu đề và thông tin chi tiết dựa trên từ khóa và hình ảnh được người dùng cung cấp. Người bán cũng có thể sử dụng công cụ này để bổ sung thông tin còn thiếu cho các danh sách sản phẩm hiện có.

Thông tin về việc Amazon phát triển công nghệ AI tạo sinh cho người bán hàng đã được hé lộ từ tháng 9 năm ngoái. Tuy nhiên, lộ trình triển khai cụ thể vẫn là một ẩn số, khiến nhiều người cho rằng công nghệ này sẽ chỉ được áp dụng tại thị trường Mỹ. Đầu tháng này, Amazon âm thầm ra mắt các công cụ AI tại Anh. Mới đây, trong một bài đăng trên blog, công ty đã xác nhận việc triển khai tính năng này tại Anh và một số thị trường EU đã được thực hiện vài tuần trước.

Với các công cụ mới, người bán có thể tiết kiệm thời gian và công sức trong việc tạo danh sách sản phẩm. Thay vì phải tự tay nhập liệu, người bán chỉ cần cung cấp từ khóa hoặc hình ảnh sản phẩm. Các thuật toán AI sẽ tự động tạo ra nội dung cho danh sách sản phẩm, bao gồm tiêu đề, gạch đầu dòng và mô tả chi tiết. Amazon khuyến nghị người bán nên kiểm tra kỹ lưỡng nội dung được tạo tự động bởi các mô hình ngôn ngữ lớn (LLM) trước khi đăng tải, bởi các mô hình này vẫn tiềm ẩn khả năng tạo ra thông tin sai lệch.

Việc triển khai công cụ AI tạo thông tin niêm yết sản phẩm, đặc biệt là ở thị trường châu Âu vốn nổi tiếng với những quy định nghiêm ngặt về quyền riêng tư dữ liệu, đặt ra câu hỏi về nguồn dữ liệu mà Amazon sử dụng để huấn luyện các mô hình AI. Liệu dữ liệu của người dùng châu Âu có đang được Amazon sử dụng cho mục đích này?

Bản thân Amazon không phải cái tên xa lạ với AI và học máy. Gã khổng lồ thương mại điện tử này đã ứng dụng các công nghệ này vào rất nhiều hoạt động. Tuy nhiên, việc triển khai AI tạo sinh tại châu Âu tiềm ẩn nhiều rủi ro pháp lý, đặc biệt là trong bối cảnh GDPR và Đạo luật Dịch vụ Kỹ thuật số (DSA) đang được siết chặt. Amazon cũng từng vướng vào nhiều bê bối liên quan đến việc sử dụng dữ liệu người dùng.

Việc thiếu minh bạch về nguồn dữ liệu huấn luyện AI của Amazon có thể khiến công ty đối mặt với nhiều rủi ro pháp lý, đặc biệt khi EU đang ngày càng gia tăng giám sát các hoạt động ứng dụng AI của các tập đoàn công nghệ lớn.
Zobacz oryginał
Jak wybrać wysokiej jakości edukację w zakresie kryptowalut i unikać oszustwPonieważ kryptowaluty i blockchain stają się coraz ważniejsze, opanowanie wysokiej jakości wiedzy jest niezbędne. Ta szybko rozwijająca się branża często przyciąga oszustów. Nauczmy się rozpoznawać i zdobywać rzetelną wiedzę na temat kryptowalut i nie wpadać w pułapki oszustów. Branże wschodzące i zagrożenia związane z niską jakością edukacji

Jak wybrać wysokiej jakości edukację w zakresie kryptowalut i unikać oszustw

Ponieważ kryptowaluty i blockchain stają się coraz ważniejsze, opanowanie wysokiej jakości wiedzy jest niezbędne. Ta szybko rozwijająca się branża często przyciąga oszustów. Nauczmy się rozpoznawać i zdobywać rzetelną wiedzę na temat kryptowalut i nie wpadać w pułapki oszustów.

Branże wschodzące i zagrożenia związane z niską jakością edukacji
Tłumacz
Anthropic Và Chiến Lược “đội Đỏ” Trong Lĩnh Vực Bảo Mật AIAnthropic cùng nhiều ông lớn công nghệ khác đang thành lập “đội đỏ” (Red teaming) nhằm vá lỗi bảo mật, ngăn chặn nguy cơ mô hình bị lợi dụng cho mục đích xấu. Trong tuần, Anthropic đã phát hành hướng dẫn về “đội đỏ”, gia nhập nhóm các nhà cung cấp như Google, Microsoft, NIST, NVIDIA và OpenAI, những đơn vị cũng đã phát hành các khung tương tự. Mục tiêu của các khung này là xác định và khắc phục các lỗ hổng an ninh đang ngày càng gia tăng trong các mô hình trí tuệ nhân tạo (AI). Phương án “đội đỏ” đang chứng tỏ hiệu quả trong việc phát hiện các lỗ hổng an ninh mà các phương pháp bảo mật khác không thể nhìn thấy, giúp các công ty AI tránh việc mô hình của họ bị sử dụng để tạo ra nội dung không mong muốn. Mục tiêu và tầm quan trọng của chiến lược “đội đỏ” trong lĩnh vực AI Nỗi lo ngại về nguy cơ bảo mật từ các mô hình AI đang ngày càng gia tăng, thúc đẩy các nhà hoạch định chính sách tìm kiếm giải pháp cho một nền tảng AI an toàn, đáng tin cậy. Sắc lệnh (EO) về AI An toàn, Bảo mật và Đáng tin cậy (14110) được Tổng thống Biden ký ban hành vào ngày 30/10/2018, đã chỉ đạo NIST thiết lập các hướng dẫn, quy trình phù hợp cho phép các nhà phát triển AI, đặc biệt với mô hình nền tảng sử dụng khép, tiến hành “kiểm nghiệm mô hình AI” – cũng chính là phương án “đội đỏ” AI, nhằm triển khai hệ thống AI an toàn, đáng tin cậy. NIST đã phát hành hai ấn phẩm dự thảo vào cuối tháng 4 để giúp quản lý rủi ro của AI tạo sinh. Các tài liệu này là tài nguyên bổ sung cho Khung quản lý Rủi ro AI (AI RMF) và Khung Phát triển Phần mềm Bảo mật (SSDF). Văn phòng Bảo mật Thông tin Liên bang Đức (BSI) cung cấp chiến lược “đội đỏ” như một phần của khung IT-Grundschutz rộng lớn hơn của họ. Australia, Canada, Liên minh Châu Âu, Nhật Bản, Hà Lan và Singapore cũng có các khung nổi bật. Nghị viện Châu Âu đã thông qua Đạo luật Trí tuệ Nhân tạo EU vào tháng 3 năm nay. Khái niệm về “đội đỏ” AI Thực tế, mô hình đội đỏ đã xuất hiện từ những năm 1960, khi các cuộc tấn công đối nghịch được tạo ra theo dạng mô phỏng nhằm đảm bảo hệ thống máy tính hoạt động ổn định. “Trong máy tính, không có khái niệm ‘an toàn’. Thay vào đó, những gì kỹ sư có thể nói là: chúng tôi đã cố gắng nhưng chưa phá vỡ được nó”, Bruce Schneier, chuyên gia bảo mật và là thành viên tại Trung tâm nghiên cứu Berkman Klein thuộc Đại học Harvard, nói. Ngày nay, “đội đỏ” còn được biết đến như một kỹ thuật kiểm tra các mô hình AI bằng cách mô phỏng các cuộc tấn công đa dạng và không thể đoán trước, nhằm xác định các điểm mạnh và yếu của chúng. Vì các mô hình AI tạo sinh được huấn luyện trên kho dữ liệu khổng lồ, các phương pháp bảo mật truyền thống rất khó tra ra lỗ hổng. Nhưng giống như bất kỳ phần mềm máy tính nào, các mô hình này vẫn có chung các lỗ hổng mạng: chúng có thể bị tấn công bởi những kẻ bất chính để đạt được nhiều mục tiêu khác nhau, bao quát việc đưa ra những câu trả lời gây hại, nội dung khiêu dâm, sử dụng tài liệu có bản quyền một cách bất hợp pháp hay để lộ những thông tin dạng cá nhân như tên, địa chỉ và số điện thoại. Mục tiêu của chiến lược là thúc đẩy các mô hình phản ứng và nói ra những điều chưa được lập trình sẵn để làm, bao quát cả việc bộc lộ thành kiến. Trong đó, các thành viên trong “đội đỏ” sẽ sử dụng các mô hình ngôn ngữ lớn (LLM) để tự động hóa việc tạo lệnh và kịch bản tấn công nhằm tìm và sửa chữa các điểm yếu của mô hình AI tạo sinh ở quy mô lớn. Ví dụ: Google sử dụng đội đỏ để bảo vệ các mô hình AI khỏi các mối đe dọa như tấn công tiêm nhiễm prompt, tấn công đầu độc dữ liệu và backdoor. Khi các lỗ hổng như vậy được xác định, họ có thể thu hẹp lỗi trong phần mềm và cải thiện chúng. Giá trị của chiến lược “đội đỏ” trong việc cải thiện an ninh mô hình AI tiếp tục được chứng minh trong các cuộc thi trên toàn ngành. Vào năm ngoái, DEF CON – hội nghị hacker lớn nhất thế giới – đã tổ chức cuộc thi Generative Red Team (GRT) đầu tiên, được coi là một trong những thành công lớn trong việc sử dụng kỹ thuật crowdsourcing. Các mô hình được cung cấp bởi Anthropic, Cohere, Google, Hugging Face, Meta, Nvidia, OpenAI và Stability. Người tham gia thử nghiệm các mô hình trên một nền tảng đánh giá do Scale AI phát triển. Chiến lược “đội đỏ” AI của Anthropic Khi công bố các phương pháp của mình, Anthropic nhấn mạnh sự cần thiết của các quy trình kiểm tra hệ thống hóa và tiêu chuẩn hóa có thể mở rộng. Theo công ty, sự thiếu hụt các tiêu chuẩn chung chính là rào cản lớn cho quá trình kiểm nghiệm mô hình AI trên toàn ngành Anthropic cũng đồng thời đề xuất bốn phương pháp kiểm nghiệm chính: kiểm nghiệm bởi chuyên gia theo lĩnh vực, sử dụng mô hình ngôn ngữ để kiểm nghiệm, kiểm nghiệm trong các phương thức mới và kiểm nghiệm mở chung. Điểm đáng chú ý trong cách tiếp cận của Anthropic là sự kết hợp nhuần nhuyễn giữa hiểu biết sâu rộng của con người và kết quả định lượng từ các kỹ thuật kiểm nghiệm. Điển hình như việc Anthropic chú trọng đến vai trò của nhóm chuyên gia theo lĩnh vực, đồng thời ưu tiên áp dụng Kiểm tra Lỗ hổng Chính sách (PVT) – kỹ thuật định tính giúp xác định và triển khai biện pháp bảo vệ an ninh, đặc biệt là trong các lĩnh vực nhạy cảm dễ bị lợi dụng như can thiệp bầu cử, kích động thù địch, nội dung khiêu dâm,… Giống như nhiều công ty công nghệ khác, Anthropic đang hướng đến tự động hóa quy trình kiểm tra bằng cách sử dụng chính các mô hình AI thực hiện các cuộc tấn công mô phỏng ngẫu nhiên, từ đó phát hiện lỗ hổng. “Chúng tôi tin rằng, khi mô hình AI càng mạnh mẽ, chúng càng có thể hỗ trợ đắc lực cho con người trong việc kiểm tra, tự động hóa quy trình kiểm nghiệm”, Anthropic chia sẻ. Dựa trên mô hình nhóm đỏ/nhóm xanh, Anthropic sử dụng các mô hình tấn công, “khiêu khích” mô hình AI mục tiêu thực hiện hành vi mong muốn, từ đó thu thập dữ liệu và điều chỉnh, củng cố hệ thống. Một trong những lĩnh vực then chốt và cũng đầy thách thức mà Anthropic đang theo đuổi chính là kiểm nghiệm đa phương thức. Việc kiểm tra các mô hình AI bằng hình ảnh và âm thanh phức tạp hơn rất nhiều so với văn bản, bởi lẽ kẻ tấn công hoàn toàn có thể “trá hình” mã độc trong hình ảnh, âm thanh, qua mặt hệ thống bảo mật. Minh chứng là dòng mô hình Claude 3 của Anthropic, trước khi ra mắt đã phải trải qua quy trình kiểm tra gắt gao về khả năng xử lý thông tin đa phương tiện, nhằm giảm thiểu các rủi ro tiềm ẩn như lừa đảo, kích động thù địch, hay đe dọa an toàn trẻ em. Kết luận Có thể nói, việc kiểm nghiệm mô hình AI đang dần cho thấy vị thế là lớp lá chắn quan trọng, bảo vệ cho sự phát triển bền vững của ngành công nghiệp AI. Sự tham gia của các tập đoàn công nghệ hàng đầu cùng các cơ quan chính phủ cho thấy nỗ lực chung tay kiến tạo một khung pháp lý, kỹ thuật vững chắc, mở ra tương lai cho AI phát triển thịnh vượng nhưng vẫn đảm bảo an toàn và trách nhiệm.

Anthropic Và Chiến Lược “đội Đỏ” Trong Lĩnh Vực Bảo Mật AI

Anthropic cùng nhiều ông lớn công nghệ khác đang thành lập “đội đỏ” (Red teaming) nhằm vá lỗi bảo mật, ngăn chặn nguy cơ mô hình bị lợi dụng cho mục đích xấu.

Trong tuần, Anthropic đã phát hành hướng dẫn về “đội đỏ”, gia nhập nhóm các nhà cung cấp như Google, Microsoft, NIST, NVIDIA và OpenAI, những đơn vị cũng đã phát hành các khung tương tự. Mục tiêu của các khung này là xác định và khắc phục các lỗ hổng an ninh đang ngày càng gia tăng trong các mô hình trí tuệ nhân tạo (AI).

Phương án “đội đỏ” đang chứng tỏ hiệu quả trong việc phát hiện các lỗ hổng an ninh mà các phương pháp bảo mật khác không thể nhìn thấy, giúp các công ty AI tránh việc mô hình của họ bị sử dụng để tạo ra nội dung không mong muốn.

Mục tiêu và tầm quan trọng của chiến lược “đội đỏ” trong lĩnh vực AI

Nỗi lo ngại về nguy cơ bảo mật từ các mô hình AI đang ngày càng gia tăng, thúc đẩy các nhà hoạch định chính sách tìm kiếm giải pháp cho một nền tảng AI an toàn, đáng tin cậy. Sắc lệnh (EO) về AI An toàn, Bảo mật và Đáng tin cậy (14110) được Tổng thống Biden ký ban hành vào ngày 30/10/2018, đã chỉ đạo NIST thiết lập các hướng dẫn, quy trình phù hợp cho phép các nhà phát triển AI, đặc biệt với mô hình nền tảng sử dụng khép, tiến hành “kiểm nghiệm mô hình AI” – cũng chính là phương án “đội đỏ” AI, nhằm triển khai hệ thống AI an toàn, đáng tin cậy.

NIST đã phát hành hai ấn phẩm dự thảo vào cuối tháng 4 để giúp quản lý rủi ro của AI tạo sinh. Các tài liệu này là tài nguyên bổ sung cho Khung quản lý Rủi ro AI (AI RMF) và Khung Phát triển Phần mềm Bảo mật (SSDF).

Văn phòng Bảo mật Thông tin Liên bang Đức (BSI) cung cấp chiến lược “đội đỏ” như một phần của khung IT-Grundschutz rộng lớn hơn của họ. Australia, Canada, Liên minh Châu Âu, Nhật Bản, Hà Lan và Singapore cũng có các khung nổi bật. Nghị viện Châu Âu đã thông qua Đạo luật Trí tuệ Nhân tạo EU vào tháng 3 năm nay.

Khái niệm về “đội đỏ” AI

Thực tế, mô hình đội đỏ đã xuất hiện từ những năm 1960, khi các cuộc tấn công đối nghịch được tạo ra theo dạng mô phỏng nhằm đảm bảo hệ thống máy tính hoạt động ổn định. “Trong máy tính, không có khái niệm ‘an toàn’. Thay vào đó, những gì kỹ sư có thể nói là: chúng tôi đã cố gắng nhưng chưa phá vỡ được nó”, Bruce Schneier, chuyên gia bảo mật và là thành viên tại Trung tâm nghiên cứu Berkman Klein thuộc Đại học Harvard, nói.

Ngày nay, “đội đỏ” còn được biết đến như một kỹ thuật kiểm tra các mô hình AI bằng cách mô phỏng các cuộc tấn công đa dạng và không thể đoán trước, nhằm xác định các điểm mạnh và yếu của chúng. Vì các mô hình AI tạo sinh được huấn luyện trên kho dữ liệu khổng lồ, các phương pháp bảo mật truyền thống rất khó tra ra lỗ hổng.

Nhưng giống như bất kỳ phần mềm máy tính nào, các mô hình này vẫn có chung các lỗ hổng mạng: chúng có thể bị tấn công bởi những kẻ bất chính để đạt được nhiều mục tiêu khác nhau, bao quát việc đưa ra những câu trả lời gây hại, nội dung khiêu dâm, sử dụng tài liệu có bản quyền một cách bất hợp pháp hay để lộ những thông tin dạng cá nhân như tên, địa chỉ và số điện thoại. Mục tiêu của chiến lược là thúc đẩy các mô hình phản ứng và nói ra những điều chưa được lập trình sẵn để làm, bao quát cả việc bộc lộ thành kiến.

Trong đó, các thành viên trong “đội đỏ” sẽ sử dụng các mô hình ngôn ngữ lớn (LLM) để tự động hóa việc tạo lệnh và kịch bản tấn công nhằm tìm và sửa chữa các điểm yếu của mô hình AI tạo sinh ở quy mô lớn.

Ví dụ: Google sử dụng đội đỏ để bảo vệ các mô hình AI khỏi các mối đe dọa như tấn công tiêm nhiễm prompt, tấn công đầu độc dữ liệu và backdoor. Khi các lỗ hổng như vậy được xác định, họ có thể thu hẹp lỗi trong phần mềm và cải thiện chúng.

Giá trị của chiến lược “đội đỏ” trong việc cải thiện an ninh mô hình AI tiếp tục được chứng minh trong các cuộc thi trên toàn ngành. Vào năm ngoái, DEF CON – hội nghị hacker lớn nhất thế giới – đã tổ chức cuộc thi Generative Red Team (GRT) đầu tiên, được coi là một trong những thành công lớn trong việc sử dụng kỹ thuật crowdsourcing.

Các mô hình được cung cấp bởi Anthropic, Cohere, Google, Hugging Face, Meta, Nvidia, OpenAI và Stability. Người tham gia thử nghiệm các mô hình trên một nền tảng đánh giá do Scale AI phát triển.

Chiến lược “đội đỏ” AI của Anthropic

Khi công bố các phương pháp của mình, Anthropic nhấn mạnh sự cần thiết của các quy trình kiểm tra hệ thống hóa và tiêu chuẩn hóa có thể mở rộng. Theo công ty, sự thiếu hụt các tiêu chuẩn chung chính là rào cản lớn cho quá trình kiểm nghiệm mô hình AI trên toàn ngành

Anthropic cũng đồng thời đề xuất bốn phương pháp kiểm nghiệm chính: kiểm nghiệm bởi chuyên gia theo lĩnh vực, sử dụng mô hình ngôn ngữ để kiểm nghiệm, kiểm nghiệm trong các phương thức mới và kiểm nghiệm mở chung.

Điểm đáng chú ý trong cách tiếp cận của Anthropic là sự kết hợp nhuần nhuyễn giữa hiểu biết sâu rộng của con người và kết quả định lượng từ các kỹ thuật kiểm nghiệm. Điển hình như việc Anthropic chú trọng đến vai trò của nhóm chuyên gia theo lĩnh vực, đồng thời ưu tiên áp dụng Kiểm tra Lỗ hổng Chính sách (PVT) – kỹ thuật định tính giúp xác định và triển khai biện pháp bảo vệ an ninh, đặc biệt là trong các lĩnh vực nhạy cảm dễ bị lợi dụng như can thiệp bầu cử, kích động thù địch, nội dung khiêu dâm,…

Giống như nhiều công ty công nghệ khác, Anthropic đang hướng đến tự động hóa quy trình kiểm tra bằng cách sử dụng chính các mô hình AI thực hiện các cuộc tấn công mô phỏng ngẫu nhiên, từ đó phát hiện lỗ hổng. “Chúng tôi tin rằng, khi mô hình AI càng mạnh mẽ, chúng càng có thể hỗ trợ đắc lực cho con người trong việc kiểm tra, tự động hóa quy trình kiểm nghiệm”, Anthropic chia sẻ.

Dựa trên mô hình nhóm đỏ/nhóm xanh, Anthropic sử dụng các mô hình tấn công, “khiêu khích” mô hình AI mục tiêu thực hiện hành vi mong muốn, từ đó thu thập dữ liệu và điều chỉnh, củng cố hệ thống.

Một trong những lĩnh vực then chốt và cũng đầy thách thức mà Anthropic đang theo đuổi chính là kiểm nghiệm đa phương thức. Việc kiểm tra các mô hình AI bằng hình ảnh và âm thanh phức tạp hơn rất nhiều so với văn bản, bởi lẽ kẻ tấn công hoàn toàn có thể “trá hình” mã độc trong hình ảnh, âm thanh, qua mặt hệ thống bảo mật. Minh chứng là dòng mô hình Claude 3 của Anthropic, trước khi ra mắt đã phải trải qua quy trình kiểm tra gắt gao về khả năng xử lý thông tin đa phương tiện, nhằm giảm thiểu các rủi ro tiềm ẩn như lừa đảo, kích động thù địch, hay đe dọa an toàn trẻ em.

Kết luận

Có thể nói, việc kiểm nghiệm mô hình AI đang dần cho thấy vị thế là lớp lá chắn quan trọng, bảo vệ cho sự phát triển bền vững của ngành công nghiệp AI. Sự tham gia của các tập đoàn công nghệ hàng đầu cùng các cơ quan chính phủ cho thấy nỗ lực chung tay kiến tạo một khung pháp lý, kỹ thuật vững chắc, mở ra tương lai cho AI phát triển thịnh vượng nhưng vẫn đảm bảo an toàn và trách nhiệm.
Zobacz oryginał
Perplexity łączy ręce z SoftBankiem, rozszerzając rynek japońskiWyszukiwarka AI Perplexity oficjalnie nawiązała współpracę z SoftBank, oferując bezpłatną roczną subskrypcję usługi Perplexity Pro w Japonii, mając na celu dotarcie do ogromnej bazy użytkowników na tym rynku.  Od 19 czerwca SoftBank i jego dwie spółki zależne Y!mobile i LINEMO będą zapewniać ten bezpłatny pakiet, pomagając Perplexity zwiększyć swój udział w rynku i konkurować z „dużymi graczami”, takimi jak Google. Jest to strategiczne posunięcie firmy Perplexity po ogłoszeniu w kwietniu partnerstwa z SoftBank. To partnerstwo nie tylko pomaga SoftBankowi przyciągnąć użytkowników zainteresowanych sztuczną inteligencją, ale także otwiera możliwości zwiększenia liczby klientów i przychodów.

Perplexity łączy ręce z SoftBankiem, rozszerzając rynek japoński

Wyszukiwarka AI Perplexity oficjalnie nawiązała współpracę z SoftBank, oferując bezpłatną roczną subskrypcję usługi Perplexity Pro w Japonii, mając na celu dotarcie do ogromnej bazy użytkowników na tym rynku. 

Od 19 czerwca SoftBank i jego dwie spółki zależne Y!mobile i LINEMO będą zapewniać ten bezpłatny pakiet, pomagając Perplexity zwiększyć swój udział w rynku i konkurować z „dużymi graczami”, takimi jak Google.

Jest to strategiczne posunięcie firmy Perplexity po ogłoszeniu w kwietniu partnerstwa z SoftBank. To partnerstwo nie tylko pomaga SoftBankowi przyciągnąć użytkowników zainteresowanych sztuczną inteligencją, ale także otwiera możliwości zwiększenia liczby klientów i przychodów.
Zobacz oryginał
OpenAI rekrutuje byłego dowódcę ds. cyberbezpieczeństwa w USA13 czerwca OpenAI ogłosiło, że były dyrektor amerykańskiej Agencji Bezpieczeństwa Narodowego (NSA), generał Paul Nakasone, dołączy do podkomisji Zarządu ds. Bezpieczeństwa AI. Powołanie pana Nakasone, weterana w dziedzinie bezpieczeństwa narodowego, jest postrzegane jako próba uspokojenia opinii publicznej przez OpenAI, zwłaszcza obaw, że firma zbyt szybko rozwija sztuczną inteligencję, nie dysponując odpowiednimi skutecznymi narzędziami kontroli ryzyka.

OpenAI rekrutuje byłego dowódcę ds. cyberbezpieczeństwa w USA

13 czerwca OpenAI ogłosiło, że były dyrektor amerykańskiej Agencji Bezpieczeństwa Narodowego (NSA), generał Paul Nakasone, dołączy do podkomisji Zarządu ds. Bezpieczeństwa AI.

Powołanie pana Nakasone, weterana w dziedzinie bezpieczeństwa narodowego, jest postrzegane jako próba uspokojenia opinii publicznej przez OpenAI, zwłaszcza obaw, że firma zbyt szybko rozwija sztuczną inteligencję, nie dysponując odpowiednimi skutecznymi narzędziami kontroli ryzyka.
Zobacz oryginał
Elon Musk wycofuje pozew przeciwko OpenAIPo ponad trzech miesiącach procesów Elon Musk nagle wycofał pozew przeciwko OpenAI, zarzucając firmie sprzeczność z pierwotną misją dążenia do zysków. Decyzję tę uważa się za punkt zwrotny, otwierający wiele możliwości dla przyszłości branży AI i relacji pomiędzy dwoma technologicznymi gigantami. Musk, współzałożyciel OpenAI, opuścił zarząd firmy w 2018 roku i wyraził niezadowolenie z faktu, że OpenAI stało się „tajną spółką zależną” Microsoftu. Pozew złożony w lutym ma na celu uniemożliwienie OpenAI i Microsoftowi wykorzystywania technologii AGI do celów osobistych.

Elon Musk wycofuje pozew przeciwko OpenAI

Po ponad trzech miesiącach procesów Elon Musk nagle wycofał pozew przeciwko OpenAI, zarzucając firmie sprzeczność z pierwotną misją dążenia do zysków. Decyzję tę uważa się za punkt zwrotny, otwierający wiele możliwości dla przyszłości branży AI i relacji pomiędzy dwoma technologicznymi gigantami.

Musk, współzałożyciel OpenAI, opuścił zarząd firmy w 2018 roku i wyraził niezadowolenie z faktu, że OpenAI stało się „tajną spółką zależną” Microsoftu. Pozew złożony w lutym ma na celu uniemożliwienie OpenAI i Microsoftowi wykorzystywania technologii AGI do celów osobistych.
Tłumacz
Meta Tạm Ngừng Ra Mắt Trợ Lý AI Ở Châu Âu Meta đã thông báo tạm dừng ra mắt và đào tạo trợ lý AI của mình tại Châu Âu theo yêu cầu của Ủy ban Bảo vệ Dữ liệu Ireland (DPC). Yêu cầu này được đưa ra sau khi DPC, cơ quan quản lý quyền riêng tư hàng đầu của Meta tại EU, yêu cầu công ty tạm dừng đào tạo mô hình ngôn ngữ lớn (LLM) sử dụng dữ liệu công khai do người dùng Facebook và Instagram chia sẻ. Meta cho biết quyết định này khiến họ “thất vọng” và coi đó là “bước lùi” đối với sự cạnh tranh và đổi mới AI ở EU. Tuy nhiên, công ty khẳng định họ tuân thủ các quy định của Châu Âu. DPC đã ủng hộ việc tạm dừng này, cho biết họ “hoan nghênh quyết định” và sẽ tiếp tục hợp tác với Meta sau những “sự tham gia sâu rộng” trước đó. Theo tổ chức phi lợi nhuận về quyền riêng tư ở Châu Âu NOYB, yêu cầu tạm dừng hoạt động của Meta là kết quả của các khiếu nại từ chính họ, và các tổ chức khác như Hội đồng Người tiêu dùng Na Uy và một số cơ quan bảo vệ dữ liệu khác. Vấn đề này đã diễn biến trong nhiều tháng. Meta cho biết họ đã thông báo cho các cơ quan bảo vệ dữ liệu Châu Âu về các hoạt động của mình kể từ tháng 3. Tuy nhiên, tình hình trở nên nghiêm trọng hơn khi Meta bắt đầu thông báo cho người dùng về hoạt động đào tạo AI của mình thông qua hơn hai tỷ thông báo và email trong ứng dụng vào ngày 22/5. NOYB đã gửi khiếu nại tới 11 cơ quan bảo vệ dữ liệu vào ngày 6/6. Meta thừa nhận đã tham vấn với DPC vào ngày 10/6 và cho biết họ đã tích hợp phản hồi để đảm bảo hoạt động đào tạo AI của mình tuân thủ luật AI. Meta lưu ý rằng Google và OpenAI cũng đã sử dụng AI để đào tạo dữ liệu người dùng. Công ty dự kiến sẽ tuân thủ luật Quy định bảo vệ dữ liệu chung (GDPR) của EU trên cơ sở pháp lý về “Lợi ích hợp pháp,” một điều khoản linh hoạt mà các công ty AI khác đã dựa vào. Việc tạm dừng này cho thấy sự phức tạp và thách thức trong việc áp dụng công nghệ AI, đặc biệt trong bối cảnh các quy định bảo vệ dữ liệu ngày càng nghiêm ngặt.

Meta Tạm Ngừng Ra Mắt Trợ Lý AI Ở Châu Âu 

Meta đã thông báo tạm dừng ra mắt và đào tạo trợ lý AI của mình tại Châu Âu theo yêu cầu của Ủy ban Bảo vệ Dữ liệu Ireland (DPC).

Yêu cầu này được đưa ra sau khi DPC, cơ quan quản lý quyền riêng tư hàng đầu của Meta tại EU, yêu cầu công ty tạm dừng đào tạo mô hình ngôn ngữ lớn (LLM) sử dụng dữ liệu công khai do người dùng Facebook và Instagram chia sẻ.

Meta cho biết quyết định này khiến họ “thất vọng” và coi đó là “bước lùi” đối với sự cạnh tranh và đổi mới AI ở EU. Tuy nhiên, công ty khẳng định họ tuân thủ các quy định của Châu Âu.

DPC đã ủng hộ việc tạm dừng này, cho biết họ “hoan nghênh quyết định” và sẽ tiếp tục hợp tác với Meta sau những “sự tham gia sâu rộng” trước đó.

Theo tổ chức phi lợi nhuận về quyền riêng tư ở Châu Âu NOYB, yêu cầu tạm dừng hoạt động của Meta là kết quả của các khiếu nại từ chính họ, và các tổ chức khác như Hội đồng Người tiêu dùng Na Uy và một số cơ quan bảo vệ dữ liệu khác.

Vấn đề này đã diễn biến trong nhiều tháng. Meta cho biết họ đã thông báo cho các cơ quan bảo vệ dữ liệu Châu Âu về các hoạt động của mình kể từ tháng 3.

Tuy nhiên, tình hình trở nên nghiêm trọng hơn khi Meta bắt đầu thông báo cho người dùng về hoạt động đào tạo AI của mình thông qua hơn hai tỷ thông báo và email trong ứng dụng vào ngày 22/5. NOYB đã gửi khiếu nại tới 11 cơ quan bảo vệ dữ liệu vào ngày 6/6.

Meta thừa nhận đã tham vấn với DPC vào ngày 10/6 và cho biết họ đã tích hợp phản hồi để đảm bảo hoạt động đào tạo AI của mình tuân thủ luật AI.

Meta lưu ý rằng Google và OpenAI cũng đã sử dụng AI để đào tạo dữ liệu người dùng. Công ty dự kiến sẽ tuân thủ luật Quy định bảo vệ dữ liệu chung (GDPR) của EU trên cơ sở pháp lý về “Lợi ích hợp pháp,” một điều khoản linh hoạt mà các công ty AI khác đã dựa vào.

Việc tạm dừng này cho thấy sự phức tạp và thách thức trong việc áp dụng công nghệ AI, đặc biệt trong bối cảnh các quy định bảo vệ dữ liệu ngày càng nghiêm ngặt.
Tłumacz
Luật AI Của Châu Âu Gây Tranh Cãi Về Minh Bạch Dữ LiệuLuật AI mới của Liên minh Châu Âu (EU) sẽ buộc các công ty tiết lộ dữ liệu huấn luyện, tạo nên cuộc tranh cãi lớn về quyền sở hữu trí tuệ. Sự ra đời của ChatGPT đánh dấu cột mốc quan trọng, mở ra kỷ nguyên bùng nổ của AI tạo sinh (Gen AI). Chỉ trong vòng 18 tháng, công nghệ này đã thu hút lượng đầu tư khổng lồ và ứng dụng rộng rãi trong nhiều lĩnh vực. AI tạo sinh là tập hợp các ứng dụng có thể sản xuất nhanh chóng nội dung văn bản, hình ảnh và âm thanh. Tuy nhiên, bên cạnh những lợi ích to lớn, AI tạo sinh cũng đặt ra nhiều vấn đề về mặt pháp lý, đặc biệt là câu chuyện về nguồn gốc dữ liệu huấn luyện, theo Reuters. Nắm bắt được những thách thức này, Liên minh châu Âu (EU) đã tiên phong ban hành Luật AI, dự kiến có hiệu lực trong vòng 2 năm tới. Một trong những điểm đáng chú ý nhất của luật này là yêu cầu các tổ chức triển khai mô hình AI đa năng, điển hình như ChatGPT, phải công khai minh bạch dữ liệu huấn luyện. Cụ thể, họ phải cung cấp “bản tóm tắt chi tiết” về nguồn dữ liệu được sử dụng, bao gồm cả văn bản, hình ảnh và âm thanh. Quy định này được kỳ vọng sẽ phần nào giải quyết được những lo ngại về việc vi phạm bản quyền khi nhiều công ty AI bị cáo buộc sử dụng trái phép sách, phim ảnh và các tác phẩm nghệ thuật khác để huấn luyện AI mà chưa có sự đồng ý của tác giả. Tuy nhiên, động thái này vấp phải sự phản đối mạnh mẽ từ phía các công ty công nghệ. Họ cho rằng việc tiết lộ dữ liệu huấn luyện chẳng khác nào “bật mí công thức bí mật”, gây bất lợi cho họ trong cuộc đua cạnh tranh khốc liệt. Ông Matthieu Riouf, CEO của Photoroom, một công ty chuyên về chỉnh sửa ảnh bằng AI, ví von: “Việc công khai dữ liệu huấn luyện AI cũng giống như việc bắt một đầu bếp danh tiếng tiết lộ công thức nấu ăn bí mật của mình vậy”. Quan điểm này cũng nhận được sự đồng tình từ nhiều ông lớn công nghệ khác như Google, Meta, những đơn vị đang đặt cược tương lai vào AI. Mức độ chi tiết của các báo cáo minh bạch này sẽ có ảnh hưởng lớn đối với các startup AI nhỏ và các công ty công nghệ lớn như Google và Meta, những công ty đã đặt công nghệ này vào trung tâm hoạt động tương lai của họ. Trong năm qua, một số công ty công nghệ nổi tiếng, bao gồm Google, OpenAI và Stability AI, đã phải đối mặt với các vụ kiện từ các tác giả cho rằng nội dung của họ đã bị sử dụng không đúng cách để huấn luyện các mô hình. Mặc dù Tổng thống Mỹ Joe Biden đã ban hành một số lệnh hành pháp tập trung vào các rủi ro an ninh của AI, các câu hỏi về bản quyền vẫn chưa được thử nghiệm đầy đủ. Các yêu cầu buộc các công ty công nghệ phải trả tiền cho những người giữ quyền đã nhận được sự ủng hộ lưỡng đảng trong Quốc hội. Trước sức ép từ dư luận, các ông lớn công nghệ đã rục rịch “xoa dịu” bằng hàng loạt thỏa thuận cấp phép nội dung với các cơ quan truyền thông. Điển hình như OpenAI đã ký kết thỏa thuận với Financial Times và The Atlantic, trong khi Google bắt tay với mạng xã hội Reddit của NewsCorp. Tuy nhiên, những động thái này vẫn chưa đủ để xoa dịu dư luận. OpenAI tiếp tục hứng chịu chỉ trích khi CTO Mira Murati từ chối trả lời câu hỏi về việc liệu công ty có sử dụng video YouTube để huấn luyện Sora – công cụ tạo video AI – hay không. Vụ việc giọng nói AI của nữ diễn viên Scarlett Johansson trong phiên bản ChatGPT mới nhất càng khiến làn sóng phản đối OpenAI dâng cao. Giữa tâm bão tranh cãi, Thomas Wolf, đồng sáng lập Hugging Face, lên tiếng ủng hộ minh bạch dữ liệu, nhưng thừa nhận quan điểm này không nhận được sự đồng thuận trong ngành. Trong khi đó, giới lập pháp châu Âu cũng có những quan điểm trái chiều. Nghị sĩ Dragos Tudorache, một trong những người soạn thảo Luật AI, cho rằng việc công khai dữ liệu huấn luyện là cần thiết để đảm bảo quyền lợi cho các nhà sáng tạo nội dung. “Họ có quyền được biết liệu tác phẩm của mình có bị sử dụng để huấn luyện AI hay không”, ông nhấn mạnh. Cuộc chiến giữa minh bạch dữ liệu và bí mật thương mại trong lĩnh vực AI đang ngày càng trở nên nóng hơn bao giờ hết. Giới chuyên gia dự đoán đây sẽ là một trong những thách thức lớn nhất mà các nhà hoạch định chính sách và doanh nghiệp phải đối mặt trong thời gian tới.

Luật AI Của Châu Âu Gây Tranh Cãi Về Minh Bạch Dữ Liệu

Luật AI mới của Liên minh Châu Âu (EU) sẽ buộc các công ty tiết lộ dữ liệu huấn luyện, tạo nên cuộc tranh cãi lớn về quyền sở hữu trí tuệ.

Sự ra đời của ChatGPT đánh dấu cột mốc quan trọng, mở ra kỷ nguyên bùng nổ của AI tạo sinh (Gen AI). Chỉ trong vòng 18 tháng, công nghệ này đã thu hút lượng đầu tư khổng lồ và ứng dụng rộng rãi trong nhiều lĩnh vực. AI tạo sinh là tập hợp các ứng dụng có thể sản xuất nhanh chóng nội dung văn bản, hình ảnh và âm thanh.

Tuy nhiên, bên cạnh những lợi ích to lớn, AI tạo sinh cũng đặt ra nhiều vấn đề về mặt pháp lý, đặc biệt là câu chuyện về nguồn gốc dữ liệu huấn luyện, theo Reuters.

Nắm bắt được những thách thức này, Liên minh châu Âu (EU) đã tiên phong ban hành Luật AI, dự kiến có hiệu lực trong vòng 2 năm tới. Một trong những điểm đáng chú ý nhất của luật này là yêu cầu các tổ chức triển khai mô hình AI đa năng, điển hình như ChatGPT, phải công khai minh bạch dữ liệu huấn luyện. Cụ thể, họ phải cung cấp “bản tóm tắt chi tiết” về nguồn dữ liệu được sử dụng, bao gồm cả văn bản, hình ảnh và âm thanh.

Quy định này được kỳ vọng sẽ phần nào giải quyết được những lo ngại về việc vi phạm bản quyền khi nhiều công ty AI bị cáo buộc sử dụng trái phép sách, phim ảnh và các tác phẩm nghệ thuật khác để huấn luyện AI mà chưa có sự đồng ý của tác giả.

Tuy nhiên, động thái này vấp phải sự phản đối mạnh mẽ từ phía các công ty công nghệ. Họ cho rằng việc tiết lộ dữ liệu huấn luyện chẳng khác nào “bật mí công thức bí mật”, gây bất lợi cho họ trong cuộc đua cạnh tranh khốc liệt.

Ông Matthieu Riouf, CEO của Photoroom, một công ty chuyên về chỉnh sửa ảnh bằng AI, ví von: “Việc công khai dữ liệu huấn luyện AI cũng giống như việc bắt một đầu bếp danh tiếng tiết lộ công thức nấu ăn bí mật của mình vậy”. Quan điểm này cũng nhận được sự đồng tình từ nhiều ông lớn công nghệ khác như Google, Meta, những đơn vị đang đặt cược tương lai vào AI.

Mức độ chi tiết của các báo cáo minh bạch này sẽ có ảnh hưởng lớn đối với các startup AI nhỏ và các công ty công nghệ lớn như Google và Meta, những công ty đã đặt công nghệ này vào trung tâm hoạt động tương lai của họ.

Trong năm qua, một số công ty công nghệ nổi tiếng, bao gồm Google, OpenAI và Stability AI, đã phải đối mặt với các vụ kiện từ các tác giả cho rằng nội dung của họ đã bị sử dụng không đúng cách để huấn luyện các mô hình. Mặc dù Tổng thống Mỹ Joe Biden đã ban hành một số lệnh hành pháp tập trung vào các rủi ro an ninh của AI, các câu hỏi về bản quyền vẫn chưa được thử nghiệm đầy đủ. Các yêu cầu buộc các công ty công nghệ phải trả tiền cho những người giữ quyền đã nhận được sự ủng hộ lưỡng đảng trong Quốc hội.

Trước sức ép từ dư luận, các ông lớn công nghệ đã rục rịch “xoa dịu” bằng hàng loạt thỏa thuận cấp phép nội dung với các cơ quan truyền thông. Điển hình như OpenAI đã ký kết thỏa thuận với Financial Times và The Atlantic, trong khi Google bắt tay với mạng xã hội Reddit của NewsCorp.

Tuy nhiên, những động thái này vẫn chưa đủ để xoa dịu dư luận. OpenAI tiếp tục hứng chịu chỉ trích khi CTO Mira Murati từ chối trả lời câu hỏi về việc liệu công ty có sử dụng video YouTube để huấn luyện Sora – công cụ tạo video AI – hay không. Vụ việc giọng nói AI của nữ diễn viên Scarlett Johansson trong phiên bản ChatGPT mới nhất càng khiến làn sóng phản đối OpenAI dâng cao.

Giữa tâm bão tranh cãi, Thomas Wolf, đồng sáng lập Hugging Face, lên tiếng ủng hộ minh bạch dữ liệu, nhưng thừa nhận quan điểm này không nhận được sự đồng thuận trong ngành.

Trong khi đó, giới lập pháp châu Âu cũng có những quan điểm trái chiều. Nghị sĩ Dragos Tudorache, một trong những người soạn thảo Luật AI, cho rằng việc công khai dữ liệu huấn luyện là cần thiết để đảm bảo quyền lợi cho các nhà sáng tạo nội dung. “Họ có quyền được biết liệu tác phẩm của mình có bị sử dụng để huấn luyện AI hay không”, ông nhấn mạnh.

Cuộc chiến giữa minh bạch dữ liệu và bí mật thương mại trong lĩnh vực AI đang ngày càng trở nên nóng hơn bao giờ hết. Giới chuyên gia dự đoán đây sẽ là một trong những thách thức lớn nhất mà các nhà hoạch định chính sách và doanh nghiệp phải đối mặt trong thời gian tới.
Tłumacz
Mỹ Nhận Thấy Tiềm Năng Của AI Trong Dịch Vụ CôngChính quyền Biden kỳ vọng vào tiềm năng to lớn của trí tuệ nhân tạo (AI) trong việc nâng tầm dịch vụ công, và đang thể hiện những gì có thể làm được với những công cụ này. Vào sáng thứ Năm, Văn phòng Khoa học và Công nghệ của Nhà Trắng (OSTP) đã tổ chức một hội nghị thượng đỉnh về “kỳ vọng AI,” trong đó các cơ quan liên bang đã trình diễn cách sử dụng AI để cung cấp nhiều dịch vụ hơn cho người dân. Phát biểu tại hội nghị, Giám đốc OSTP, tiến sĩ Arati Prabhakar, nhấn mạnh rằng sự phát triển của AI trong chính phủ sẽ cần sự hợp tác từ khu vực tư nhân và các tổ chức học thuật. Cùng chung quan điểm, bà Shalanda Young, Giám đốc Văn phòng Quản lý và Ngân sách, nhận định rằng AI có tiềm năng rất lớn trong việc cải thiện dịch vụ khách hàng của các cơ quan chính phủ, nếu được triển khai hiệu quả. Mo Early, lãnh đạo danh mục các nhà cung cấp dịch vụ có tác động cao tại OMB, cũng cho biết AI có thể mang lại cơ hội mới để định hình lại các dịch vụ chính phủ, giúp mọi người cảm thấy an tâm và tin tưởng rằng dữ liệu và quyền riêng tư của họ được bảo vệ. Bộ trưởng Thương mại Gina Raimondo cho biết Cơ quan Khí tượng và Đại dương Quốc gia Mỹ (NOAA) đang sử dụng AI để tạo ra các mô hình thời tiết nhanh hơn và chính xác hơn, nhờ vào kho lưu trữ dữ liệu khổng lồ của mình. Trong khi đó, Giám đốc Quỹ Khoa học Quốc gia (NSF), ông Sethuraman Panchanathan, tự hào khẳng định những thành tựu AI ngày nay là kết quả của quá trình đầu tư và nghiên cứu bền bỉ suốt 50-60 năm qua. Giáo dục cũng là lĩnh vực được kỳ vọng sẽ có bước chuyển mình mạnh mẽ nhờ AI. Bộ trưởng Giáo dục Miguel Cardona cho rằng AI có thể gây ra sự xáo trộn lớn trong các trường học và đại học, tương tự như sự bùng nổ của internet. Ông nhấn mạnh rằng AI sẽ sớm hiện diện trong gia đình và lớp học, và chúng ta phải chuẩn bị để đáp ứng nhu cầu này. Tiến sĩ Prabhakar cho biết chính quyền Biden đang trình diễn công việc đã và đang được thực hiện tại một số cơ quan nghiên cứu và phát triển liên bang, đồng thời nhấn mạnh tiềm năng của AI trong việc đẩy nhanh nghiên cứu dược phẩm và phê duyệt các loại thuốc mới trong vài tháng thay vì nhiều thập kỷ. Nhà Trắng nhận thấy tiềm năng của AI trong việc nâng cao tiêu chuẩn dịch vụ khách hàng trên toàn chính phủ, giúp người dân tiếp cận dịch vụ quan trọng đúng lúc cần thiết nhất, khi đang kêu gọi sự hợp tác từ các chuyên gia khu vực tư nhân, học thuật và nghiên cứu để phát triển công nghệ này. Không chỉ dừng lại ở những cam kết, chính quyền Biden đã và đang hiện thực hóa tầm nhìn AI bằng những dự án cụ thể. Theo bà Prabhakar, 12 cơ quan nghiên cứu và phát triển liên bang đang triển khai các dự án ứng dụng AI trong nhiều lĩnh vực, từ đẩy nhanh quá trình nghiên cứu và phê duyệt thuốc mới, cá nhân hóa giáo dục đến nâng cao chất lượng dịch vụ công. Để đảm bảo AI được ứng dụng một cách có trách nhiệm và hiệu quả, chính quyền Biden cam kết sẽ hợp tác chặt chẽ với khu vực tư nhân, học giả và các nhà nghiên cứu. Đồng thời, vấn đề đạo đức trong AI cũng được đặt lên hàng đầu, nhằm ngăn chặn nguy cơ phân biệt đối xử và đảm bảo tính công bằng trong quá trình triển khai công nghệ này. Tóm lại, Nhà Trắng đang hướng tới việc sử dụng AI để cải thiện các dịch vụ chính phủ, với sự hợp tác từ nhiều cơ quan và tổ chức. Việc triển khai AI đúng cách không chỉ mang lại lợi ích to lớn mà còn giúp xây dựng niềm tin và sự hài lòng của người dân.

Mỹ Nhận Thấy Tiềm Năng Của AI Trong Dịch Vụ Công

Chính quyền Biden kỳ vọng vào tiềm năng to lớn của trí tuệ nhân tạo (AI) trong việc nâng tầm dịch vụ công, và đang thể hiện những gì có thể làm được với những công cụ này.

Vào sáng thứ Năm, Văn phòng Khoa học và Công nghệ của Nhà Trắng (OSTP) đã tổ chức một hội nghị thượng đỉnh về “kỳ vọng AI,” trong đó các cơ quan liên bang đã trình diễn cách sử dụng AI để cung cấp nhiều dịch vụ hơn cho người dân.

Phát biểu tại hội nghị, Giám đốc OSTP, tiến sĩ Arati Prabhakar, nhấn mạnh rằng sự phát triển của AI trong chính phủ sẽ cần sự hợp tác từ khu vực tư nhân và các tổ chức học thuật. Cùng chung quan điểm, bà Shalanda Young, Giám đốc Văn phòng Quản lý và Ngân sách, nhận định rằng AI có tiềm năng rất lớn trong việc cải thiện dịch vụ khách hàng của các cơ quan chính phủ, nếu được triển khai hiệu quả.

Mo Early, lãnh đạo danh mục các nhà cung cấp dịch vụ có tác động cao tại OMB, cũng cho biết AI có thể mang lại cơ hội mới để định hình lại các dịch vụ chính phủ, giúp mọi người cảm thấy an tâm và tin tưởng rằng dữ liệu và quyền riêng tư của họ được bảo vệ.

Bộ trưởng Thương mại Gina Raimondo cho biết Cơ quan Khí tượng và Đại dương Quốc gia Mỹ (NOAA) đang sử dụng AI để tạo ra các mô hình thời tiết nhanh hơn và chính xác hơn, nhờ vào kho lưu trữ dữ liệu khổng lồ của mình. Trong khi đó, Giám đốc Quỹ Khoa học Quốc gia (NSF), ông Sethuraman Panchanathan, tự hào khẳng định những thành tựu AI ngày nay là kết quả của quá trình đầu tư và nghiên cứu bền bỉ suốt 50-60 năm qua.

Giáo dục cũng là lĩnh vực được kỳ vọng sẽ có bước chuyển mình mạnh mẽ nhờ AI. Bộ trưởng Giáo dục Miguel Cardona cho rằng AI có thể gây ra sự xáo trộn lớn trong các trường học và đại học, tương tự như sự bùng nổ của internet. Ông nhấn mạnh rằng AI sẽ sớm hiện diện trong gia đình và lớp học, và chúng ta phải chuẩn bị để đáp ứng nhu cầu này.

Tiến sĩ Prabhakar cho biết chính quyền Biden đang trình diễn công việc đã và đang được thực hiện tại một số cơ quan nghiên cứu và phát triển liên bang, đồng thời nhấn mạnh tiềm năng của AI trong việc đẩy nhanh nghiên cứu dược phẩm và phê duyệt các loại thuốc mới trong vài tháng thay vì nhiều thập kỷ.

Nhà Trắng nhận thấy tiềm năng của AI trong việc nâng cao tiêu chuẩn dịch vụ khách hàng trên toàn chính phủ, giúp người dân tiếp cận dịch vụ quan trọng đúng lúc cần thiết nhất, khi đang kêu gọi sự hợp tác từ các chuyên gia khu vực tư nhân, học thuật và nghiên cứu để phát triển công nghệ này.

Không chỉ dừng lại ở những cam kết, chính quyền Biden đã và đang hiện thực hóa tầm nhìn AI bằng những dự án cụ thể. Theo bà Prabhakar, 12 cơ quan nghiên cứu và phát triển liên bang đang triển khai các dự án ứng dụng AI trong nhiều lĩnh vực, từ đẩy nhanh quá trình nghiên cứu và phê duyệt thuốc mới, cá nhân hóa giáo dục đến nâng cao chất lượng dịch vụ công.

Để đảm bảo AI được ứng dụng một cách có trách nhiệm và hiệu quả, chính quyền Biden cam kết sẽ hợp tác chặt chẽ với khu vực tư nhân, học giả và các nhà nghiên cứu. Đồng thời, vấn đề đạo đức trong AI cũng được đặt lên hàng đầu, nhằm ngăn chặn nguy cơ phân biệt đối xử và đảm bảo tính công bằng trong quá trình triển khai công nghệ này.

Tóm lại, Nhà Trắng đang hướng tới việc sử dụng AI để cải thiện các dịch vụ chính phủ, với sự hợp tác từ nhiều cơ quan và tổ chức. Việc triển khai AI đúng cách không chỉ mang lại lợi ích to lớn mà còn giúp xây dựng niềm tin và sự hài lòng của người dân.
Tłumacz
AI Tạo Ra Thách Thức Mới Cho Ngành Truyền Thông Và Giải TríSự bùng nổ của trí tuệ nhân tạo tạo sinh (GenAI) mang đến nhiều cơ hội nhưng cũng đặt ra nhiều rủi ro chưa từng có cho ngành truyền thông, phim ảnh, truyền hình và giải trí. Sự xuất hiện của công nghệ tạo nội dung tự động này khiến các chuyên gia bảo hiểm truyền thông phải đối mặt với một câu hỏi nan giải: liệu họ có bảo hiểm các yêu cầu bồi thường cho nội dung được tạo ra bằng AI tạo sinh hay không? Ros Breese, Giám đốc bảo hiểm – truyền thông, điện ảnh và truyền hình tại Tokio Marine HCC International, cho biết AI tạo sinh đã tạo ra nhiều cuộc thảo luận sôi nổi trong ngành bảo hiểm truyền thông. Công nghệ này mang đến một loạt rủi ro mới khác biệt hoàn toàn với các phương pháp sáng tạo nội dung truyền thống. Sự thận trọng với công nghệ AI không chỉ là thái độ của ngành bảo hiểm truyền thông, mà còn bao quát cả ngành truyền thông và giải trí, đặc biệt là khi đối mặt với các vụ kiện pháp lý nổi bật. Chẳng hạn như vụ kiện của tờ New York Times chống lại OpenAI, chủ sở hữu ChatGPT về việc sử dụng tài liệu lưu trữ trong các công cụ AI tạo sinh. Tờ báo đã khẳng định bản quyền của họ bị vi phạm để huấn luyện các mô hình AI, và đòi bồi thường thiệt hại lên đến hàng tỷ USD. Vụ kiện này cho thấy sự thiếu rõ ràng về pháp lý liên quan đến việc sử dụng AI tạo sinh trong việc tạo nội dung. Vấn đề lớn nhất là việc truy xuất quyền sở hữu nội dung gốc trong tài liệu AI tạo sinh. Hiện tại, chưa có khung pháp lý cụ thể nào về vấn đề này, khiến các công ty truyền thông và các nhà sản xuất phim phải thận trọng trong việc ứng dụng công nghệ mới này. Khi AI tạo sinh trở nên phổ biến hơn, ngành bảo hiểm sẽ cần phải điều chỉnh cách tiếp cận của mình đối với các rủi ro mà nó gây ra. Để giảm thiểu rủi ro, Breese khuyến nghị các công ty nên phát triển các giao thức để truy tìm nguồn gốc của nội dung và thiết lập mối liên hệ trách nhiệm hai chiều giữa khách hàng và các công cụ AI tạo sinh. “Tôi nghĩ rằng chúng ta có thể sẽ xem xét nó giống với nội dung khác và hợp tác với các công ty bảo hiểm để giảm thiểu các yêu cầu bồi thường. Nếu chúng ta biết AI tạo sinh được sử dụng cho mục đích gì và những chủ sở hữu nội dung gốc, điều ấy sẽ tạo ra sự đảm bảo trong mối liên hệ giữa người sử dụng với công cụ AI tạo sinh,” cô cho biết. “Chúng ta đang trên tiến trình này.“ Tính minh bạch về mặt luật pháp và các vụ kiện quan trọng như vụ kiện của New York Times cũng đóng vai trò quan trọng trong việc định hình các chiến lược bảo hiểm trong tương lai. Bên cạnh những thách thức về mặt công nghệ, chính bản thân bối cảnh tiêu thụ truyền thông cũng đang thay đổi, chịu ảnh hưởng nặng nề bởi đại dịch COVID-19. Hiện nay đang có xu hướng rõ rệt là chuyển từ nội dung sản xuất truyền thống sang các định dạng ngắn gọn, dễ tiêu hóa hơn như podcast. Breese cho biết: “Chúng tôi đang thấy rất nhiều nội dung podcast hơn bao giờ hết, đặc biệt trong thể loại tội phạm có thật. Có một sự quan tâm lớn đến các bộ phim tài liệu sử dụng tư liệu lưu trữ, thay vì các bộ phim truyền hình bom tấn lớn.” Vị giám đốc nói thêm, “nếu bạn nhìn vào các dịch vụ phát trực tuyến hiện nay, có một danh mục phim tài liệu khổng lồ, điều mà chúng ta sẽ không thấy cách đây năm hay mười năm trước. Chúng ta đang thấy một xu hướng chuyển đổi rõ rệt từ phim truyền hình hư cấu sang nội dung thực tế.” Xu hướng này đòi hỏi một cách tiếp cận khác đối với quản lý rủi ro. Ví dụ, các nhà làm phim tài liệu sẽ phải đối mặt với đủ loại vấn đề về quyền với những cá nhân xuất hiện trong tác phẩm của họ, bao gồm cả trong các cảnh lưu trữ. Theo cô Breese, bản thân chuyện này đã là một mỏ mìn tiềm ẩn. Sự phức tạp trong việc giải quyết tư liệu lưu trữ và việc sử dụng các biện pháp bảo vệ như sử dụng hợp lý và đối xử công bằng càng làm phức tạp quá trình sản xuất. Những thách thức này cho thấy sự cần thiết của các giải pháp bảo hiểm chuyên biệt phù hợp với bối cảnh phức tạp của sản xuất phim tài liệu và nội dung có thật. Breese khuyên các nhà môi giới làm việc với khách hàng trong lĩnh vực truyền thông và điện ảnh nên theo dõi các rủi ro đang phát triển và nhu cầu bảo hiểm và quản lý rủi ro đặc thù của khách hàng. “Mối quan hệ và cuộc trò chuyện càng cởi mở giữa tất cả các bên trong chuỗi bảo hiểm thì càng có lợi,” cô nói.

AI Tạo Ra Thách Thức Mới Cho Ngành Truyền Thông Và Giải Trí

Sự bùng nổ của trí tuệ nhân tạo tạo sinh (GenAI) mang đến nhiều cơ hội nhưng cũng đặt ra nhiều rủi ro chưa từng có cho ngành truyền thông, phim ảnh, truyền hình và giải trí.

Sự xuất hiện của công nghệ tạo nội dung tự động này khiến các chuyên gia bảo hiểm truyền thông phải đối mặt với một câu hỏi nan giải: liệu họ có bảo hiểm các yêu cầu bồi thường cho nội dung được tạo ra bằng AI tạo sinh hay không?

Ros Breese, Giám đốc bảo hiểm – truyền thông, điện ảnh và truyền hình tại Tokio Marine HCC International, cho biết AI tạo sinh đã tạo ra nhiều cuộc thảo luận sôi nổi trong ngành bảo hiểm truyền thông. Công nghệ này mang đến một loạt rủi ro mới khác biệt hoàn toàn với các phương pháp sáng tạo nội dung truyền thống.

Sự thận trọng với công nghệ AI không chỉ là thái độ của ngành bảo hiểm truyền thông, mà còn bao quát cả ngành truyền thông và giải trí, đặc biệt là khi đối mặt với các vụ kiện pháp lý nổi bật.

Chẳng hạn như vụ kiện của tờ New York Times chống lại OpenAI, chủ sở hữu ChatGPT về việc sử dụng tài liệu lưu trữ trong các công cụ AI tạo sinh. Tờ báo đã khẳng định bản quyền của họ bị vi phạm để huấn luyện các mô hình AI, và đòi bồi thường thiệt hại lên đến hàng tỷ USD.

Vụ kiện này cho thấy sự thiếu rõ ràng về pháp lý liên quan đến việc sử dụng AI tạo sinh trong việc tạo nội dung. Vấn đề lớn nhất là việc truy xuất quyền sở hữu nội dung gốc trong tài liệu AI tạo sinh. Hiện tại, chưa có khung pháp lý cụ thể nào về vấn đề này, khiến các công ty truyền thông và các nhà sản xuất phim phải thận trọng trong việc ứng dụng công nghệ mới này.

Khi AI tạo sinh trở nên phổ biến hơn, ngành bảo hiểm sẽ cần phải điều chỉnh cách tiếp cận của mình đối với các rủi ro mà nó gây ra.

Để giảm thiểu rủi ro, Breese khuyến nghị các công ty nên phát triển các giao thức để truy tìm nguồn gốc của nội dung và thiết lập mối liên hệ trách nhiệm hai chiều giữa khách hàng và các công cụ AI tạo sinh.

“Tôi nghĩ rằng chúng ta có thể sẽ xem xét nó giống với nội dung khác và hợp tác với các công ty bảo hiểm để giảm thiểu các yêu cầu bồi thường. Nếu chúng ta biết AI tạo sinh được sử dụng cho mục đích gì và những chủ sở hữu nội dung gốc, điều ấy sẽ tạo ra sự đảm bảo trong mối liên hệ giữa người sử dụng với công cụ AI tạo sinh,” cô cho biết. “Chúng ta đang trên tiến trình này.“

Tính minh bạch về mặt luật pháp và các vụ kiện quan trọng như vụ kiện của New York Times cũng đóng vai trò quan trọng trong việc định hình các chiến lược bảo hiểm trong tương lai.

Bên cạnh những thách thức về mặt công nghệ, chính bản thân bối cảnh tiêu thụ truyền thông cũng đang thay đổi, chịu ảnh hưởng nặng nề bởi đại dịch COVID-19. Hiện nay đang có xu hướng rõ rệt là chuyển từ nội dung sản xuất truyền thống sang các định dạng ngắn gọn, dễ tiêu hóa hơn như podcast.

Breese cho biết: “Chúng tôi đang thấy rất nhiều nội dung podcast hơn bao giờ hết, đặc biệt trong thể loại tội phạm có thật. Có một sự quan tâm lớn đến các bộ phim tài liệu sử dụng tư liệu lưu trữ, thay vì các bộ phim truyền hình bom tấn lớn.” Vị giám đốc nói thêm, “nếu bạn nhìn vào các dịch vụ phát trực tuyến hiện nay, có một danh mục phim tài liệu khổng lồ, điều mà chúng ta sẽ không thấy cách đây năm hay mười năm trước. Chúng ta đang thấy một xu hướng chuyển đổi rõ rệt từ phim truyền hình hư cấu sang nội dung thực tế.”

Xu hướng này đòi hỏi một cách tiếp cận khác đối với quản lý rủi ro. Ví dụ, các nhà làm phim tài liệu sẽ phải đối mặt với đủ loại vấn đề về quyền với những cá nhân xuất hiện trong tác phẩm của họ, bao gồm cả trong các cảnh lưu trữ. Theo cô Breese, bản thân chuyện này đã là một mỏ mìn tiềm ẩn.

Sự phức tạp trong việc giải quyết tư liệu lưu trữ và việc sử dụng các biện pháp bảo vệ như sử dụng hợp lý và đối xử công bằng càng làm phức tạp quá trình sản xuất. Những thách thức này cho thấy sự cần thiết của các giải pháp bảo hiểm chuyên biệt phù hợp với bối cảnh phức tạp của sản xuất phim tài liệu và nội dung có thật.

Breese khuyên các nhà môi giới làm việc với khách hàng trong lĩnh vực truyền thông và điện ảnh nên theo dõi các rủi ro đang phát triển và nhu cầu bảo hiểm và quản lý rủi ro đặc thù của khách hàng. “Mối quan hệ và cuộc trò chuyện càng cởi mở giữa tất cả các bên trong chuỗi bảo hiểm thì càng có lợi,” cô nói.
Tłumacz
Quan Chức Anh Cảnh Báo Chứng Nghiện Giao Dịch Tiền Mã Hoá Ở Giới TrẻGiám đốc điều hành Dịch vụ Y tế Quốc gia Vương quốc Anh (NHS), Amanda Pritchard, đã cảnh báo rằng ngày càng nhiều nam thanh niên trẻ tuổi cần phải điều trị sau khi nghiện giao dịch tiền mã hoá, và kêu gọi hành động chống lại “các trang web tiền mã hoá không được quản lý.” Bà Pritchard bày tỏ lo ngại sâu sắc về vấn đề này trong bài phát biểu tại hội nghị ConfedExpo của các nhà quản lý NHS ở Manchester vào ngày 12/6. Bà cho biết NHS đã phải mở thêm phòng khám chuyên khoa về nghiện cờ bạc thứ 15 trong năm nay để đáp ứng nhu cầu ngày càng tăng của xã hội. Theo bà Pritchard, các phương thức dụ dỗ người dùng tham gia giao dịch tiền mã hoá ngày càng tinh vi. Nhiều bạn trẻ dễ bị thu hút bởi những lời hứa hẹn về giàu có nhanh chóng từ thị trường tiền mã hoá, nhưng lại không lường trước được những rủi ro tiềm ẩn. Bà Pritchard chia sẻ, chính bản thân đã được nghe các nhân viên y tế tại phòng khám nghiện cờ bạc quốc gia nói về sự gia tăng số lượng người nghiện giao dịch tiền mã hoá. Đồng thời nhấn mạnh rằng các phòng khám chuyên khoa về cờ bạc của NHS đang phải “thu dọn mảnh vỡ” sau khi bệnh nhân nghiện kiếm tiền từ thị trường đầy biến động. “Ngày càng nhiều cơ hội nảy sinh đối với những người trẻ tuổi để trở nên nghiện cờ bạc – bao gồm cả thị trường tiền mã hoá không được quản lý”, bà nói. Amanda Pritchard trên sân khấu tại NHS ConfedExpo cảnh báo về chứng nghiện giao dịch tiền mã hoá. Nguồn: YouTube Bà Pritchard cũng nhắc đến việc chính phủ Anh đã ban hành luật để quản lý tiền mã hoá theo cùng quy định với các dịch vụ tài chính khác vào tháng 6 năm ngoái. Tuy nhiên, Bộ Tài chính lại bác bỏ đề xuất của các nhà lập pháp về việc quản lý giao dịch tiền mã hoá bán lẻ tương tự như cờ bạc vào tháng 7/2023. Thay vào đó, họ muốn quản lý nó như một dịch vụ tài chính. Theo bà Pritchard, việc quản lý thị trường tiền mã hoá là vô cùng cần thiết để bảo vệ người dùng, đặc biệt là giới trẻ khỏi những rủi ro tiềm ẩn của thị trường này. Bà kêu gọi các nhà lập pháp Anh cần hành động quyết liệt để kiểm soát tình hình và ngăn chặn nạn nghiện giao dịch Bitcoin ở giới trẻ. Theo BBC hồi đầu năm ngoái, một quốc gia Châu Âu khác là Thụy Sĩ cũng đã thành lập Trung tâm cai nghiện có tên “The Balance”, nhằm điều trị nhiều chứng nghiện khác nhau như rượu, ma túy & sức khỏe hành vi, và chứng nghiện giao dịch tiền mã hóa. Được biết một khách hàng của trung tâm đã liên hệ để điều trị chứng nghiện giao dịch tiền mã hoá sau khi rót khoảng 200.000 USD vào các giao dịch mỗi tuần. Ngoài The Balance, Bệnh viện Castle Craig tại Scotland cũng đã điều trị cho khoảng 100 người nghiện giao dịch tiền mã hóa có nồng độ adrenaline trong máu cao kể từ năm 2018. Ở châu Á, một trung tâm chăm sóc sức khỏe có tên Diamond Rehabilitation tại Thái Lan cũng đã bổ sung các dịch vụ dành riêng cho việc cai nghiện và điều trị chứng nghiện tiền mã hóa.

Quan Chức Anh Cảnh Báo Chứng Nghiện Giao Dịch Tiền Mã Hoá Ở Giới Trẻ

Giám đốc điều hành Dịch vụ Y tế Quốc gia Vương quốc Anh (NHS), Amanda Pritchard, đã cảnh báo rằng ngày càng nhiều nam thanh niên trẻ tuổi cần phải điều trị sau khi nghiện giao dịch tiền mã hoá, và kêu gọi hành động chống lại “các trang web tiền mã hoá không được quản lý.”

Bà Pritchard bày tỏ lo ngại sâu sắc về vấn đề này trong bài phát biểu tại hội nghị ConfedExpo của các nhà quản lý NHS ở Manchester vào ngày 12/6. Bà cho biết NHS đã phải mở thêm phòng khám chuyên khoa về nghiện cờ bạc thứ 15 trong năm nay để đáp ứng nhu cầu ngày càng tăng của xã hội.

Theo bà Pritchard, các phương thức dụ dỗ người dùng tham gia giao dịch tiền mã hoá ngày càng tinh vi. Nhiều bạn trẻ dễ bị thu hút bởi những lời hứa hẹn về giàu có nhanh chóng từ thị trường tiền mã hoá, nhưng lại không lường trước được những rủi ro tiềm ẩn.

Bà Pritchard chia sẻ, chính bản thân đã được nghe các nhân viên y tế tại phòng khám nghiện cờ bạc quốc gia nói về sự gia tăng số lượng người nghiện giao dịch tiền mã hoá. Đồng thời nhấn mạnh rằng các phòng khám chuyên khoa về cờ bạc của NHS đang phải “thu dọn mảnh vỡ” sau khi bệnh nhân nghiện kiếm tiền từ thị trường đầy biến động.

“Ngày càng nhiều cơ hội nảy sinh đối với những người trẻ tuổi để trở nên nghiện cờ bạc – bao gồm cả thị trường tiền mã hoá không được quản lý”, bà nói.

Amanda Pritchard trên sân khấu tại NHS ConfedExpo cảnh báo về chứng nghiện giao dịch tiền mã hoá. Nguồn: YouTube

Bà Pritchard cũng nhắc đến việc chính phủ Anh đã ban hành luật để quản lý tiền mã hoá theo cùng quy định với các dịch vụ tài chính khác vào tháng 6 năm ngoái. Tuy nhiên, Bộ Tài chính lại bác bỏ đề xuất của các nhà lập pháp về việc quản lý giao dịch tiền mã hoá bán lẻ tương tự như cờ bạc vào tháng 7/2023. Thay vào đó, họ muốn quản lý nó như một dịch vụ tài chính.

Theo bà Pritchard, việc quản lý thị trường tiền mã hoá là vô cùng cần thiết để bảo vệ người dùng, đặc biệt là giới trẻ khỏi những rủi ro tiềm ẩn của thị trường này. Bà kêu gọi các nhà lập pháp Anh cần hành động quyết liệt để kiểm soát tình hình và ngăn chặn nạn nghiện giao dịch Bitcoin ở giới trẻ.

Theo BBC hồi đầu năm ngoái, một quốc gia Châu Âu khác là Thụy Sĩ cũng đã thành lập Trung tâm cai nghiện có tên “The Balance”, nhằm điều trị nhiều chứng nghiện khác nhau như rượu, ma túy & sức khỏe hành vi, và chứng nghiện giao dịch tiền mã hóa. Được biết một khách hàng của trung tâm đã liên hệ để điều trị chứng nghiện giao dịch tiền mã hoá sau khi rót khoảng 200.000 USD vào các giao dịch mỗi tuần.

Ngoài The Balance, Bệnh viện Castle Craig tại Scotland cũng đã điều trị cho khoảng 100 người nghiện giao dịch tiền mã hóa có nồng độ adrenaline trong máu cao kể từ năm 2018.

Ở châu Á, một trung tâm chăm sóc sức khỏe có tên Diamond Rehabilitation tại Thái Lan cũng đã bổ sung các dịch vụ dành riêng cho việc cai nghiện và điều trị chứng nghiện tiền mã hóa.
Tłumacz
Terraform Labs Và Do Kwon Bị Phạt 4,5 Tỷ USDTòa án quận Nam New York đã đưa ra phán quyết cuối cùng trong vụ kiện đình đám của Ủy ban Chứng khoán và Giao dịch Mỹ (SEC) chống lại Terraform Labs và đồng sáng lập Do Kwon hôm 12/6. Theo đó, Terraform Labs và Do Kwon bị kết tội vi phạm nhiều quy định về chứng khoán và phải nộp tổng số tiền phạt gần 4,5 tỷ USD, bao gồm 3,6 tỷ USD bồi thường thiệt hại, 467 triệu USD tiền lãi trước khi xét xử và 420 triệu USD tiền phạt dân sự. Do Kwon cũng phải chịu trách nhiệm chung và riêng lẻ đối với 110 triệu USD bồi thường thiệt hại và 14,3 triệu USD tiền lãi trước khi xét xử. Ngoài ra, cựu CEO Terraform Labs phải chuyển giao nhiều tài sản, bao gồm cổ phần sở hữu trong token PYTH và các tài sản khác cho quỹ phá sản của Terraform. Những tài sản này sẽ được sử dụng để thanh toán các khoản phạt tiền và được phân phối cho các nhà đầu tư bị thiệt hại. Theo Coindesk, Do Kwon và Terraform Labs đã đồng ý với thỏa thuận dàn xếp nộp phạt từ ngày 6/6. Ngoài khoản phạt 4,5 tỷ USD, Do Kwon còn phải đối mặt với các biện pháp trừng phạt bổ sung. SEC có quyền thu hồi khoản phạt bằng mọi cách thức được phép, bao gồm cả việc kiện Do Kwon ra tòa nếu anh ta không tuân thủ lệnh chuyển giao tài sản trong vòng 30 ngày. Do Kwon cũng bị cấm vĩnh viễn giữ chức vụ giám đốc điều hành hoặc giám đốc của bất kỳ công ty phát hành nào có lớp chứng khoán đã đăng ký hoặc nghĩa vụ báo cáo. Phán quyết từ toà án quận Nam New York Phán quyết cũng cấm Terraform Labs và Do Kwon vi phạm các quy định chống gian lận, giao dịch chứng khoán chưa đăng ký, giao dịch chứng khoán tài sản số hoặc xúi giục người khác giao dịch chứng khoán tài sản số trong tương lai. Phán quyết cho phép Terraform Labs xử lý tài sản số trong quá trình phá sản với sự cho phép của tòa án. Tuy nhiên, công ty cũng phải tiêu hủy khóa ví và đốt token theo yêu cầu. Terraform Labs cũng có thể cho phép bên thứ ba rút tiền, bỏ staking và hủy bỏ vị thế trên nền tảng của mình. Vụ kiện của SEC nhằm vào Terraform Labs và Do Kwon bắt đầu từ tháng 2/2023, cáo buộc công ty đã lừa đảo các nhà đầu tư tiền mã hoá, bao gồm cả việc sử dụng stablecoin Terra USD (UST) đã sụp đổ. Phán quyết này đánh dấu một thắng lợi cho SEC, đồng thời gửi đi thông điệp rõ ràng về tầm quan trọng của việc tuân thủ các quy định đối với ngành công nghiệp tiền mã hoá.

Terraform Labs Và Do Kwon Bị Phạt 4,5 Tỷ USD

Tòa án quận Nam New York đã đưa ra phán quyết cuối cùng trong vụ kiện đình đám của Ủy ban Chứng khoán và Giao dịch Mỹ (SEC) chống lại Terraform Labs và đồng sáng lập Do Kwon hôm 12/6. Theo đó, Terraform Labs và Do Kwon bị kết tội vi phạm nhiều quy định về chứng khoán và phải nộp tổng số tiền phạt gần 4,5 tỷ USD, bao gồm 3,6 tỷ USD bồi thường thiệt hại, 467 triệu USD tiền lãi trước khi xét xử và 420 triệu USD tiền phạt dân sự.

Do Kwon cũng phải chịu trách nhiệm chung và riêng lẻ đối với 110 triệu USD bồi thường thiệt hại và 14,3 triệu USD tiền lãi trước khi xét xử. Ngoài ra, cựu CEO Terraform Labs phải chuyển giao nhiều tài sản, bao gồm cổ phần sở hữu trong token PYTH và các tài sản khác cho quỹ phá sản của Terraform. Những tài sản này sẽ được sử dụng để thanh toán các khoản phạt tiền và được phân phối cho các nhà đầu tư bị thiệt hại.

Theo Coindesk, Do Kwon và Terraform Labs đã đồng ý với thỏa thuận dàn xếp nộp phạt từ ngày 6/6.

Ngoài khoản phạt 4,5 tỷ USD, Do Kwon còn phải đối mặt với các biện pháp trừng phạt bổ sung. SEC có quyền thu hồi khoản phạt bằng mọi cách thức được phép, bao gồm cả việc kiện Do Kwon ra tòa nếu anh ta không tuân thủ lệnh chuyển giao tài sản trong vòng 30 ngày. Do Kwon cũng bị cấm vĩnh viễn giữ chức vụ giám đốc điều hành hoặc giám đốc của bất kỳ công ty phát hành nào có lớp chứng khoán đã đăng ký hoặc nghĩa vụ báo cáo.

Phán quyết từ toà án quận Nam New York

Phán quyết cũng cấm Terraform Labs và Do Kwon vi phạm các quy định chống gian lận, giao dịch chứng khoán chưa đăng ký, giao dịch chứng khoán tài sản số hoặc xúi giục người khác giao dịch chứng khoán tài sản số trong tương lai.

Phán quyết cho phép Terraform Labs xử lý tài sản số trong quá trình phá sản với sự cho phép của tòa án. Tuy nhiên, công ty cũng phải tiêu hủy khóa ví và đốt token theo yêu cầu. Terraform Labs cũng có thể cho phép bên thứ ba rút tiền, bỏ staking và hủy bỏ vị thế trên nền tảng của mình.

Vụ kiện của SEC nhằm vào Terraform Labs và Do Kwon bắt đầu từ tháng 2/2023, cáo buộc công ty đã lừa đảo các nhà đầu tư tiền mã hoá, bao gồm cả việc sử dụng stablecoin Terra USD (UST) đã sụp đổ. Phán quyết này đánh dấu một thắng lợi cho SEC, đồng thời gửi đi thông điệp rõ ràng về tầm quan trọng của việc tuân thủ các quy định đối với ngành công nghiệp tiền mã hoá.
Tłumacz
Quân Đội Mỹ Phát Triển Công Cụ AI Chuyên BiệtNgày 10/6, Lực lượng Không gian Mỹ (USSF) và Không quân Mỹ (USAF) đã công bố một công cụ AI tạo sinh mới với tên gọi NIPRGPT (Non-classified Internet Protocol Generative Pre-training Transformer). Công cụ này hứa hẹn sẽ cải thiện khả năng tiếp cận thông tin và đánh giá nhu cầu của lực lượng. NIPRGPT được thiết kế để hỗ trợ nhân viên thử nghiệm các công nghệ AI trong các nhiệm vụ hàng ngày. Những ứng dụng tiềm năng của công cụ này bao gồm tóm tắt báo cáo, hỗ trợ IT và lập trình, giúp giảm tải công việc thủ công và tăng cường hiệu quả hoạt động. Theo Alexis Bonnell, Giám đốc thông tin và Giám đốc năng lực số tại Phòng Thí nghiệm Nghiên cứu Không quân (AFRL), mục tiêu chính của NIPRGPT là làm cho dữ liệu trở nên dễ tiếp cận và tùy biến hơn trong các dịch vụ của lực lượng. Bonnell nhấn mạnh rằng việc xác định liệu AI tạo sinh có thể hỗ trợ các nhiệm vụ này hay không là một phần quan trọng của quá trình thử nghiệm. Ảnh minh hoạ Trước đó, Bộ Quốc phòng Mỹ đã và đang khám phá cách sử dụng các công cụ AI tạo sinh như ChatGPT để làm các công việc hàng ngày như tìm kiếm tài liệu và trả lời câu hỏi trở nên hiệu quả hơn. Năm 2023, Hải quân đã triển khai một chương trình AI đối thoại mang tên “Amelia” để giúp các thủy thủ giải quyết sự cố và cung cấp hỗ trợ kỹ thuật. Collen Roller, nhà khoa học máy tính cao cấp tại AFRL, cho biết nhóm của ông đã nỗ lực nghiên cứu cách USSF và USAF có thể sử dụng công nghệ này cho các nhiệm vụ hành chính và cả trong các hoạt động chiến thuật. “Lĩnh vực này thay đổi rất nhanh, chúng tôi phải có khả năng thích nghi với những điều mới xuất hiện,” ông nói. “Trên quan điểm nghiên cứu và phát triển, điều này rất trọng yếu nếu chúng tôi có thể đánh giá những công nghệ mới và vạch ra phương hướng áp dụng cụ thể.” AFRL phát triển NIPRGPT bằng cách sử dụng các mô hình AU có sẵn công khai, và Bonnell cho biết dịch vụ này chưa cam kết với một phương pháp hay nhà cung cấp cụ thể nào khi xây dựng trên cơ sở đó. Khi các quân nhân bắt đầu sử dụng hệ thống, AFRL sẽ hợp tác với các đối tác thương mại để kiểm tra và tích hợp các công cụ của họ, xác định xem chúng có hữu ích cho các dịch vụ hay không. “Chúng tôi hy vọng rằng không chỉ khơi dậy sự tò mò và thử nghiệm từ người dùng, mà còn cung cấp cách để kiểm tra các mô hình của các nhà cung cấp,” bà nói.“Chúng tôi kỳ vọng rằng một số mô hình sẽ xuất sắc ở một số trường hợp sử dụng và không tốt ở những trường hợp khác.” Công cụ NIPRGPT không chỉ giúp các công ty thử nghiệm các công cụ và mô hình khác nhau mà còn giúp hai cơ quan USSF, USAF xác định cách tiếp cận tốt nhất để mua các năng lực này. Bonnell nhấn mạnh rằng chiến lược đúng sẽ phụ thuộc vào cách các dịch vụ sử dụng NIPRGPT và liệu có đủ nhu cầu hay không. “Công cụ này giúp chúng tôi điều mong muốn đạt được cuối cùng là gì. Và nếu xuất hiện các công cụ thương mại xuất hiện và vượt qua quy trình hoặc hệ thống an ninh vốn có, chúng tôi sẽ mua chúng với mức giá hợp lý.” Bonnell chia sẻ.

Quân Đội Mỹ Phát Triển Công Cụ AI Chuyên Biệt

Ngày 10/6, Lực lượng Không gian Mỹ (USSF) và Không quân Mỹ (USAF) đã công bố một công cụ AI tạo sinh mới với tên gọi NIPRGPT (Non-classified Internet Protocol Generative Pre-training Transformer). Công cụ này hứa hẹn sẽ cải thiện khả năng tiếp cận thông tin và đánh giá nhu cầu của lực lượng.

NIPRGPT được thiết kế để hỗ trợ nhân viên thử nghiệm các công nghệ AI trong các nhiệm vụ hàng ngày. Những ứng dụng tiềm năng của công cụ này bao gồm tóm tắt báo cáo, hỗ trợ IT và lập trình, giúp giảm tải công việc thủ công và tăng cường hiệu quả hoạt động.

Theo Alexis Bonnell, Giám đốc thông tin và Giám đốc năng lực số tại Phòng Thí nghiệm Nghiên cứu Không quân (AFRL), mục tiêu chính của NIPRGPT là làm cho dữ liệu trở nên dễ tiếp cận và tùy biến hơn trong các dịch vụ của lực lượng. Bonnell nhấn mạnh rằng việc xác định liệu AI tạo sinh có thể hỗ trợ các nhiệm vụ này hay không là một phần quan trọng của quá trình thử nghiệm.

Ảnh minh hoạ

Trước đó, Bộ Quốc phòng Mỹ đã và đang khám phá cách sử dụng các công cụ AI tạo sinh như ChatGPT để làm các công việc hàng ngày như tìm kiếm tài liệu và trả lời câu hỏi trở nên hiệu quả hơn. Năm 2023, Hải quân đã triển khai một chương trình AI đối thoại mang tên “Amelia” để giúp các thủy thủ giải quyết sự cố và cung cấp hỗ trợ kỹ thuật.

Collen Roller, nhà khoa học máy tính cao cấp tại AFRL, cho biết nhóm của ông đã nỗ lực nghiên cứu cách USSF và USAF có thể sử dụng công nghệ này cho các nhiệm vụ hành chính và cả trong các hoạt động chiến thuật. “Lĩnh vực này thay đổi rất nhanh, chúng tôi phải có khả năng thích nghi với những điều mới xuất hiện,” ông nói. “Trên quan điểm nghiên cứu và phát triển, điều này rất trọng yếu nếu chúng tôi có thể đánh giá những công nghệ mới và vạch ra phương hướng áp dụng cụ thể.”

AFRL phát triển NIPRGPT bằng cách sử dụng các mô hình AU có sẵn công khai, và Bonnell cho biết dịch vụ này chưa cam kết với một phương pháp hay nhà cung cấp cụ thể nào khi xây dựng trên cơ sở đó. Khi các quân nhân bắt đầu sử dụng hệ thống, AFRL sẽ hợp tác với các đối tác thương mại để kiểm tra và tích hợp các công cụ của họ, xác định xem chúng có hữu ích cho các dịch vụ hay không.

“Chúng tôi hy vọng rằng không chỉ khơi dậy sự tò mò và thử nghiệm từ người dùng, mà còn cung cấp cách để kiểm tra các mô hình của các nhà cung cấp,” bà nói.“Chúng tôi kỳ vọng rằng một số mô hình sẽ xuất sắc ở một số trường hợp sử dụng và không tốt ở những trường hợp khác.”

Công cụ NIPRGPT không chỉ giúp các công ty thử nghiệm các công cụ và mô hình khác nhau mà còn giúp hai cơ quan USSF, USAF xác định cách tiếp cận tốt nhất để mua các năng lực này. Bonnell nhấn mạnh rằng chiến lược đúng sẽ phụ thuộc vào cách các dịch vụ sử dụng NIPRGPT và liệu có đủ nhu cầu hay không.

“Công cụ này giúp chúng tôi điều mong muốn đạt được cuối cùng là gì. Và nếu xuất hiện các công cụ thương mại xuất hiện và vượt qua quy trình hoặc hệ thống an ninh vốn có, chúng tôi sẽ mua chúng với mức giá hợp lý.” Bonnell chia sẻ.
Tłumacz
Elon Musk Dọa Cấm Apple Nếu Tích Hợp ChatGPTElon Musk đã gây xôn xao khi đe dọa cấm sẽ cấm các thiết bị Apple khỏi các công ty của mình nếu tính năng ChatGPT được tích hợp vào iOS 18 như Apple công bố. Tại buổi giới thiệu tại WWDC 2024, Apple đã công bố tích hợp mới cho phép người dùng truy cập ChatGPT toàn hệ thống thông qua công cụ soạn thảo. Người dùng có thể yêu cầu ChatGPT viết truyện cho trẻ em hoặc tạo hình ảnh để bổ sung cho bài viết. Những tính năng này cho phép người dùng truy cập ChatGPT miễn phí mà không cần tạo tài khoản. Điều này dự báo sẽ mang lại lượng lớn yêu cầu từ người dùng Apple cho OpenAI. Phó Chủ tịch cấp cao phụ trách Kỹ thuật Phần mềm của Apple, Craig Federighi đã nhấn mạnh, “người dùng hoàn toàn kiểm soát việc sử dụng ChatGPT và sẽ được hỏi ý kiến trước khi bất kỳ thông tin nào của bạn được chia sẻ”. Các tính năng này chỉ có trên các mẫu iPhone Pro 15 và thiết bị sử dụng chip M1 hoặc mới hơn. Tuy nhiên, tỷ phú Elon Musk đã công khai chỉ trích sự hợp tác này. Trên X, ông cho rằng Apple đang đẩy người dùng vào nguy cơ bị xâm phạm quyền riêng tư khi “tuồn” dữ liệu cho OpenAI. “Thật vô lý khi Apple không đủ thông minh để tự tạo ra AI của riêng mình, nhưng lại có thể đảm bảo OpenAI sẽ bảo vệ sự an toàn và quyền riêng tư của bạn!”, Musk đồng thời dọa sẽ cấm thiết bị Apple tại các công ty của mình nếu Tim Cook không chấm dứt hành động gián điệp đáng sợ này. Mặc dù Apple khẳng định người dùng có toàn quyền kiểm soát việc sử dụng ChatGPT và thông tin cá nhân, nhưng Musk cho rằng người dùng không đủ hiểu biết về vấn đề quyền riêng tư. Ông tin rằng nếu người dùng có thể tự do lựa chọn AI bot thay thế, như Claude của Anthropic hay Grok của xAI (công ty AI do Musk sáng lập), thì Apple sẽ không dám hành động như vậy. Thực tế, Apple cũng đã ám chỉ rằng Google Gemini có thể được tích hợp vào trong tương lai. Cả Apple và OpenAI đều đính chính rằng dữ liệu người dùng sẽ chỉ được chia sẻ khi có sự đồng ý rõ ràng và các tương tác này được thiết kế để an toàn. OpenAI lưu ý trong một bài đăng blog mới rằng “các yêu cầu không được lưu trữ bởi OpenAI và địa chỉ IP của người dùng sẽ bị ẩn.” Người dùng cũng có thể chọn kết nối tài khoản ChatGPT của họ để truy cập các tính năng trả phí, nhưng đây là tính năng tùy chọn. Hình ảnh, văn bản hoặc truy vấn tìm kiếm được gửi đến ChatGPT được gửi mà không có định danh và sẽ bị xóa sau khi kết quả được tạo ra và gửi đến người dùng. Ngay cả khi Apple và ChatGPT nói dối và âm mưu thu thập dữ liệu người dùng, dữ liệu họ nhận được chỉ là những gì người dùng chủ động chọn gửi đi. Cần làm rõ là không có lý do nào để lo sợ việc ChatGPT có thể được truy cập bởi Siri hoặc Công cụ Writing Tools. Điều này không khác biệt đáng kể so với việc cài đặt ứng dụng ChatGPT trên iPhone. Tuy nhiên tình hình hiện tại cũng đặt ra nhiều câu hỏi về quyền riêng tư và an ninh khi các công ty công nghệ lớn tiếp tục tích hợp các công nghệ AI mới vào sản phẩm của họ.

Elon Musk Dọa Cấm Apple Nếu Tích Hợp ChatGPT

Elon Musk đã gây xôn xao khi đe dọa cấm sẽ cấm các thiết bị Apple khỏi các công ty của mình nếu tính năng ChatGPT được tích hợp vào iOS 18 như Apple công bố.

Tại buổi giới thiệu tại WWDC 2024, Apple đã công bố tích hợp mới cho phép người dùng truy cập ChatGPT toàn hệ thống thông qua công cụ soạn thảo. Người dùng có thể yêu cầu ChatGPT viết truyện cho trẻ em hoặc tạo hình ảnh để bổ sung cho bài viết. Những tính năng này cho phép người dùng truy cập ChatGPT miễn phí mà không cần tạo tài khoản. Điều này dự báo sẽ mang lại lượng lớn yêu cầu từ người dùng Apple cho OpenAI.

Phó Chủ tịch cấp cao phụ trách Kỹ thuật Phần mềm của Apple, Craig Federighi đã nhấn mạnh, “người dùng hoàn toàn kiểm soát việc sử dụng ChatGPT và sẽ được hỏi ý kiến trước khi bất kỳ thông tin nào của bạn được chia sẻ”. Các tính năng này chỉ có trên các mẫu iPhone Pro 15 và thiết bị sử dụng chip M1 hoặc mới hơn.

Tuy nhiên, tỷ phú Elon Musk đã công khai chỉ trích sự hợp tác này. Trên X, ông cho rằng Apple đang đẩy người dùng vào nguy cơ bị xâm phạm quyền riêng tư khi “tuồn” dữ liệu cho OpenAI.

“Thật vô lý khi Apple không đủ thông minh để tự tạo ra AI của riêng mình, nhưng lại có thể đảm bảo OpenAI sẽ bảo vệ sự an toàn và quyền riêng tư của bạn!”, Musk đồng thời dọa sẽ cấm thiết bị Apple tại các công ty của mình nếu Tim Cook không chấm dứt hành động gián điệp đáng sợ này.

Mặc dù Apple khẳng định người dùng có toàn quyền kiểm soát việc sử dụng ChatGPT và thông tin cá nhân, nhưng Musk cho rằng người dùng không đủ hiểu biết về vấn đề quyền riêng tư. Ông tin rằng nếu người dùng có thể tự do lựa chọn AI bot thay thế, như Claude của Anthropic hay Grok của xAI (công ty AI do Musk sáng lập), thì Apple sẽ không dám hành động như vậy.

Thực tế, Apple cũng đã ám chỉ rằng Google Gemini có thể được tích hợp vào trong tương lai.

Cả Apple và OpenAI đều đính chính rằng dữ liệu người dùng sẽ chỉ được chia sẻ khi có sự đồng ý rõ ràng và các tương tác này được thiết kế để an toàn. OpenAI lưu ý trong một bài đăng blog mới rằng “các yêu cầu không được lưu trữ bởi OpenAI và địa chỉ IP của người dùng sẽ bị ẩn.” Người dùng cũng có thể chọn kết nối tài khoản ChatGPT của họ để truy cập các tính năng trả phí, nhưng đây là tính năng tùy chọn.

Hình ảnh, văn bản hoặc truy vấn tìm kiếm được gửi đến ChatGPT được gửi mà không có định danh và sẽ bị xóa sau khi kết quả được tạo ra và gửi đến người dùng. Ngay cả khi Apple và ChatGPT nói dối và âm mưu thu thập dữ liệu người dùng, dữ liệu họ nhận được chỉ là những gì người dùng chủ động chọn gửi đi.

Cần làm rõ là không có lý do nào để lo sợ việc ChatGPT có thể được truy cập bởi Siri hoặc Công cụ Writing Tools. Điều này không khác biệt đáng kể so với việc cài đặt ứng dụng ChatGPT trên iPhone. Tuy nhiên tình hình hiện tại cũng đặt ra nhiều câu hỏi về quyền riêng tư và an ninh khi các công ty công nghệ lớn tiếp tục tích hợp các công nghệ AI mới vào sản phẩm của họ.
Tłumacz
AI Là Chìa Khóa Để Đạt Được AGI Trong Tương LaiTrong bối cảnh trí tuệ nhân tạo (AI) phát triển vũ bão, nghiên cứu của Google DeepMind đề xuất những yếu tố quan trọng để đạt được siêu trí tuệ nhân tạo (ASI). Những năm gần đây, các mô hình nền tảng đã đạt được tiến bộ vượt bậc và được sử dụng rộng rãi trong nhiều ứng dụng. Tuy nhiên, việc tạo ra các hệ thống trí tuệ nhân tạo (AI) mở đầu, có khả năng tự cải thiện và liên tục tạo ra thông tin mới, vẫn còn là thách thức lớn. Bài báo cáo của Edward Hughes và các đồng tác giả chỉ ra tính chất mở (open-ended) có tác động thế nào tới việc phát triển lên ASI, và làm sao đạt được tính chất ấy trong các hệ thống AI hiện nay. Định nghĩa chính thức về tính chất mở được đưa ra dựa trên hai khía cạnh chính là sự mới mẻ và khả năng học hỏi. Một hệ thống được coi là có tính chất mở nếu nó liên tục tạo ra các dữ liệu mới mẻ có giá trị học hỏi nhằm cải thiện hiểu biết và kỹ năng của đối tượng quan sát. Bài báo cung cấp nhiều ví dụ cụ thể về các hệ thống AI hiện tại để minh họa cho khái niệm này. AlphaGo là một ví dụ điển hình về hệ thống có tính chất mở trong phạm vi hẹp. AlphaGo đã vượt qua trình độ của các người chơi cờ vây hàng đầu thế giới bằng cách phát triển những chiến lược mới mẻ, khó đoán trước. Tuy nhiên, tính chất mở của AlphaGo chỉ giới hạn trong phạm vi trò chơi cờ vây. Một ví dụ khác là hệ thống AdA, một tác nhân học tập trong môi trường 3D XLand2 với 25 tỷ biến thể nhiệm vụ. AdA có khả năng tích lũy các kỹ năng phức tạp và đa dạng, nhưng tính mới mẻ của nó có xu hướng giảm dần sau một thời gian đào tạo. Điều này cho thấy rằng để duy trì tính chất mở, cần có một môi trường phong phú hơn và tác nhân mạnh mẽ hơn. Bài báo cũng thảo luận về các hệ thống tiến hóa như POET (Paired open-ended trailblazer), nơi các tác nhân và môi trường cùng tiến hóa. POET minh họa hiện tượng “stepping stone” (bước đệm), nơi các tác nhân có thể giải quyết các môi trường rất thách thức thông qua sự tiến hóa dần dần. Tuy nhiên, các hệ thống này cũng gặp giới hạn khi môi trường không đủ phức tạp để duy trì tính chất mở. Ngoài ra, bài báo còn nêu rõ rằng các mô hình nền tảng hiện tại không đáp ứng đủ tiêu chí của tính chất mở khi chỉ được huấn luyện trên các tập dữ liệu cố định. Các mô hình này có thể cho thấy tính chất mở trong các lĩnh vực rộng lớn, nhưng khi thu hẹp phạm vi, chúng lộ rõ các hạn chế về khả năng tạo ra các giải pháp mới và chính xác. Các tác giả đề xuất bốn hướng nghiên cứu chính để kết hợp tính chất mở với các mô hình nền tảng: học tăng cường (RL), tự cải thiện, tạo nhiệm vụ và các thuật toán tiến hóa. Học tăng cường đã đạt được nhiều thành công trong các lĩnh vực hẹp, và các mô hình như Voyager đã cho thấy tiềm năng tự cải thiện bằng cách xây dựng một thư viện kỹ năng từ các nhiệm vụ liên tục được cải tiến. Các thuật toán tiến hóa cũng cung cấp một con đường hứa hẹn để tạo ra các hệ thống mở, với khả năng thực hiện các đột biến có ý nghĩa thông qua văn bản. Một phần quan trọng của bài báo là thảo luận về các vấn đề an toàn và trách nhiệm khi phát triển các hệ thống mở. Tính chất mở mang lại nhiều rủi ro an toàn, bao gồm sự hiểu sai mục tiêu và lạm dụng thông số kỹ thuật. Việc đảm bảo rằng các hệ thống mở có thể được lý giải và điều khiển trong tay con người là rất quan trọng. Điều này đòi hỏi các hệ thống phải có khả năng giải thích và tương tác với con người một cách rõ ràng và dễ hiểu. Trong báo cáo, các tác giả khẳng định rằng các mô hình nền tảng hiện tại đã đạt được nhiều tiến bộ đáng kể, nhưng để tiến tới ASI, cần phải phát triển các hệ thống có tính chất mở. Những hệ thống này có thể mang lại nhiều lợi ích to lớn cho xã hội, bao gồm việc đẩy nhanh các đột phá khoa học và công nghệ, nâng cao sáng tạo của con người và mở rộng kiến thức tổng quát trên nhiều lĩnh vực. Bài báo của Google DeepMind đã mở ra một hướng đi mới trong nghiên cứu AI, nhấn mạnh tầm quan trọng của tính chất mở trong việc đạt được trí tuệ siêu phàm nhân tạo. Việc phát triển các hệ thống này một cách có trách nhiệm sẽ giúp đảm bảo rằng chúng mang lại lợi ích tối đa cho xã hội, đồng thời giảm thiểu các rủi ro tiềm tàng.

AI Là Chìa Khóa Để Đạt Được AGI Trong Tương Lai

Trong bối cảnh trí tuệ nhân tạo (AI) phát triển vũ bão, nghiên cứu của Google DeepMind đề xuất những yếu tố quan trọng để đạt được siêu trí tuệ nhân tạo (ASI).

Những năm gần đây, các mô hình nền tảng đã đạt được tiến bộ vượt bậc và được sử dụng rộng rãi trong nhiều ứng dụng. Tuy nhiên, việc tạo ra các hệ thống trí tuệ nhân tạo (AI) mở đầu, có khả năng tự cải thiện và liên tục tạo ra thông tin mới, vẫn còn là thách thức lớn. Bài báo cáo của Edward Hughes và các đồng tác giả chỉ ra tính chất mở (open-ended) có tác động thế nào tới việc phát triển lên ASI, và làm sao đạt được tính chất ấy trong các hệ thống AI hiện nay.

Định nghĩa chính thức về tính chất mở được đưa ra dựa trên hai khía cạnh chính là sự mới mẻ và khả năng học hỏi. Một hệ thống được coi là có tính chất mở nếu nó liên tục tạo ra các dữ liệu mới mẻ có giá trị học hỏi nhằm cải thiện hiểu biết và kỹ năng của đối tượng quan sát.

Bài báo cung cấp nhiều ví dụ cụ thể về các hệ thống AI hiện tại để minh họa cho khái niệm này. AlphaGo là một ví dụ điển hình về hệ thống có tính chất mở trong phạm vi hẹp. AlphaGo đã vượt qua trình độ của các người chơi cờ vây hàng đầu thế giới bằng cách phát triển những chiến lược mới mẻ, khó đoán trước. Tuy nhiên, tính chất mở của AlphaGo chỉ giới hạn trong phạm vi trò chơi cờ vây.

Một ví dụ khác là hệ thống AdA, một tác nhân học tập trong môi trường 3D XLand2 với 25 tỷ biến thể nhiệm vụ. AdA có khả năng tích lũy các kỹ năng phức tạp và đa dạng, nhưng tính mới mẻ của nó có xu hướng giảm dần sau một thời gian đào tạo. Điều này cho thấy rằng để duy trì tính chất mở, cần có một môi trường phong phú hơn và tác nhân mạnh mẽ hơn.

Bài báo cũng thảo luận về các hệ thống tiến hóa như POET (Paired open-ended trailblazer), nơi các tác nhân và môi trường cùng tiến hóa. POET minh họa hiện tượng “stepping stone” (bước đệm), nơi các tác nhân có thể giải quyết các môi trường rất thách thức thông qua sự tiến hóa dần dần. Tuy nhiên, các hệ thống này cũng gặp giới hạn khi môi trường không đủ phức tạp để duy trì tính chất mở.

Ngoài ra, bài báo còn nêu rõ rằng các mô hình nền tảng hiện tại không đáp ứng đủ tiêu chí của tính chất mở khi chỉ được huấn luyện trên các tập dữ liệu cố định. Các mô hình này có thể cho thấy tính chất mở trong các lĩnh vực rộng lớn, nhưng khi thu hẹp phạm vi, chúng lộ rõ các hạn chế về khả năng tạo ra các giải pháp mới và chính xác.

Các tác giả đề xuất bốn hướng nghiên cứu chính để kết hợp tính chất mở với các mô hình nền tảng: học tăng cường (RL), tự cải thiện, tạo nhiệm vụ và các thuật toán tiến hóa. Học tăng cường đã đạt được nhiều thành công trong các lĩnh vực hẹp, và các mô hình như Voyager đã cho thấy tiềm năng tự cải thiện bằng cách xây dựng một thư viện kỹ năng từ các nhiệm vụ liên tục được cải tiến. Các thuật toán tiến hóa cũng cung cấp một con đường hứa hẹn để tạo ra các hệ thống mở, với khả năng thực hiện các đột biến có ý nghĩa thông qua văn bản.

Một phần quan trọng của bài báo là thảo luận về các vấn đề an toàn và trách nhiệm khi phát triển các hệ thống mở. Tính chất mở mang lại nhiều rủi ro an toàn, bao gồm sự hiểu sai mục tiêu và lạm dụng thông số kỹ thuật. Việc đảm bảo rằng các hệ thống mở có thể được lý giải và điều khiển trong tay con người là rất quan trọng. Điều này đòi hỏi các hệ thống phải có khả năng giải thích và tương tác với con người một cách rõ ràng và dễ hiểu.

Trong báo cáo, các tác giả khẳng định rằng các mô hình nền tảng hiện tại đã đạt được nhiều tiến bộ đáng kể, nhưng để tiến tới ASI, cần phải phát triển các hệ thống có tính chất mở. Những hệ thống này có thể mang lại nhiều lợi ích to lớn cho xã hội, bao gồm việc đẩy nhanh các đột phá khoa học và công nghệ, nâng cao sáng tạo của con người và mở rộng kiến thức tổng quát trên nhiều lĩnh vực.

Bài báo của Google DeepMind đã mở ra một hướng đi mới trong nghiên cứu AI, nhấn mạnh tầm quan trọng của tính chất mở trong việc đạt được trí tuệ siêu phàm nhân tạo. Việc phát triển các hệ thống này một cách có trách nhiệm sẽ giúp đảm bảo rằng chúng mang lại lợi ích tối đa cho xã hội, đồng thời giảm thiểu các rủi ro tiềm tàng.
Tłumacz
ChatGPT: Cuộc Cách Mạng Của Trí Tuệ Nhân TạoĐược phát triển bởi OpenAI, ChatGPT đã trở thành một hiện tượng toàn cầu với khả năng xử lý ngôn ngữ tự nhiên ấn tượng. Từ GPT-1 với 117 triệu tham số đến GPT-4o với hơn 1 nghìn tỷ tham số, ChatGPT đã trải qua hành trình phát triển mạnh mẽ, tạo ra những bước đột phá trong nhiều lĩnh vực. Lịch sử phát triển: từ bước khởi đầu đến đột phá vĩ đại Ý tưởng về máy móc có thể suy nghĩ như con người đã xuất hiện từ những năm 1950. Tuy nhiên, phải đến những năm gần đây, với sự bùng nổ của công nghệ và dữ liệu lớn, trí tuệ nhân tạo (AI) mới thực sự phát triển mạnh mẽ. Năm 2018, OpenAI giới thiệu GPT-1, phiên bản đầu tiên của Generative Pre-trained Transformer. Với 117 triệu tham số, GPT-1 đã đạt được một bước đột phá trong lĩnh vực xử lý ngôn ngữ tự nhiên (NLP). Nó có khả năng học từ một lượng dữ liệu văn bản khổng lồ, tạo ra văn bản tự nhiên và mạch lạc. Đến năm 2019, OpenAI tiếp tục cho ra mắt GPT-2 với 1,5 tỷ tham số, gấp nhiều lần so với GPT-1. GPT-2 sở hữu khả năng xử lý dữ liệu và tạo văn bản phức tạp hơn, thể hiện sức mạnh vượt trội. OpenAI đã thận trọng trong việc công bố mã nguồn của GPT-2 do lo ngại về việc công nghệ này có thể bị lạm dụng. Một năm sau, OpenAI đã giới thiệu GPT-3, một bước tiến ngoạn mục với 175 tỷ tham số. GPT-3 trở thành một trong những mô hình AI lớn nhất và mạnh nhất từng được phát triển. Nó có khả năng tạo ra các văn bản vô cùng tự nhiên và thuyết phục, từ việc viết tiểu luận, trả lời câu hỏi đến sáng tác thơ, mở ra tiềm năng ứng dụng rộng lớn. Năm 2023, GPT-4 ra đời với 1 nghìn tỷ tham số, đánh dấu một sự đột phá mới. GPT-4 không chỉ mạnh mẽ hơn mà còn có khả năng hiểu biết ngữ cảnh tốt hơn, giảm thiểu sai sót và cung cấp câu trả lời chính xác hơn. GPT-4 còn tích hợp nhiều ngôn ngữ và kiến thức chuyên sâu, nâng cao trải nghiệm người dùng.  Ngày 13 tháng 5 năm 2024, OpenAI giới thiệu GPT-4o, một phiên bản đặc biệt được tối ưu hóa để tương tác với con người một cách tự nhiên nhất. GPT-4o có hơn 1 nghìn tỷ tham số, mạnh mẽ hơn các phiên bản trước đó. GPT-4o được tích hợp vào nhiều ứng dụng thực tế như chatbot, trợ lý ảo và hệ thống tư vấn. Với khả năng học sâu và hiểu biết ngữ cảnh tinh vi, GPT-4o đã trở thành một công cụ không thể thiếu trong nhiều lĩnh vực. Tương lai hứa hẹn: ChatGPT và sự tiến bộ không ngừng Công nghệ nền tảng của ChatGPT là Transformer, một mô hình học sâu (deep learning) chuyên xử lý ngôn ngữ tự nhiên. Transformer được giới thiệu lần đầu vào năm 2017 bởi Google Brain và đã trở thành công nghệ cốt lõi cho nhiều mô hình AI hiện đại. Transformer cho phép mô hình học hỏi từ dữ liệu văn bản hiệu quả và tạo ra văn bản mới một cách tự nhiên và mạch lạc.  Tính đến năm 2024, giá trị thị trường của OpenAI, công ty phát triển ChatGPT, được ước tính lên tới hàng chục tỷ đô la. ChatGPT nhanh chóng trở nên phổ biến nhờ khả năng xử lý ngôn ngữ tự nhiên mạnh mẽ và ứng dụng rộng rãi trong nhiều lĩnh vực. Việc hợp tác với các công ty lớn như Microsoft để tích hợp ChatGPT vào các sản phẩm như Microsoft Office và Azure đã góp phần đáng kể vào sự phổ biến này. OpenAI cung cấp ChatGPT dưới hai hình thức: miễn phí và trả phí (premium). Người dùng miễn phí được truy cập vào các tính năng cơ bản của ChatGPT, có thể sử dụng cho các tác vụ đơn giản như trả lời câu hỏi, viết nội dung cơ bản và trợ giúp với các tác vụ hàng ngày. Người dùng trả phí (ChatGPT Plus) với giá $20/tháng nhận được những lợi ích bổ sung như: truy cập nhanh hơn, ưu tiên khi sử dụng trong các giờ cao điểm, truy cập vào các tính năng và cập nhật mới nhất. Ngoài xử lý ngôn ngữ tự nhiên, OpenAI cũng đã phát triển các mô hình AI có khả năng tạo hình ảnh từ văn bản, như DALL-E. Khả năng này cho phép người dùng tạo ra các hình ảnh sáng tạo và phức tạp dựa trên mô tả bằng văn bản, mở ra nhiều ứng dụng trong thiết kế, quảng cáo và nghệ thuật.  Từ việc hỗ trợ khách hàng, dạy học đến sáng tác nội dung, ChatGPT đã chứng tỏ khả năng ứng dụng rộng rãi và tiềm năng trong nhiều lĩnh vực.  Sự phát triển của ChatGPT không dừng lại ở đây. OpenAI và các công ty khác đang tiếp tục nghiên cứu và phát triển các phiên bản nâng cấp với khả năng và độ chính xác cao hơn. Các ứng dụng mới của ChatGPT sẽ tiếp tục được khám phá, từ chăm sóc sức khỏe, tư vấn pháp lý đến hỗ trợ công việc hàng ngày. ChatGPT là một trong những thành tựu nổi bật của trí tuệ nhân tạo trong thập kỷ qua. Với sự tiến bộ không ngừng của công nghệ, ChatGPT sẽ tiếp tục phát triển và mang lại nhiều lợi ích hơn nữa cho xã hội. Tuy nhiên, cần có những biện pháp quản lý và đạo đức rõ ràng để đảm bảo rằng công nghệ này được sử dụng đúng mục đích và mang lại lợi ích tốt nhất cho con người.

ChatGPT: Cuộc Cách Mạng Của Trí Tuệ Nhân Tạo

Được phát triển bởi OpenAI, ChatGPT đã trở thành một hiện tượng toàn cầu với khả năng xử lý ngôn ngữ tự nhiên ấn tượng. Từ GPT-1 với 117 triệu tham số đến GPT-4o với hơn 1 nghìn tỷ tham số, ChatGPT đã trải qua hành trình phát triển mạnh mẽ, tạo ra những bước đột phá trong nhiều lĩnh vực.

Lịch sử phát triển: từ bước khởi đầu đến đột phá vĩ đại

Ý tưởng về máy móc có thể suy nghĩ như con người đã xuất hiện từ những năm 1950. Tuy nhiên, phải đến những năm gần đây, với sự bùng nổ của công nghệ và dữ liệu lớn, trí tuệ nhân tạo (AI) mới thực sự phát triển mạnh mẽ.

Năm 2018, OpenAI giới thiệu GPT-1, phiên bản đầu tiên của Generative Pre-trained Transformer. Với 117 triệu tham số, GPT-1 đã đạt được một bước đột phá trong lĩnh vực xử lý ngôn ngữ tự nhiên (NLP). Nó có khả năng học từ một lượng dữ liệu văn bản khổng lồ, tạo ra văn bản tự nhiên và mạch lạc.

Đến năm 2019, OpenAI tiếp tục cho ra mắt GPT-2 với 1,5 tỷ tham số, gấp nhiều lần so với GPT-1. GPT-2 sở hữu khả năng xử lý dữ liệu và tạo văn bản phức tạp hơn, thể hiện sức mạnh vượt trội. OpenAI đã thận trọng trong việc công bố mã nguồn của GPT-2 do lo ngại về việc công nghệ này có thể bị lạm dụng.

Một năm sau, OpenAI đã giới thiệu GPT-3, một bước tiến ngoạn mục với 175 tỷ tham số. GPT-3 trở thành một trong những mô hình AI lớn nhất và mạnh nhất từng được phát triển. Nó có khả năng tạo ra các văn bản vô cùng tự nhiên và thuyết phục, từ việc viết tiểu luận, trả lời câu hỏi đến sáng tác thơ, mở ra tiềm năng ứng dụng rộng lớn.

Năm 2023, GPT-4 ra đời với 1 nghìn tỷ tham số, đánh dấu một sự đột phá mới. GPT-4 không chỉ mạnh mẽ hơn mà còn có khả năng hiểu biết ngữ cảnh tốt hơn, giảm thiểu sai sót và cung cấp câu trả lời chính xác hơn. GPT-4 còn tích hợp nhiều ngôn ngữ và kiến thức chuyên sâu, nâng cao trải nghiệm người dùng. 

Ngày 13 tháng 5 năm 2024, OpenAI giới thiệu GPT-4o, một phiên bản đặc biệt được tối ưu hóa để tương tác với con người một cách tự nhiên nhất. GPT-4o có hơn 1 nghìn tỷ tham số, mạnh mẽ hơn các phiên bản trước đó. GPT-4o được tích hợp vào nhiều ứng dụng thực tế như chatbot, trợ lý ảo và hệ thống tư vấn. Với khả năng học sâu và hiểu biết ngữ cảnh tinh vi, GPT-4o đã trở thành một công cụ không thể thiếu trong nhiều lĩnh vực.

Tương lai hứa hẹn: ChatGPT và sự tiến bộ không ngừng

Công nghệ nền tảng của ChatGPT là Transformer, một mô hình học sâu (deep learning) chuyên xử lý ngôn ngữ tự nhiên. Transformer được giới thiệu lần đầu vào năm 2017 bởi Google Brain và đã trở thành công nghệ cốt lõi cho nhiều mô hình AI hiện đại. Transformer cho phép mô hình học hỏi từ dữ liệu văn bản hiệu quả và tạo ra văn bản mới một cách tự nhiên và mạch lạc. 

Tính đến năm 2024, giá trị thị trường của OpenAI, công ty phát triển ChatGPT, được ước tính lên tới hàng chục tỷ đô la. ChatGPT nhanh chóng trở nên phổ biến nhờ khả năng xử lý ngôn ngữ tự nhiên mạnh mẽ và ứng dụng rộng rãi trong nhiều lĩnh vực. Việc hợp tác với các công ty lớn như Microsoft để tích hợp ChatGPT vào các sản phẩm như Microsoft Office và Azure đã góp phần đáng kể vào sự phổ biến này.

OpenAI cung cấp ChatGPT dưới hai hình thức: miễn phí và trả phí (premium). Người dùng miễn phí được truy cập vào các tính năng cơ bản của ChatGPT, có thể sử dụng cho các tác vụ đơn giản như trả lời câu hỏi, viết nội dung cơ bản và trợ giúp với các tác vụ hàng ngày. Người dùng trả phí (ChatGPT Plus) với giá $20/tháng nhận được những lợi ích bổ sung như: truy cập nhanh hơn, ưu tiên khi sử dụng trong các giờ cao điểm, truy cập vào các tính năng và cập nhật mới nhất.

Ngoài xử lý ngôn ngữ tự nhiên, OpenAI cũng đã phát triển các mô hình AI có khả năng tạo hình ảnh từ văn bản, như DALL-E. Khả năng này cho phép người dùng tạo ra các hình ảnh sáng tạo và phức tạp dựa trên mô tả bằng văn bản, mở ra nhiều ứng dụng trong thiết kế, quảng cáo và nghệ thuật.  Từ việc hỗ trợ khách hàng, dạy học đến sáng tác nội dung, ChatGPT đã chứng tỏ khả năng ứng dụng rộng rãi và tiềm năng trong nhiều lĩnh vực. 

Sự phát triển của ChatGPT không dừng lại ở đây. OpenAI và các công ty khác đang tiếp tục nghiên cứu và phát triển các phiên bản nâng cấp với khả năng và độ chính xác cao hơn. Các ứng dụng mới của ChatGPT sẽ tiếp tục được khám phá, từ chăm sóc sức khỏe, tư vấn pháp lý đến hỗ trợ công việc hàng ngày.

ChatGPT là một trong những thành tựu nổi bật của trí tuệ nhân tạo trong thập kỷ qua. Với sự tiến bộ không ngừng của công nghệ, ChatGPT sẽ tiếp tục phát triển và mang lại nhiều lợi ích hơn nữa cho xã hội. Tuy nhiên, cần có những biện pháp quản lý và đạo đức rõ ràng để đảm bảo rằng công nghệ này được sử dụng đúng mục đích và mang lại lợi ích tốt nhất cho con người.
Tłumacz
Fidelity Token Hóa Cổ Phiếu Trên Blockchain Của JPMorganFidelity International, công ty quản lý quỹ có trụ sở tại Luân Đôn, đã token hóa cổ phiếu trong một quỹ thị trường tiền tệ (MMF) trên mạng blockchain riêng tư Onyx Digital Assets của JPMorgan, theo Coindesk hôm 10/6. Bước đi này nhằm nâng cao hiệu quả trong việc cung cấp các yêu cầu ký quỹ, đồng thời giảm chi phí giao dịch và rủi ro hoạt động, Fidelity International cho biết. Việc token hóa cổ phiếu trong quỹ thị trường tiền tệ diễn ra gần như ngay lập tức thông qua kết nối giữa đại lý chuyển nhượng của quỹ (doanh nghiệp chuyển nhượng của JPMorgan) và Tokenized Collateral Network (TCN), một ứng dụng nằm giữa người nhận tài sản đảm bảo và người cung cấp tài sản đảm bảo trên blockchain Onyx. Token hóa tài sản tài chính truyền thống đã trở thành ưu tiên hàng đầu của các ngân hàng và JPMorgan đã nghiên cứu lĩnh vực này trong nhiều năm. Bản chất của token hóa là tạo ra trên blockchain một công cụ đầu tư ảo đại diện cho tài sản thực tế như bất động sản, kim loại quý và đồ sưu tập. Cổ phiếu và trái phiếu cũng có thể được token hóa. Fidelity International cũng có lịch sử lâu đời với tài sản kỹ thuật số và đã tham gia dự án token hóa với ngân hàng Thụy Sĩ Sygnum vào năm 2019. Tháng 10 năm ngoái, JPMorgan đã thực hiện giao dịch thanh toán tài sản đảm bảo dựa trên blockchain đầu tiên liên quan đến cổ phiếu được token hóa trong quỹ thị trường tiền tệ của BlackRock. Cổ phiếu được chuyển giao cho Barclays để làm tài sản đảm bảo trong giao dịch phái sinh OTC. BlackRock đã tiếp tục ủng hộ token hóa thông qua dự án BUIDL hướng đến công chúng của mình, với sự hợp tác của công ty dịch vụ token hóa Securitize. Stephen Whyman, Giám đốc thị trường vốn nợ của Fidelity International, cho biết trong một cuộc phỏng vấn qua email: rằng “Token hóa cổ phiếu quỹ thị trường tiền tệ của chúng tôi để sử dụng làm tài sản đảm bảo là bước đầu tiên quan trọng và tự nhiên trong việc mở rộng việc áp dụng công nghệ này.” “Lợi ích cho khách hàng và hệ thống tài chính rộng lớn là rõ ràng; đặc biệt là hiệu quả được cải thiện trong việc cung cấp các yêu cầu ký quỹ và giảm chi phí giao dịch và rủi ro hoạt động,” ông nhấn mạnh.

Fidelity Token Hóa Cổ Phiếu Trên Blockchain Của JPMorgan

Fidelity International, công ty quản lý quỹ có trụ sở tại Luân Đôn, đã token hóa cổ phiếu trong một quỹ thị trường tiền tệ (MMF) trên mạng blockchain riêng tư Onyx Digital Assets của JPMorgan, theo Coindesk hôm 10/6.

Bước đi này nhằm nâng cao hiệu quả trong việc cung cấp các yêu cầu ký quỹ, đồng thời giảm chi phí giao dịch và rủi ro hoạt động, Fidelity International cho biết.

Việc token hóa cổ phiếu trong quỹ thị trường tiền tệ diễn ra gần như ngay lập tức thông qua kết nối giữa đại lý chuyển nhượng của quỹ (doanh nghiệp chuyển nhượng của JPMorgan) và Tokenized Collateral Network (TCN), một ứng dụng nằm giữa người nhận tài sản đảm bảo và người cung cấp tài sản đảm bảo trên blockchain Onyx.

Token hóa tài sản tài chính truyền thống đã trở thành ưu tiên hàng đầu của các ngân hàng và JPMorgan đã nghiên cứu lĩnh vực này trong nhiều năm. Bản chất của token hóa là tạo ra trên blockchain một công cụ đầu tư ảo đại diện cho tài sản thực tế như bất động sản, kim loại quý và đồ sưu tập. Cổ phiếu và trái phiếu cũng có thể được token hóa.

Fidelity International cũng có lịch sử lâu đời với tài sản kỹ thuật số và đã tham gia dự án token hóa với ngân hàng Thụy Sĩ Sygnum vào năm 2019.

Tháng 10 năm ngoái, JPMorgan đã thực hiện giao dịch thanh toán tài sản đảm bảo dựa trên blockchain đầu tiên liên quan đến cổ phiếu được token hóa trong quỹ thị trường tiền tệ của BlackRock. Cổ phiếu được chuyển giao cho Barclays để làm tài sản đảm bảo trong giao dịch phái sinh OTC. BlackRock đã tiếp tục ủng hộ token hóa thông qua dự án BUIDL hướng đến công chúng của mình, với sự hợp tác của công ty dịch vụ token hóa Securitize.

Stephen Whyman, Giám đốc thị trường vốn nợ của Fidelity International, cho biết trong một cuộc phỏng vấn qua email: rằng “Token hóa cổ phiếu quỹ thị trường tiền tệ của chúng tôi để sử dụng làm tài sản đảm bảo là bước đầu tiên quan trọng và tự nhiên trong việc mở rộng việc áp dụng công nghệ này.”

“Lợi ích cho khách hàng và hệ thống tài chính rộng lớn là rõ ràng; đặc biệt là hiệu quả được cải thiện trong việc cung cấp các yêu cầu ký quỹ và giảm chi phí giao dịch và rủi ro hoạt động,” ông nhấn mạnh.
Tłumacz
AI Và Tội Phạm Tiền Mã Hoá: Mối Nguy Hiểm MớiAI có thể trở thành công cụ hữu ích cho tội phạm trong hệ sinh thái tiền mã hoá, và việc hiểu rõ các xu hướng tội phạm mới là rất quan trọng để bảo vệ ngành công nghiệp này. Với sự phát triển nhanh chóng của trí tuệ nhân tạo (AI), đã có nhiều sáng kiến đổi mới mang lại lợi ích lớn trong nhiều ngành công nghiệp, đặc biệt là lĩnh vực tiền mã hoá. Tuy nhiên, như bất kỳ công nghệ mới nào, AI cũng mang theo nguy cơ bị lợi dụng vào các mục đích xấu. Theo báo cáo do Elliptic thực hiện, tổ chức này đã xác định năm loại tội phạm mới nổi trong hệ sinh thái tiền mã hoá được hỗ trợ bởi AI. AI tạo dựng lừa đảo deepfake trong tiền mã hoá AI đang được sử dụng để tạo ra các chiêu lừa đảo trong tiền mã hoá. Cụ thể, các video deepfake giả mạo người nổi tiếng hoặc các lãnh đạo doanh nghiệp đang quảng bá các dự án đầu tư tiền mã hoá, tạo ra ấn tượng rằng dự án này có sự hỗ trợ chính thức. Ví dụ như các video giả mạo CEO của Ripple, Brad Garlinghouse, đã xuất hiện để lừa đảo người dùng tham gia vào các trò lừa đảo tặng tiền mã hoá. Các chiêu lừa đảo này thường sử dụng hình ảnh, video và giọng nói được tạo ra bởi AI để làm cho các trang web lừa đảo trông thuyết phục hơn. Một ví dụ điển hình là vụ tấn công Twitter vào tháng 7/2020, khi các tài khoản của nhiều người nổi tiếng bị hack để đăng các liên kết lừa đảo tặng Bitcoin. Trong nhiều trường hợp, những kẻ lừa đảo còn sử dụng tài khoản quản trị viên trên các kênh Discord của các dự án tiền mã hoá để đăng các liên kết lừa đảo, đánh cắp tiền mã hoá hoặc các token không thể thay thế (NFT). Tạo token AI lừa đảo hoặc các kế hoạch thao túng thị trường Một số lượng lớn token lừa đảo đã được tạo ra với các từ khóa liên quan đến AI như “GPT”, “CryptoGPT”, và “GPT Coin”. Những token này thường được quảng bá trên các diễn đàn giao dịch nghiệp dư, tạo ra sự hứng thú giả tạo và cuối cùng là lừa đảo người dùng bằng cách bán token và biến mất với số tiền thu được. Các chiêu lừa đảo này bao gồm “exit scams” (lừa đảo rút lui) và “pump and dump” (thao túng thị trường). Theo báo cáo của Elliptic, trên nhiều blockchain, việc tạo ra một token là rất dễ dàng, và những kẻ lừa đảo đã lợi dụng điều này để tạo ra các token liên quan đến AI nhằm tạo ra sự hứng thú giả tạo. Các token này thường được quảng bá trong các diễn đàn giao dịch nghiệp dư, nơi mà những kẻ lừa đảo tuyên bố có sự liên kết chính thức với các công ty AI hợp pháp như ChatGPT hoặc các công ty AI khác. Những chiêu lừa đảo này không chỉ dừng lại ở việc tạo ra token, mà còn bao gồm các nền tảng đầu tư giả mạo, các bot giao dịch AI giả mạo và các chiêu lừa đảo thoát hiểm (exit scams). Một ví dụ điển hình là vụ lừa đảo bot giao dịch AI trị giá 6 triệu USD mang tên “iEarn”, trong đó những kẻ lừa đảo tạo ra một nền tảng giao dịch AI giả mạo và sau đó biến mất với số tiền đầu tư của nạn nhân. Những kẻ lừa đảo này thường tái xuất hiện dưới các tên gọi và trang web khác nhau, tiếp tục lừa đảo các nạn nhân mới. Một ví dụ nổi bật khác là Mirror Trading International (MTI), một mô hình Ponzi đã thu về hơn 1,7 tỷ USD tiền mã hoá từ các nạn nhân trên toàn thế giới. Sử dụng các mô hình ngôn ngữ lớn để thực hiện các cuộc tấn công mạng Công cụ AI như ChatGPT có khả năng kiểm tra và phát hiện lỗ hổng trong mã code, do đó có thể bị khai thác bởi hacker để tìm ra và tấn công các hợp đồng thông minh của các giao thức tài chính phi tập trung (DeFi). Một số công cụ AI “phi đạo đức” đã được quảng bá trên các diễn đàn web đen với khả năng tự động hoá các email lừa đảo, viết mã độc và tìm lỗ hổng. Ví dụ, các hacker có thể sử dụng AI để kiểm tra mã nguồn mở của nhiều giao thức DeFi trong một khoảng thời gian ngắn để tìm ra các lỗ hổng bảo mật. Một số công cụ AI “phi đạo đức” như WormGPT, DarkBard, FraudGPT và HackerGPT đã được quảng bá trên các diễn đàn web đen với khả năng tự động hoá các hoạt động tội phạm mạng như gửi email lừa đảo, viết mã độc và tìm lỗ hổng bảo mật. Các công cụ này thường được bán với giá từ 70 đến 1.700 USD. Một ví dụ cụ thể là WormGPT, một công cụ AI được thiết kế để tạo ra các email lừa đảo, mã độc và tìm lỗ hổng bảo mật. WormGPT được quảng bá trên các diễn đàn web đen với khả năng tự động hoá các hoạt động tội phạm mạng, bao gồm gửi email lừa đảo và viết mã độc. Một trong những khách hàng của WormGPT đã sử dụng nó để giả mạo ngân hàng và thu thập mã OTP từ các nạn nhân. Triển khai các trò lừa đảo tiền mã hóa và thông tin sai lệch quy mô lớn AI có thể tạo ra và lan truyền các trang web lừa đảo một cách nhanh chóng và dễ dàng. Dịch vụ như NovaDrainer cung cấp các trang web lừa đảo cho các chi nhánh và chia sẻ lợi nhuận, đã nhận được hơn 2.400 loại token từ hơn 10.000 ví tiền khác nhau, có khả năng là từ các nạn nhân bị lừa đảo. Ngoài ra, AI cũng được sử dụng để tự động tạo ra các bài đăng trên mạng xã hội, giúp lan truyền thông tin sai lệch về các dự án tiền mã hoá. Một ví dụ cụ thể là dịch vụ NovaDrainer, một nền tảng cung cấp dịch vụ lừa đảo dưới dạng một dịch vụ cho các chi nhánh và chia sẻ lợi nhuận. NovaDrainer tuyên bố sử dụng AI để xử lý các giao dịch và tạo ra các thiết kế trang web mới, tối ưu hóa cho SEO và thẻ meta. Dịch vụ này đã nhận được hơn 2.400 loại token từ hơn 10.000 ví tiền khác nhau, có khả năng là từ các nạn nhân bị lừa đảo. Ngoài ra, các bot mạng xã hội cũng được sử dụng để lan truyền thông tin sai lệch về các dự án tiền mã hoá. Một ví dụ điển hình là mạng lưới bot FOX8, một mạng lưới bot trên Twitter đã sử dụng ChatGPT để tạo ra các bài đăng và phản hồi tự động. Mạng lưới bot này bao gồm hơn 1.100 tài khoản và đã lan truyền các thông tin sai lệch về tiền mã hoá, với hashtag #crypto xuất hiện hơn 3.000 lần trong các bài đăng của mạng lưới này. Mở rộng thị trường bất hợp pháp Trên các thị trường web đen, đã xuất hiện các dịch vụ AI tạo ra hình ảnh nude giả mạo của các người nổi tiếng và cung cấp các công cụ AI để tạo ra hình ảnh này với chi phí thấp. Các dịch vụ tạo tài liệu giả mạo như “OnlyFake Document Generator” sử dụng AI để tạo ra các giấy tờ tùy thân giả nhằm vượt qua các kiểm tra KYC tại các sàn giao dịch tiền mã hoá. Ngoài ra, các công cụ AI còn được sử dụng để lọc và phân tích dữ liệu bị đánh cắp từ các cuộc tấn công mạng. Một ví dụ điển hình là OnlyFake Document Generator, một dịch vụ tạo tài liệu giả mạo sử dụng AI để tạo ra các giấy tờ tùy thân giả nhằm vượt qua các kiểm tra KYC tại các sàn giao dịch tiền mã hoá. Dịch vụ này cung cấp các gói dịch vụ từ 15 USD (tạo ra một tài liệu giả) đến 1.500 USD (tạo ra 1.000 tài liệu giả). Chỉ trong một tháng, dịch vụ này đã bán được đủ giấy phép để tạo ra khoảng 4.935 tài liệu giả. Các dịch vụ tạo hình ảnh nude giả mạo của các người nổi tiếng cũng đã xuất hiện trên các thị trường web đen. Một ví dụ là một dịch vụ AI tạo ra hình ảnh khoả thân giả mạo của ít nhất 13 người nổi tiếng trong ngành giải trí Hồng Kông, được bán với giá 2 USD. Ngoài ra, các dịch vụ AI khác còn cung cấp khả năng tạo ra hình ảnh nude từ các hình ảnh do người dùng tải lên với chi phí thấp, thường dưới 1 USD mỗi hình ảnh. Hệ lụy và biện pháp phòng ngừa Sự kết hợp giữa AI và các hoạt động bất hợp pháp trên dark web đặt ra thách thức lớn cho các cơ quan thực thi pháp luật và chuyên gia an ninh mạng. Việc phát hiện và ngăn chặn các hoạt động này đòi hỏi sự hiểu biết sâu rộng về công nghệ AI và các phương pháp tội phạm mới. Để đối phó với các mối đe dọa tội phạm được hỗ trợ bởi AI trong hệ sinh thái tiền mã hoá, cần thiết lập các biện pháp phòng ngừa toàn diện. Một trong những phương pháp tiếp cận này là DECODE, bao gồm các yếu tố sau: 1. Detection (Phát hiện): Sử dụng công nghệ AI để phát hiện sớm các hoạt động bất thường và các dấu hiệu của hành vi lừa đảo. Các hệ thống giám sát tự động có thể quét các giao dịch và các hoạt động trên chuỗi khối để tìm kiếm các mẫu hành vi đáng ngờ. 2. Education (Giáo dục): Tăng cường nhận thức và giáo dục cho người dùng và các bên liên quan về các rủi ro liên quan đến tội phạm AI trong tiền mã hoá. Các chiến dịch truyền thông và đào tạo nên được triển khai để giúp người dùng nhận biết các dấu hiệu lừa đảo và các biện pháp bảo vệ cá nhân. 3. Collaboration (Hợp tác): Thúc đẩy sự hợp tác giữa các cơ quan thực thi pháp luật, các công ty công nghệ và các tổ chức tài chính để chia sẻ thông tin và phối hợp trong việc đối phó với tội phạm AI. Sự hợp tác quốc tế cũng là yếu tố quan trọng trong việc đối phó với các mối đe dọa xuyên quốc gia. 4. Oversight (Giám sát): Thiết lập các cơ chế giám sát và quy định để đảm bảo rằng các công ty và các tổ chức tuân thủ các tiêu chuẩn bảo mật và phòng ngừa tội phạm. Các cơ quan quản lý nên thường xuyên cập nhật các quy định để phản ánh các xu hướng tội phạm mới. 5. Defense (Phòng thủ): Áp dụng các biện pháp bảo mật tiên tiến, bao gồm mã hóa, xác thực hai yếu tố và các giải pháp bảo mật khác để bảo vệ hệ thống khỏi các cuộc tấn công. Các biện pháp này cần được cập nhật liên tục để đối phó với các mối đe dọa mới. 6. Evaluation (Đánh giá): Thực hiện các cuộc kiểm tra và đánh giá thường xuyên về các biện pháp phòng ngừa tội phạm và các hệ thống bảo mật để đảm bảo tính hiệu quả. Các đánh giá này nên bao gồm cả việc thử nghiệm các hệ thống chống lại các cuộc tấn công giả lập để phát hiện và khắc phục các điểm yếu. Kết luận AI đang mở ra những cơ hội mới cho cả lợi ích và rủi ro trong hệ sinh thái tiền mã hóa. Việc hiểu rõ và quản lý các rủi ro liên quan là rất quan trọng để bảo vệ người dùng và duy trì an ninh mạng. Những nỗ lực phối hợp và các biện pháp phòng ngừa hiệu quả sẽ giúp giảm thiểu tác động của các hoạt động tội phạm này và bảo vệ sự phát triển bền vững của công nghệ AI và tiền mã hóa. Báo cáo của Elliptic không chỉ cung cấp cái nhìn sâu sắc về các xu hướng tội phạm liên quan đến AI mà còn đề xuất các chiến lược cụ thể để đối phó với những thách thức này. Việc tiếp tục nghiên cứu và nâng cao nhận thức về các mối đe dọa tiềm ẩn là bước quan trọng trong việc đảm bảo một môi trường kỹ thuật số an toàn và đáng tin cậy. Khi công nghệ tiếp tục tiến bộ, việc duy trì sự cân bằng giữa đổi mới và an ninh sẽ là một thách thức không nhỏ. Các bên liên quan trong ngành công nghiệp tiền mã hóa và công nghệ thông tin cần phải hợp tác chặt chẽ để phát triển các giải pháp an ninh tiên tiến, đồng thời nâng cao nhận thức và kỹ năng để đối phó với các mối đe dọa mới. Sự phát triển bền vững và an toàn của công nghệ AI và tiền mã hóa không chỉ phụ thuộc vào các biện pháp kỹ thuật mà còn cần đến sự hợp tác toàn cầu và sự cam kết của tất cả các bên liên quan.

AI Và Tội Phạm Tiền Mã Hoá: Mối Nguy Hiểm Mới

AI có thể trở thành công cụ hữu ích cho tội phạm trong hệ sinh thái tiền mã hoá, và việc hiểu rõ các xu hướng tội phạm mới là rất quan trọng để bảo vệ ngành công nghiệp này.

Với sự phát triển nhanh chóng của trí tuệ nhân tạo (AI), đã có nhiều sáng kiến đổi mới mang lại lợi ích lớn trong nhiều ngành công nghiệp, đặc biệt là lĩnh vực tiền mã hoá. Tuy nhiên, như bất kỳ công nghệ mới nào, AI cũng mang theo nguy cơ bị lợi dụng vào các mục đích xấu. Theo báo cáo do Elliptic thực hiện, tổ chức này đã xác định năm loại tội phạm mới nổi trong hệ sinh thái tiền mã hoá được hỗ trợ bởi AI.

AI tạo dựng lừa đảo deepfake trong tiền mã hoá

AI đang được sử dụng để tạo ra các chiêu lừa đảo trong tiền mã hoá. Cụ thể, các video deepfake giả mạo người nổi tiếng hoặc các lãnh đạo doanh nghiệp đang quảng bá các dự án đầu tư tiền mã hoá, tạo ra ấn tượng rằng dự án này có sự hỗ trợ chính thức. Ví dụ như các video giả mạo CEO của Ripple, Brad Garlinghouse, đã xuất hiện để lừa đảo người dùng tham gia vào các trò lừa đảo tặng tiền mã hoá.

Các chiêu lừa đảo này thường sử dụng hình ảnh, video và giọng nói được tạo ra bởi AI để làm cho các trang web lừa đảo trông thuyết phục hơn. Một ví dụ điển hình là vụ tấn công Twitter vào tháng 7/2020, khi các tài khoản của nhiều người nổi tiếng bị hack để đăng các liên kết lừa đảo tặng Bitcoin. Trong nhiều trường hợp, những kẻ lừa đảo còn sử dụng tài khoản quản trị viên trên các kênh Discord của các dự án tiền mã hoá để đăng các liên kết lừa đảo, đánh cắp tiền mã hoá hoặc các token không thể thay thế (NFT).

Tạo token AI lừa đảo hoặc các kế hoạch thao túng thị trường

Một số lượng lớn token lừa đảo đã được tạo ra với các từ khóa liên quan đến AI như “GPT”, “CryptoGPT”, và “GPT Coin”. Những token này thường được quảng bá trên các diễn đàn giao dịch nghiệp dư, tạo ra sự hứng thú giả tạo và cuối cùng là lừa đảo người dùng bằng cách bán token và biến mất với số tiền thu được. Các chiêu lừa đảo này bao gồm “exit scams” (lừa đảo rút lui) và “pump and dump” (thao túng thị trường).

Theo báo cáo của Elliptic, trên nhiều blockchain, việc tạo ra một token là rất dễ dàng, và những kẻ lừa đảo đã lợi dụng điều này để tạo ra các token liên quan đến AI nhằm tạo ra sự hứng thú giả tạo. Các token này thường được quảng bá trong các diễn đàn giao dịch nghiệp dư, nơi mà những kẻ lừa đảo tuyên bố có sự liên kết chính thức với các công ty AI hợp pháp như ChatGPT hoặc các công ty AI khác. Những chiêu lừa đảo này không chỉ dừng lại ở việc tạo ra token, mà còn bao gồm các nền tảng đầu tư giả mạo, các bot giao dịch AI giả mạo và các chiêu lừa đảo thoát hiểm (exit scams).

Một ví dụ điển hình là vụ lừa đảo bot giao dịch AI trị giá 6 triệu USD mang tên “iEarn”, trong đó những kẻ lừa đảo tạo ra một nền tảng giao dịch AI giả mạo và sau đó biến mất với số tiền đầu tư của nạn nhân. Những kẻ lừa đảo này thường tái xuất hiện dưới các tên gọi và trang web khác nhau, tiếp tục lừa đảo các nạn nhân mới. Một ví dụ nổi bật khác là Mirror Trading International (MTI), một mô hình Ponzi đã thu về hơn 1,7 tỷ USD tiền mã hoá từ các nạn nhân trên toàn thế giới.

Sử dụng các mô hình ngôn ngữ lớn để thực hiện các cuộc tấn công mạng

Công cụ AI như ChatGPT có khả năng kiểm tra và phát hiện lỗ hổng trong mã code, do đó có thể bị khai thác bởi hacker để tìm ra và tấn công các hợp đồng thông minh của các giao thức tài chính phi tập trung (DeFi). Một số công cụ AI “phi đạo đức” đã được quảng bá trên các diễn đàn web đen với khả năng tự động hoá các email lừa đảo, viết mã độc và tìm lỗ hổng.

Ví dụ, các hacker có thể sử dụng AI để kiểm tra mã nguồn mở của nhiều giao thức DeFi trong một khoảng thời gian ngắn để tìm ra các lỗ hổng bảo mật. Một số công cụ AI “phi đạo đức” như WormGPT, DarkBard, FraudGPT và HackerGPT đã được quảng bá trên các diễn đàn web đen với khả năng tự động hoá các hoạt động tội phạm mạng như gửi email lừa đảo, viết mã độc và tìm lỗ hổng bảo mật. Các công cụ này thường được bán với giá từ 70 đến 1.700 USD.

Một ví dụ cụ thể là WormGPT, một công cụ AI được thiết kế để tạo ra các email lừa đảo, mã độc và tìm lỗ hổng bảo mật. WormGPT được quảng bá trên các diễn đàn web đen với khả năng tự động hoá các hoạt động tội phạm mạng, bao gồm gửi email lừa đảo và viết mã độc. Một trong những khách hàng của WormGPT đã sử dụng nó để giả mạo ngân hàng và thu thập mã OTP từ các nạn nhân.

Triển khai các trò lừa đảo tiền mã hóa và thông tin sai lệch quy mô lớn

AI có thể tạo ra và lan truyền các trang web lừa đảo một cách nhanh chóng và dễ dàng. Dịch vụ như NovaDrainer cung cấp các trang web lừa đảo cho các chi nhánh và chia sẻ lợi nhuận, đã nhận được hơn 2.400 loại token từ hơn 10.000 ví tiền khác nhau, có khả năng là từ các nạn nhân bị lừa đảo. Ngoài ra, AI cũng được sử dụng để tự động tạo ra các bài đăng trên mạng xã hội, giúp lan truyền thông tin sai lệch về các dự án tiền mã hoá.

Một ví dụ cụ thể là dịch vụ NovaDrainer, một nền tảng cung cấp dịch vụ lừa đảo dưới dạng một dịch vụ cho các chi nhánh và chia sẻ lợi nhuận. NovaDrainer tuyên bố sử dụng AI để xử lý các giao dịch và tạo ra các thiết kế trang web mới, tối ưu hóa cho SEO và thẻ meta. Dịch vụ này đã nhận được hơn 2.400 loại token từ hơn 10.000 ví tiền khác nhau, có khả năng là từ các nạn nhân bị lừa đảo.

Ngoài ra, các bot mạng xã hội cũng được sử dụng để lan truyền thông tin sai lệch về các dự án tiền mã hoá. Một ví dụ điển hình là mạng lưới bot FOX8, một mạng lưới bot trên Twitter đã sử dụng ChatGPT để tạo ra các bài đăng và phản hồi tự động. Mạng lưới bot này bao gồm hơn 1.100 tài khoản và đã lan truyền các thông tin sai lệch về tiền mã hoá, với hashtag #crypto xuất hiện hơn 3.000 lần trong các bài đăng của mạng lưới này.

Mở rộng thị trường bất hợp pháp

Trên các thị trường web đen, đã xuất hiện các dịch vụ AI tạo ra hình ảnh nude giả mạo của các người nổi tiếng và cung cấp các công cụ AI để tạo ra hình ảnh này với chi phí thấp. Các dịch vụ tạo tài liệu giả mạo như “OnlyFake Document Generator” sử dụng AI để tạo ra các giấy tờ tùy thân giả nhằm vượt qua các kiểm tra KYC tại các sàn giao dịch tiền mã hoá. Ngoài ra, các công cụ AI còn được sử dụng để lọc và phân tích dữ liệu bị đánh cắp từ các cuộc tấn công mạng.

Một ví dụ điển hình là OnlyFake Document Generator, một dịch vụ tạo tài liệu giả mạo sử dụng AI để tạo ra các giấy tờ tùy thân giả nhằm vượt qua các kiểm tra KYC tại các sàn giao dịch tiền mã hoá. Dịch vụ này cung cấp các gói dịch vụ từ 15 USD (tạo ra một tài liệu giả) đến 1.500 USD (tạo ra 1.000 tài liệu giả). Chỉ trong một tháng, dịch vụ này đã bán được đủ giấy phép để tạo ra khoảng 4.935 tài liệu giả.

Các dịch vụ tạo hình ảnh nude giả mạo của các người nổi tiếng cũng đã xuất hiện trên các thị trường web đen. Một ví dụ là một dịch vụ AI tạo ra hình ảnh khoả thân giả mạo của ít nhất 13 người nổi tiếng trong ngành giải trí Hồng Kông, được bán với giá 2 USD. Ngoài ra, các dịch vụ AI khác còn cung cấp khả năng tạo ra hình ảnh nude từ các hình ảnh do người dùng tải lên với chi phí thấp, thường dưới 1 USD mỗi hình ảnh.

Hệ lụy và biện pháp phòng ngừa

Sự kết hợp giữa AI và các hoạt động bất hợp pháp trên dark web đặt ra thách thức lớn cho các cơ quan thực thi pháp luật và chuyên gia an ninh mạng. Việc phát hiện và ngăn chặn các hoạt động này đòi hỏi sự hiểu biết sâu rộng về công nghệ AI và các phương pháp tội phạm mới.

Để đối phó với các mối đe dọa tội phạm được hỗ trợ bởi AI trong hệ sinh thái tiền mã hoá, cần thiết lập các biện pháp phòng ngừa toàn diện. Một trong những phương pháp tiếp cận này là DECODE, bao gồm các yếu tố sau:

1. Detection (Phát hiện): Sử dụng công nghệ AI để phát hiện sớm các hoạt động bất thường và các dấu hiệu của hành vi lừa đảo. Các hệ thống giám sát tự động có thể quét các giao dịch và các hoạt động trên chuỗi khối để tìm kiếm các mẫu hành vi đáng ngờ.

2. Education (Giáo dục): Tăng cường nhận thức và giáo dục cho người dùng và các bên liên quan về các rủi ro liên quan đến tội phạm AI trong tiền mã hoá. Các chiến dịch truyền thông và đào tạo nên được triển khai để giúp người dùng nhận biết các dấu hiệu lừa đảo và các biện pháp bảo vệ cá nhân.

3. Collaboration (Hợp tác): Thúc đẩy sự hợp tác giữa các cơ quan thực thi pháp luật, các công ty công nghệ và các tổ chức tài chính để chia sẻ thông tin và phối hợp trong việc đối phó với tội phạm AI. Sự hợp tác quốc tế cũng là yếu tố quan trọng trong việc đối phó với các mối đe dọa xuyên quốc gia.

4. Oversight (Giám sát): Thiết lập các cơ chế giám sát và quy định để đảm bảo rằng các công ty và các tổ chức tuân thủ các tiêu chuẩn bảo mật và phòng ngừa tội phạm. Các cơ quan quản lý nên thường xuyên cập nhật các quy định để phản ánh các xu hướng tội phạm mới.

5. Defense (Phòng thủ): Áp dụng các biện pháp bảo mật tiên tiến, bao gồm mã hóa, xác thực hai yếu tố và các giải pháp bảo mật khác để bảo vệ hệ thống khỏi các cuộc tấn công. Các biện pháp này cần được cập nhật liên tục để đối phó với các mối đe dọa mới.

6. Evaluation (Đánh giá): Thực hiện các cuộc kiểm tra và đánh giá thường xuyên về các biện pháp phòng ngừa tội phạm và các hệ thống bảo mật để đảm bảo tính hiệu quả. Các đánh giá này nên bao gồm cả việc thử nghiệm các hệ thống chống lại các cuộc tấn công giả lập để phát hiện và khắc phục các điểm yếu.

Kết luận

AI đang mở ra những cơ hội mới cho cả lợi ích và rủi ro trong hệ sinh thái tiền mã hóa. Việc hiểu rõ và quản lý các rủi ro liên quan là rất quan trọng để bảo vệ người dùng và duy trì an ninh mạng. Những nỗ lực phối hợp và các biện pháp phòng ngừa hiệu quả sẽ giúp giảm thiểu tác động của các hoạt động tội phạm này và bảo vệ sự phát triển bền vững của công nghệ AI và tiền mã hóa.

Báo cáo của Elliptic không chỉ cung cấp cái nhìn sâu sắc về các xu hướng tội phạm liên quan đến AI mà còn đề xuất các chiến lược cụ thể để đối phó với những thách thức này. Việc tiếp tục nghiên cứu và nâng cao nhận thức về các mối đe dọa tiềm ẩn là bước quan trọng trong việc đảm bảo một môi trường kỹ thuật số an toàn và đáng tin cậy.

Khi công nghệ tiếp tục tiến bộ, việc duy trì sự cân bằng giữa đổi mới và an ninh sẽ là một thách thức không nhỏ. Các bên liên quan trong ngành công nghiệp tiền mã hóa và công nghệ thông tin cần phải hợp tác chặt chẽ để phát triển các giải pháp an ninh tiên tiến, đồng thời nâng cao nhận thức và kỹ năng để đối phó với các mối đe dọa mới. Sự phát triển bền vững và an toàn của công nghệ AI và tiền mã hóa không chỉ phụ thuộc vào các biện pháp kỹ thuật mà còn cần đến sự hợp tác toàn cầu và sự cam kết của tất cả các bên liên quan.
Zapoznaj się z najnowszymi wiadomościami na temat krypto
⚡️ Weź udział w najnowszych dyskusjach na temat krypto
💬 Współpracuj ze swoimi ulubionymi twórcami
👍 Ciesz się treściami, które Cię interesują
E-mail / Numer telefonu

Najnowsze wiadomości

--
Zobacz więcej
Mapa strony
Cookie Preferences
Regulamin platformy