Binance Square
LIVE
PCB Block
@blockchain247
Top news channel 247 🚀🚀🚀
Підписки
Підписники
Вподобали
Поділилися
Увесь контент
LIVE
--
Переклад
Tổng Quan Về Zero-Knowledge Proofs (ZKP)Zero-Knowledge Proof – ZKP (bằng chứng không kiến thức) đang thay đổi cách chúng ta bảo vệ dữ liệu trên blockchain, mang lại tính bảo mật và riêng tư cao hơn. Zero-Knowledge Proof (ZKP) là một khái niệm quan trọng trong mật mã học hiện đại. ZKPs cho phép một bên (người chứng minh) chứng minh một tuyên bố là đúng với một bên khác (người xác minh) mà không tiết lộ bất kỳ thông tin nào ngoài tính đúng đắn của tuyên bố đó. Nguyên lý này mang lại một bước đột phá lớn trong việc bảo vệ thông tin cá nhân và giao dịch trên blockchain. Nguyên tắc của ZKP bao gồm ba yếu tố chính: tính hoàn chỉnh, tính đúng đắn và tính không tiết lộ. Tính hoàn chỉnh đảm bảo rằng nếu tuyên bố đúng, người xác minh sẽ luôn chấp nhận bằng chứng. Tính đúng đắn đảm bảo rằng nếu tuyên bố sai, người xác minh sẽ không bị thuyết phục bởi bất kỳ bằng chứng nào. Cuối cùng, tính không tiết lộ đảm bảo rằng người xác minh không học được bất kỳ thông tin gì khác ngoài tính đúng đắn của tuyên bố. Các loại ZKP Có hai loại chính của ZKP là bằng chứng tương tác và bằng chứng không tương tác. Bằng chứng tương tác yêu cầu nhiều lượt trao đổi giữa người chứng minh và người xác minh, trong khi bằng chứng không tương tác không yêu cầu tương tác sau khi bằng chứng đã được tạo ra. Bằng chứng tương tác yêu cầu một loạt các trao đổi qua lại giữa người chứng minh và người xác minh. Trong quá trình này, người xác minh đưa ra các thử thách để người chứng minh trả lời. Nếu người chứng minh có thể đáp ứng mọi thử thách một cách chính xác, người xác minh sẽ tin rằng tuyên bố là đúng mà không cần tiết lộ thêm thông tin. Ví dụ, tưởng tượng bạn cần chứng minh rằng bạn biết mật khẩu của một két sắt mà không tiết lộ mật khẩu đó. Bạn sẽ yêu cầu người xác minh đưa ra các thử thách ngẫu nhiên liên quan đến việc mở két sắt, và bạn sẽ thực hiện các bước chứng minh mà không bao giờ tiết lộ mật khẩu. Tuy nhiên, các bằng chứng tương tác này hiếm khi được sử dụng trong các hệ thống blockchain vì chúng không hiệu quả và yêu cầu hai bên phải trực tuyến cùng lúc. zk-SNARKs (Succinct Non-Interactive Arguments of Knowledge) là một loại ZKP không tương tác. zk-SNARKs cho phép chứng minh rằng bạn sở hữu một thông tin nào đó mà không cần tiết lộ chi tiết về thông tin đó. Trên blockchain Ethereum, zk-SNARKs rất hữu ích cho các hợp đồng thông minh nhằm bảo vệ tính riêng tư. zk-SNARKs cũng được ZCash sử dụng để xác minh các giao dịch ẩn danh, đảm bảo rằng không có thông tin về người gửi, người nhận hay số tiền được tiết lộ. zk-STARKs (Scalable Transparent Arguments of Knowledge) hoạt động tương tự như zk-SNARKs nhưng được thiết kế để mở rộng quy mô các phép tính lớn. Do lợi ích về tính minh bạch và khả năng mở rộng, zk-STARKs tương thích với nhiều ứng dụng blockchain khác nhau. Bulletproofs chứng minh rằng một giá trị nằm trong một phạm vi cụ thể mà không tiết lộ giá trị đó. Thông qua việc sử dụng các khái niệm toán học tiên tiến, bulletproofs có thể làm cho các bằng chứng nhỏ hơn, từ đó giảm kích thước giao dịch và thời gian xác minh. Monero sử dụng bulletproofs để cải thiện tính riêng tư và hiệu suất của các giao dịch tiền mã hoá. Ứng dụng của ZKP trong blockchain Ứng dụng của ZKP trong blockchain rất đa dạng, từ việc bảo mật các giao dịch đến việc đảm bảo tính riêng tư trong bỏ phiếu và minh bạch trong chuỗi cung ứng. Các giải pháp lớp 2 trên Ethereum cũng đang sử dụng ZKP để tăng cường khả năng mở rộng và bảo mật. Zk-rollups là các giải pháp mở rộng lớp 2 giúp gộp dữ liệu giao dịch ngoài chuỗi vào một bằng chứng mật mã, sau đó sử dụng ZKP để đăng tính hợp lệ của giao dịch lên mạng chính Ethereum dưới dạng calldata. Vì các giao dịch được đăng lên mạng chính dưới dạng gộp, chúng thường chiếm ít không gian hơn, do đó giảm bớt gánh nặng tính toán cho Ethereum. Các zk-rollups phổ biến bao gồm ZkSync và Loopring. Zk-Plasma là một biến thể của mạng Plasma sử dụng ZKP để tạo ra một chuỗi bên bảo vệ tính riêng tư trên Ethereum. Thay vì xác minh tất cả dữ liệu trên mạng chính, người dùng có thể xác minh các giao dịch trên chuỗi bên và sau đó sử dụng ZKP để đăng tính hợp lệ của chúng lên Ethereum. Sàn giao dịch phi tập trung (DEXes): ZKP có thể hỗ trợ giao dịch nhiều loại tài sản mà không tiết lộ lịch sử giao dịch, chiến lược hoặc số dư tài khoản của người dùng. Điều này giúp bảo vệ tính riêng tư và an toàn cho người tham gia giao dịch trên các sàn phi tập trung. Bảo mật giao dịch: ZKP cho phép các giao dịch trên blockchain được thực hiện một cách riêng tư mà không tiết lộ thông tin chi tiết. Điều này đặc biệt quan trọng đối với các giao dịch tiền mã hoá, nơi mà tính riêng tư là yếu tố then chốt. Bỏ phiếu an toàn: ZKP có thể được sử dụng để đảm bảo rằng phiếu bầu được đếm chính xác mà không tiết lộ lựa chọn của từng cử tri. Điều này mang lại một hệ thống bỏ phiếu minh bạch và bảo mật hơn. Minh bạch chuỗi cung ứng: Trong chuỗi cung ứng, ZKP có thể được sử dụng để chứng minh nguồn gốc và tính toàn vẹn của sản phẩm mà không tiết lộ thông tin nhạy cảm về nhà cung cấp hoặc quy trình sản xuất. Thách thức và tương lai của ZKP Mặc dù ZKP mang lại nhiều lợi ích, chúng cũng đối mặt với một số thách thức. Nhu cầu tính toán cao là một trong những rào cản chính, do các thuật toán ZKP yêu cầu sức mạnh xử lý lớn. Sự phức tạp trong thiết lập và việc đảm bảo tính tương thích giữa các hệ thống khác nhau cũng là những thách thức cần được giải quyết. Tuy nhiên, tiềm năng của ZKP trong việc nâng cao bảo mật và riêng tư cho blockchain là rất lớn. Các nghiên cứu và phát triển đang tiếp tục để cải thiện hiệu suất và giảm chi phí của ZKP. Trong tương lai, chúng ta có thể thấy ZKP được ứng dụng rộng rãi hơn trong các hệ thống tài chính, hợp đồng thông minh, và nhiều lĩnh vực khác. Zero-Knowledge Proof là một công cụ mạnh mẽ để bảo vệ dữ liệu và giao dịch trên blockchain. Dù đối mặt với nhiều thách thức, ZKP đang mở ra những cơ hội mới cho việc nâng cao bảo mật và tính riêng tư trong kỷ nguyên số.

Tổng Quan Về Zero-Knowledge Proofs (ZKP)

Zero-Knowledge Proof – ZKP (bằng chứng không kiến thức) đang thay đổi cách chúng ta bảo vệ dữ liệu trên blockchain, mang lại tính bảo mật và riêng tư cao hơn.

Zero-Knowledge Proof (ZKP) là một khái niệm quan trọng trong mật mã học hiện đại. ZKPs cho phép một bên (người chứng minh) chứng minh một tuyên bố là đúng với một bên khác (người xác minh) mà không tiết lộ bất kỳ thông tin nào ngoài tính đúng đắn của tuyên bố đó. Nguyên lý này mang lại một bước đột phá lớn trong việc bảo vệ thông tin cá nhân và giao dịch trên blockchain.

Nguyên tắc của ZKP bao gồm ba yếu tố chính: tính hoàn chỉnh, tính đúng đắn và tính không tiết lộ. Tính hoàn chỉnh đảm bảo rằng nếu tuyên bố đúng, người xác minh sẽ luôn chấp nhận bằng chứng. Tính đúng đắn đảm bảo rằng nếu tuyên bố sai, người xác minh sẽ không bị thuyết phục bởi bất kỳ bằng chứng nào. Cuối cùng, tính không tiết lộ đảm bảo rằng người xác minh không học được bất kỳ thông tin gì khác ngoài tính đúng đắn của tuyên bố.

Các loại ZKP

Có hai loại chính của ZKP là bằng chứng tương tác và bằng chứng không tương tác. Bằng chứng tương tác yêu cầu nhiều lượt trao đổi giữa người chứng minh và người xác minh, trong khi bằng chứng không tương tác không yêu cầu tương tác sau khi bằng chứng đã được tạo ra.

Bằng chứng tương tác yêu cầu một loạt các trao đổi qua lại giữa người chứng minh và người xác minh. Trong quá trình này, người xác minh đưa ra các thử thách để người chứng minh trả lời. Nếu người chứng minh có thể đáp ứng mọi thử thách một cách chính xác, người xác minh sẽ tin rằng tuyên bố là đúng mà không cần tiết lộ thêm thông tin.

Ví dụ, tưởng tượng bạn cần chứng minh rằng bạn biết mật khẩu của một két sắt mà không tiết lộ mật khẩu đó. Bạn sẽ yêu cầu người xác minh đưa ra các thử thách ngẫu nhiên liên quan đến việc mở két sắt, và bạn sẽ thực hiện các bước chứng minh mà không bao giờ tiết lộ mật khẩu. Tuy nhiên, các bằng chứng tương tác này hiếm khi được sử dụng trong các hệ thống blockchain vì chúng không hiệu quả và yêu cầu hai bên phải trực tuyến cùng lúc.

zk-SNARKs (Succinct Non-Interactive Arguments of Knowledge) là một loại ZKP không tương tác. zk-SNARKs cho phép chứng minh rằng bạn sở hữu một thông tin nào đó mà không cần tiết lộ chi tiết về thông tin đó. Trên blockchain Ethereum, zk-SNARKs rất hữu ích cho các hợp đồng thông minh nhằm bảo vệ tính riêng tư. zk-SNARKs cũng được ZCash sử dụng để xác minh các giao dịch ẩn danh, đảm bảo rằng không có thông tin về người gửi, người nhận hay số tiền được tiết lộ.

zk-STARKs (Scalable Transparent Arguments of Knowledge) hoạt động tương tự như zk-SNARKs nhưng được thiết kế để mở rộng quy mô các phép tính lớn. Do lợi ích về tính minh bạch và khả năng mở rộng, zk-STARKs tương thích với nhiều ứng dụng blockchain khác nhau.

Bulletproofs chứng minh rằng một giá trị nằm trong một phạm vi cụ thể mà không tiết lộ giá trị đó. Thông qua việc sử dụng các khái niệm toán học tiên tiến, bulletproofs có thể làm cho các bằng chứng nhỏ hơn, từ đó giảm kích thước giao dịch và thời gian xác minh. Monero sử dụng bulletproofs để cải thiện tính riêng tư và hiệu suất của các giao dịch tiền mã hoá.

Ứng dụng của ZKP trong blockchain

Ứng dụng của ZKP trong blockchain rất đa dạng, từ việc bảo mật các giao dịch đến việc đảm bảo tính riêng tư trong bỏ phiếu và minh bạch trong chuỗi cung ứng. Các giải pháp lớp 2 trên Ethereum cũng đang sử dụng ZKP để tăng cường khả năng mở rộng và bảo mật.

Zk-rollups là các giải pháp mở rộng lớp 2 giúp gộp dữ liệu giao dịch ngoài chuỗi vào một bằng chứng mật mã, sau đó sử dụng ZKP để đăng tính hợp lệ của giao dịch lên mạng chính Ethereum dưới dạng calldata. Vì các giao dịch được đăng lên mạng chính dưới dạng gộp, chúng thường chiếm ít không gian hơn, do đó giảm bớt gánh nặng tính toán cho Ethereum. Các zk-rollups phổ biến bao gồm ZkSync và Loopring.

Zk-Plasma là một biến thể của mạng Plasma sử dụng ZKP để tạo ra một chuỗi bên bảo vệ tính riêng tư trên Ethereum. Thay vì xác minh tất cả dữ liệu trên mạng chính, người dùng có thể xác minh các giao dịch trên chuỗi bên và sau đó sử dụng ZKP để đăng tính hợp lệ của chúng lên Ethereum.

Sàn giao dịch phi tập trung (DEXes): ZKP có thể hỗ trợ giao dịch nhiều loại tài sản mà không tiết lộ lịch sử giao dịch, chiến lược hoặc số dư tài khoản của người dùng. Điều này giúp bảo vệ tính riêng tư và an toàn cho người tham gia giao dịch trên các sàn phi tập trung.

Bảo mật giao dịch: ZKP cho phép các giao dịch trên blockchain được thực hiện một cách riêng tư mà không tiết lộ thông tin chi tiết. Điều này đặc biệt quan trọng đối với các giao dịch tiền mã hoá, nơi mà tính riêng tư là yếu tố then chốt.

Bỏ phiếu an toàn: ZKP có thể được sử dụng để đảm bảo rằng phiếu bầu được đếm chính xác mà không tiết lộ lựa chọn của từng cử tri. Điều này mang lại một hệ thống bỏ phiếu minh bạch và bảo mật hơn.

Minh bạch chuỗi cung ứng: Trong chuỗi cung ứng, ZKP có thể được sử dụng để chứng minh nguồn gốc và tính toàn vẹn của sản phẩm mà không tiết lộ thông tin nhạy cảm về nhà cung cấp hoặc quy trình sản xuất.

Thách thức và tương lai của ZKP

Mặc dù ZKP mang lại nhiều lợi ích, chúng cũng đối mặt với một số thách thức. Nhu cầu tính toán cao là một trong những rào cản chính, do các thuật toán ZKP yêu cầu sức mạnh xử lý lớn. Sự phức tạp trong thiết lập và việc đảm bảo tính tương thích giữa các hệ thống khác nhau cũng là những thách thức cần được giải quyết.

Tuy nhiên, tiềm năng của ZKP trong việc nâng cao bảo mật và riêng tư cho blockchain là rất lớn. Các nghiên cứu và phát triển đang tiếp tục để cải thiện hiệu suất và giảm chi phí của ZKP. Trong tương lai, chúng ta có thể thấy ZKP được ứng dụng rộng rãi hơn trong các hệ thống tài chính, hợp đồng thông minh, và nhiều lĩnh vực khác.

Zero-Knowledge Proof là một công cụ mạnh mẽ để bảo vệ dữ liệu và giao dịch trên blockchain. Dù đối mặt với nhiều thách thức, ZKP đang mở ra những cơ hội mới cho việc nâng cao bảo mật và tính riêng tư trong kỷ nguyên số.
Переклад
Sàn Gemini Tài Trợ Chiến Dịch Tranh Cử Của Ông Donald TrumpGemini, sàn giao dịch tiền mã hóa nổi tiếng, bất ngờ thông báo tài trợ cho chiến dịch tái tranh cử của cựu Tổng thống Donald Trump, chỉ vài ngày sau khi anh em nhà sáng lập Cameron và Tyler Winklevoss đóng góp 2 triệu USD vào ngày 20/6. Động thái này đánh dấu sự gia tăng mạnh mẽ của “Cryptopolitik” (chính trị tiền mã hóa) tại Mỹ, khi ngành công nghiệp này ngày càng tích cực tham gia vào tiến trình chính trị, vận động hành lang và gây ảnh hưởng lên các chính sách liên quan. Trước thông báo tài trợ, Tyler Winklevoss đã công khai chỉ trích chính quyền Tổng thống Biden về chính sách thù địch với tiền mã hóa, cáo buộc chính quyền hiện tại đang tìm cách kiểm soát và phân phối lại thành công của ngành. Ông cảnh báo những chính sách này sẽ gây tổn hại cho nền kinh tế Mỹ. “Tội ác luôn là thành công và phần thưởng luôn là sự chế giễu, phạt tiền và thậm chí là nhiều rào cản hơn”, Winklevoss viết. Ông cho rằng chính quyền Biden không ghét bỏ thành công hoàn toàn mà chỉ ghét những thành công nằm ngoài sự kiểm soát của họ. Khi họ tìm ra cách để tịch thu hoặc ép buộc, chính quyền Biden trở nên rất nhiệt tình với thành công, hân hoan thao túng hoặc phân phối lại nó nhằm mục đích mua phiếu bầu. Winklevoss kết luận rằng những chính sách này sẽ dẫn đến sự hủy diệt của nền kinh tế và đất nước Mỹ trong một khoảng thời gian dài. Động thái của anh em Winklevoss là ví dụ rõ ràng nhất cho làn sóng vận động chính trị từ ngành công nghiệp tiền mã hóa. Đầu tháng 6, Ủy ban Hành động Chính trị (PAC) “Đứng về phía Tiền mã hóa” của Coinbase đã thu thập được 1 triệu chữ ký ủng hộ từ cử tri. Cùng thời điểm, các lãnh đạo của CleanSpark, Marathon Digital và Riot Platforms, sau cuộc gặp với ông Trump, đã thành lập “Dự án Cử tri Bitcoin” – một tổ chức phi lợi nhuận nhằm nâng cao nhận thức về Bitcoin cho công chúng Mỹ. Gần đây hơn, Fairshake, một super PAC về tiền mã hóa, đã thông báo tích lũy được 169 triệu USD trong các khoản đóng góp. Không giống như The Bitcoin Voter Project, Fairshake phát động các quảng cáo chính trị chống lại các chính trị gia và ứng cử viên có lập trường chống lại tiền mã hóa. Sự khác biệt trong chiến lược này cho thấy sự đa dạng trong cách tiếp cận của các tổ chức trong ngành công nghiệp tiền mã hóa. Sự gia tăng ảnh hưởng của tiền mã hóa trong chính trường Mỹ phản ánh vai trò ngày càng quan trọng của lĩnh vực này đối với nền kinh tế. Năm 2024 được dự đoán sẽ là năm của “Cryptopolitik” khi ngành công nghiệp này tích cực tham gia vào tiến trình chính trị, vận động hành lang và gây ảnh hưởng lên các chính sách liên quan. Với sự tham gia ngày càng đông đảo của cộng đồng và nguồn lực tài chính ngày càng lớn mạnh, ngành công nghiệp tiền mã hóa được dự đoán sẽ trở thành một lực lượng chính trị đáng gờm tại Mỹ trong tương lai.

Sàn Gemini Tài Trợ Chiến Dịch Tranh Cử Của Ông Donald Trump

Gemini, sàn giao dịch tiền mã hóa nổi tiếng, bất ngờ thông báo tài trợ cho chiến dịch tái tranh cử của cựu Tổng thống Donald Trump, chỉ vài ngày sau khi anh em nhà sáng lập Cameron và Tyler Winklevoss đóng góp 2 triệu USD vào ngày 20/6.

Động thái này đánh dấu sự gia tăng mạnh mẽ của “Cryptopolitik” (chính trị tiền mã hóa) tại Mỹ, khi ngành công nghiệp này ngày càng tích cực tham gia vào tiến trình chính trị, vận động hành lang và gây ảnh hưởng lên các chính sách liên quan.

Trước thông báo tài trợ, Tyler Winklevoss đã công khai chỉ trích chính quyền Tổng thống Biden về chính sách thù địch với tiền mã hóa, cáo buộc chính quyền hiện tại đang tìm cách kiểm soát và phân phối lại thành công của ngành. Ông cảnh báo những chính sách này sẽ gây tổn hại cho nền kinh tế Mỹ.

“Tội ác luôn là thành công và phần thưởng luôn là sự chế giễu, phạt tiền và thậm chí là nhiều rào cản hơn”, Winklevoss viết. Ông cho rằng chính quyền Biden không ghét bỏ thành công hoàn toàn mà chỉ ghét những thành công nằm ngoài sự kiểm soát của họ. Khi họ tìm ra cách để tịch thu hoặc ép buộc, chính quyền Biden trở nên rất nhiệt tình với thành công, hân hoan thao túng hoặc phân phối lại nó nhằm mục đích mua phiếu bầu. Winklevoss kết luận rằng những chính sách này sẽ dẫn đến sự hủy diệt của nền kinh tế và đất nước Mỹ trong một khoảng thời gian dài.

Động thái của anh em Winklevoss là ví dụ rõ ràng nhất cho làn sóng vận động chính trị từ ngành công nghiệp tiền mã hóa. Đầu tháng 6, Ủy ban Hành động Chính trị (PAC) “Đứng về phía Tiền mã hóa” của Coinbase đã thu thập được 1 triệu chữ ký ủng hộ từ cử tri.

Cùng thời điểm, các lãnh đạo của CleanSpark, Marathon Digital và Riot Platforms, sau cuộc gặp với ông Trump, đã thành lập “Dự án Cử tri Bitcoin” – một tổ chức phi lợi nhuận nhằm nâng cao nhận thức về Bitcoin cho công chúng Mỹ.

Gần đây hơn, Fairshake, một super PAC về tiền mã hóa, đã thông báo tích lũy được 169 triệu USD trong các khoản đóng góp. Không giống như The Bitcoin Voter Project, Fairshake phát động các quảng cáo chính trị chống lại các chính trị gia và ứng cử viên có lập trường chống lại tiền mã hóa. Sự khác biệt trong chiến lược này cho thấy sự đa dạng trong cách tiếp cận của các tổ chức trong ngành công nghiệp tiền mã hóa.

Sự gia tăng ảnh hưởng của tiền mã hóa trong chính trường Mỹ phản ánh vai trò ngày càng quan trọng của lĩnh vực này đối với nền kinh tế. Năm 2024 được dự đoán sẽ là năm của “Cryptopolitik” khi ngành công nghiệp này tích cực tham gia vào tiến trình chính trị, vận động hành lang và gây ảnh hưởng lên các chính sách liên quan.

Với sự tham gia ngày càng đông đảo của cộng đồng và nguồn lực tài chính ngày càng lớn mạnh, ngành công nghiệp tiền mã hóa được dự đoán sẽ trở thành một lực lượng chính trị đáng gờm tại Mỹ trong tương lai.
Переклад
Chatbot AI Ứng Cử Thị Trưởng, Thách Thức Mới Cho Chính Trị Hiện ĐạiMột người đàn ông Mỹ, Victor Miller, đã gây xôn xao khi nộp đơn ứng cử cho một chatbot AI tên VIC (Virtual Integrated Citizen) vào vị trí Thị trưởng thành phố Cheyenne, bang Wyoming. Miller khẳng định VIC, được vận hành bởi công nghệ của OpenAI, sẽ đưa ra mọi quyết định chính trị và điều hành thành phố tốt hơn con người. Tuy nhiên, ý tưởng táo bạo này đã vấp phải phản ứng dữ dội từ OpenAI. Công ty này đã nhanh chóng vô hiệu hóa quyền truy cập của Miller vào công cụ vận hành VIC, lý do là vi phạm chính sách sử dụng công nghệ cho mục đích chính trị. Victor Miller đang gân xôn xao dư luận với ý tưởng đưa chatbot AI tranh cử vị trí Thị trưởng Sự việc này cho thấy AI đang tạo ra những thách thức mới cho chính trị hiện đại. Trong bối cảnh công nghệ này phát triển với tốc độ chóng mặt, các nhà quản lý, doanh nghiệp và người tiêu dùng vẫn đang tìm cách sử dụng AI một cách có trách nhiệm và phù hợp với khuôn khổ pháp lý. Miller cho biết ông tạo ra VIC vì từng bị từ chối cung cấp hồ sơ thành phố do yêu cầu ẩn danh. Ông tin rằng AI có thể giúp giải quyết vấn đề này. Tuy nhiên, nhiều chuyên gia cho rằng giao phó quyền lực chính trị cho AI là điều phi thực tế và tiềm ẩn rủi ro. Giáo sư Jen Golbeck từ Đại học Maryland khẳng định AI nên được sử dụng như một công cụ hỗ trợ ra quyết định, chứ không phải tự đưa ra quyết định. Bà lo ngại AI có thể thao túng dư luận, lan truyền thông tin sai lệch và gây bất ổn xã hội. Trong khi Giáo sư David Karpf từ Đại học George Washington cho rằng việc AI tham gia chính trường chỉ là “chiêu trò” thu hút sự chú ý. Dù vậy, Miller vẫn kiên định với mục tiêu của mình. Ông dự định mang VIC đến thư viện địa phương ở Cheyenne để cử tri đặt câu hỏi cho chatbot này. Ngoài Miller, OpenAI cũng đã hành động chống lại một ứng cử viên khác ở Anh đang sử dụng AI để vận động tranh cử. Steve Endacott, chủ tịch của một công ty AI có tên là Neural Voice, trả lời câu hỏi từ cử tri thông qua AI Steve, một chatbot trên trang web của ông. Ông đang tranh cử độc lập. Những sự kiện này đã khơi mào cho cuộc tranh luận về vai trò của AI trong đời sống chính trị. Liệu chatbot có thể trở thành ứng cử viên sáng giá trong tương lai? Liệu AI có thể thay thế con người trong việc điều hành đất nước? Dù kết quả ra sao, sự kiện này là lời cảnh tỉnh cho thấy AI đang ngày càng len lỏi vào mọi ngóc ngách của đời sống, đặt ra những thách thức mới cho các nhà hoạch định chính sách, các chuyên gia công nghệ và toàn xã hội. Việc tìm kiếm sự cân bằng giữa lợi ích và rủi ro của AI là điều cấp thiết để đảm bảo công nghệ này được sử dụng một cách có trách nhiệm và hiệu quả.

Chatbot AI Ứng Cử Thị Trưởng, Thách Thức Mới Cho Chính Trị Hiện Đại

Một người đàn ông Mỹ, Victor Miller, đã gây xôn xao khi nộp đơn ứng cử cho một chatbot AI tên VIC (Virtual Integrated Citizen) vào vị trí Thị trưởng thành phố Cheyenne, bang Wyoming. Miller khẳng định VIC, được vận hành bởi công nghệ của OpenAI, sẽ đưa ra mọi quyết định chính trị và điều hành thành phố tốt hơn con người.

Tuy nhiên, ý tưởng táo bạo này đã vấp phải phản ứng dữ dội từ OpenAI. Công ty này đã nhanh chóng vô hiệu hóa quyền truy cập của Miller vào công cụ vận hành VIC, lý do là vi phạm chính sách sử dụng công nghệ cho mục đích chính trị.

Victor Miller đang gân xôn xao dư luận với ý tưởng đưa chatbot AI tranh cử vị trí Thị trưởng

Sự việc này cho thấy AI đang tạo ra những thách thức mới cho chính trị hiện đại. Trong bối cảnh công nghệ này phát triển với tốc độ chóng mặt, các nhà quản lý, doanh nghiệp và người tiêu dùng vẫn đang tìm cách sử dụng AI một cách có trách nhiệm và phù hợp với khuôn khổ pháp lý.

Miller cho biết ông tạo ra VIC vì từng bị từ chối cung cấp hồ sơ thành phố do yêu cầu ẩn danh. Ông tin rằng AI có thể giúp giải quyết vấn đề này. Tuy nhiên, nhiều chuyên gia cho rằng giao phó quyền lực chính trị cho AI là điều phi thực tế và tiềm ẩn rủi ro.

Giáo sư Jen Golbeck từ Đại học Maryland khẳng định AI nên được sử dụng như một công cụ hỗ trợ ra quyết định, chứ không phải tự đưa ra quyết định. Bà lo ngại AI có thể thao túng dư luận, lan truyền thông tin sai lệch và gây bất ổn xã hội. Trong khi Giáo sư David Karpf từ Đại học George Washington cho rằng việc AI tham gia chính trường chỉ là “chiêu trò” thu hút sự chú ý.

Dù vậy, Miller vẫn kiên định với mục tiêu của mình. Ông dự định mang VIC đến thư viện địa phương ở Cheyenne để cử tri đặt câu hỏi cho chatbot này.

Ngoài Miller, OpenAI cũng đã hành động chống lại một ứng cử viên khác ở Anh đang sử dụng AI để vận động tranh cử. Steve Endacott, chủ tịch của một công ty AI có tên là Neural Voice, trả lời câu hỏi từ cử tri thông qua AI Steve, một chatbot trên trang web của ông. Ông đang tranh cử độc lập.

Những sự kiện này đã khơi mào cho cuộc tranh luận về vai trò của AI trong đời sống chính trị. Liệu chatbot có thể trở thành ứng cử viên sáng giá trong tương lai? Liệu AI có thể thay thế con người trong việc điều hành đất nước?

Dù kết quả ra sao, sự kiện này là lời cảnh tỉnh cho thấy AI đang ngày càng len lỏi vào mọi ngóc ngách của đời sống, đặt ra những thách thức mới cho các nhà hoạch định chính sách, các chuyên gia công nghệ và toàn xã hội. Việc tìm kiếm sự cân bằng giữa lợi ích và rủi ro của AI là điều cấp thiết để đảm bảo công nghệ này được sử dụng một cách có trách nhiệm và hiệu quả.
Переклад
2/3 CFO Xem Tự Động Hoá Bằng AI Là Ưu Tiên Chiến LượcTheo khảo sát CFO được thực hiện bởi Trường Kinh doanh Fuqua của Đại học Duke và Ngân hàng Dự trữ Liên bang Richmond và Atlanta, gần 2/3 CFO cho biết các công ty của họ đang ưu tiên chiến lược tự động hóa nhiều công việc của nhân viên. Xu hướng này được dẫn dắt bởi sự gia tăng ứng dụng AI trong các lĩnh vực tài chính, hứa hẹn một cuộc cách mạng trong ngành. Kết quả khảo sát, kết thúc vào ngày 3/6, cho thấy khoảng 450 giám đốc tài chính cũng chỉ ra rằng triển vọng kinh tế ôn hòa của họ vẫn ổn định trong quý này, mặc dù đa số dự kiến ​​giá sản phẩm sẽ tăng cao hơn mức bình thường. Trong năm qua, gần 60% các công ty (84% là các công ty lớn) đã triển khai phần mềm, thiết bị hoặc công nghệ để tự động hóa các nhiệm vụ trước đây được nhân viên hoàn thành. Các công ty này cho biết họ sử dụng tự động hóa để nâng cao chất lượng sản phẩm (58% các công ty), tăng năng suất (49%), giảm chi phí lao động (47%) và thay thế nhân công (33%). Trong số các công ty đã tự động hóa, 37% các công ty (55% là các công ty lớn) cho biết họ đã triển khai AI. Giáo sư tài chính của Duke, John Graham, giám đốc học thuật của khảo sát, chia sẻ: “Các CFO nói rằng các công ty của họ đang tận dụng AI để tự động hóa một loạt các nhiệm vụ, từ thanh toán cho nhà cung cấp, lập hóa đơn, mua sắm, báo cáo tài chính và tối ưu hóa việc sử dụng cơ sở vật chất. Điều này là ngoài việc các công ty sử dụng ChatGPT để tạo ra ý tưởng sáng tạo và soạn thảo mô tả công việc, hợp đồng, kế hoạch tiếp thị và thông cáo báo chí.” Việc sử dụng AI dự kiến ​​sẽ tăng trưởng trong năm tới. Trong số 60% các doanh nghiệp dự kiến ​​sẽ tự động hóa trong vòng 12 tháng tới, 54% các công ty (76% là các công ty lớn) dự định sử dụng AI để hoàn thành các nhiệm vụ trước đây do nhân viên thực hiện. Trong số những lo ngại của họ cho năm tới, các CFO của Mỹ cho biết chính sách tiền tệ (lãi suất), lạm phát và những thách thức trong việc tìm kiếm và giữ chân nhân viên phù hợp vẫn là ba mối lo ngại hàng đầu của họ. Hơn nữa, lo ngại về tình trạng lạm phát hiện tại đang gia tăng khi 57% các công ty trả lời rằng họ dự kiến ​​sẽ tăng giá sản phẩm trong năm nay với tốc độ cao hơn mức bình thường. Sự lạc quan của các CFO vẫn ở mức ôn hòa, gần như giống với quý trước, mặc dù các công ty nhỏ kém lạc quan hơn các công ty lớn. Kỳ vọng về tăng trưởng GDP thực tế giảm nhẹ xuống 1,8% trong vòng 12 tháng tới, giảm từ 2,2% trong quý trước. Trong một câu hỏi đặc biệt, gần 1/3 CFO cho biết do sự không chắc chắn về cuộc bầu cử sắp tới, các công ty của họ đang hoãn, thu hẹp quy mô, trì hoãn hoặc hủy bỏ hoàn toàn các kế hoạch đầu tư. Xu hướng tự động hóa, đặc biệt với sự hỗ trợ của AI, đang thay đổi diện mạo của ngành tài chính. Trong khi các CFO vẫn lo ngại về lạm phát và thiếu hụt nhân tài, họ cũng tin tưởng vào khả năng của AI trong việc nâng cao hiệu quả và tối ưu hóa hoạt động. Việc áp dụng AI sẽ tiếp tục phát triển, hứa hẹn một tương lai đầy hứa hẹn cho ngành tài chính, nơi con người và máy móc cùng hợp tác để tạo ra giá trị và đổi mới.

2/3 CFO Xem Tự Động Hoá Bằng AI Là Ưu Tiên Chiến Lược

Theo khảo sát CFO được thực hiện bởi Trường Kinh doanh Fuqua của Đại học Duke và Ngân hàng Dự trữ Liên bang Richmond và Atlanta, gần 2/3 CFO cho biết các công ty của họ đang ưu tiên chiến lược tự động hóa nhiều công việc của nhân viên. Xu hướng này được dẫn dắt bởi sự gia tăng ứng dụng AI trong các lĩnh vực tài chính, hứa hẹn một cuộc cách mạng trong ngành.

Kết quả khảo sát, kết thúc vào ngày 3/6, cho thấy khoảng 450 giám đốc tài chính cũng chỉ ra rằng triển vọng kinh tế ôn hòa của họ vẫn ổn định trong quý này, mặc dù đa số dự kiến ​​giá sản phẩm sẽ tăng cao hơn mức bình thường.

Trong năm qua, gần 60% các công ty (84% là các công ty lớn) đã triển khai phần mềm, thiết bị hoặc công nghệ để tự động hóa các nhiệm vụ trước đây được nhân viên hoàn thành. Các công ty này cho biết họ sử dụng tự động hóa để nâng cao chất lượng sản phẩm (58% các công ty), tăng năng suất (49%), giảm chi phí lao động (47%) và thay thế nhân công (33%). Trong số các công ty đã tự động hóa, 37% các công ty (55% là các công ty lớn) cho biết họ đã triển khai AI.

Giáo sư tài chính của Duke, John Graham, giám đốc học thuật của khảo sát, chia sẻ: “Các CFO nói rằng các công ty của họ đang tận dụng AI để tự động hóa một loạt các nhiệm vụ, từ thanh toán cho nhà cung cấp, lập hóa đơn, mua sắm, báo cáo tài chính và tối ưu hóa việc sử dụng cơ sở vật chất. Điều này là ngoài việc các công ty sử dụng ChatGPT để tạo ra ý tưởng sáng tạo và soạn thảo mô tả công việc, hợp đồng, kế hoạch tiếp thị và thông cáo báo chí.”

Việc sử dụng AI dự kiến ​​sẽ tăng trưởng trong năm tới. Trong số 60% các doanh nghiệp dự kiến ​​sẽ tự động hóa trong vòng 12 tháng tới, 54% các công ty (76% là các công ty lớn) dự định sử dụng AI để hoàn thành các nhiệm vụ trước đây do nhân viên thực hiện.

Trong số những lo ngại của họ cho năm tới, các CFO của Mỹ cho biết chính sách tiền tệ (lãi suất), lạm phát và những thách thức trong việc tìm kiếm và giữ chân nhân viên phù hợp vẫn là ba mối lo ngại hàng đầu của họ. Hơn nữa, lo ngại về tình trạng lạm phát hiện tại đang gia tăng khi 57% các công ty trả lời rằng họ dự kiến ​​sẽ tăng giá sản phẩm trong năm nay với tốc độ cao hơn mức bình thường.

Sự lạc quan của các CFO vẫn ở mức ôn hòa, gần như giống với quý trước, mặc dù các công ty nhỏ kém lạc quan hơn các công ty lớn. Kỳ vọng về tăng trưởng GDP thực tế giảm nhẹ xuống 1,8% trong vòng 12 tháng tới, giảm từ 2,2% trong quý trước.

Trong một câu hỏi đặc biệt, gần 1/3 CFO cho biết do sự không chắc chắn về cuộc bầu cử sắp tới, các công ty của họ đang hoãn, thu hẹp quy mô, trì hoãn hoặc hủy bỏ hoàn toàn các kế hoạch đầu tư.

Xu hướng tự động hóa, đặc biệt với sự hỗ trợ của AI, đang thay đổi diện mạo của ngành tài chính. Trong khi các CFO vẫn lo ngại về lạm phát và thiếu hụt nhân tài, họ cũng tin tưởng vào khả năng của AI trong việc nâng cao hiệu quả và tối ưu hóa hoạt động. Việc áp dụng AI sẽ tiếp tục phát triển, hứa hẹn một tương lai đầy hứa hẹn cho ngành tài chính, nơi con người và máy móc cùng hợp tác để tạo ra giá trị và đổi mới.
Переклад
Tạp Chí Do AI Viết Làm Loạn Các Nhà Xuất BảnTrong tuần này, sự xuất hiện của những sản phẩm do các AI tạo sinh tạo ra đang xáo trộn ngành xuất bản học thuật, gióng lên hồi chuông cảnh báo về nguy cơ sai lệch thông tin. Hai giáo sư triết học Tomasz Żuradzk và Leszek Wroński đã phát hiện ra ba tạp chí thuộc nhà xuất bản Addleton Academic Publishers có vẻ như phần lớn nội dung được tạo ra bằng AI tạo sinh (Gen AI). Điều này được khẳng định qua việc các bài báo trong những tạp chí này đều theo một khuôn mẫu chung, lạm dụng các thuật ngữ phổ biến và hội đồng biên tập của cả ba tạp chí đều giống hệt nhau, bao gồm 10 thành viên đã qua đời và cùng sử dụng một địa chỉ không rõ ràng tại Queens, New York. Sự tồn tại của các tạp chí “ma” này không chỉ gây ảnh hưởng đến uy tín của các nhà xuất bản mà còn phơi bày lỗ hổng trong hệ thống đánh giá năng lực nghiên cứu. Hệ thống CiteScore, một trong những thước đo uy tín, đã xếp hạng các tạp chí này trong top 10 về nghiên cứu triết học do các tạp chí này liên tục trích dẫn lẫn nhau. Điều này cho thấy việc lợi dụng hệ thống đánh giá nghiên cứu để thăng tiến và tuyển dụng dễ dàng đến mức nào, có thể dẫn đến nguy cơ tương tự trong các ngành nghề tri thức khác. Theo các giáo sư Żuradzk và Wroński, nếu các tạp chí “ma” và thông tin giả mạo tràn lan, uy tín của toàn bộ hệ thống nghiên cứu khoa học sẽ bị lung lay. Bởi vì, các bảng xếp hạng như CiteScore được sử dụng để đánh giá chất lượng nghiên cứu và đóng vai trò quan trọng trong các quyết định liên quan đến giải thưởng học thuật, tuyển dụng và thăng chức. Công nghệ này có thể được sử dụng để tạo ra các bài báo giả mạo tinh vi, gây ảnh hưởng tiêu cực đến uy tín của các nhà nghiên cứu chân chính và tạo ra sự bất công trong đánh giá năng lực. Điều này đòi hỏi sự tái cấu trúc toàn diện của hệ thống đánh giá nghiên cứu để đảm bảo rằng chúng phản ánh chính xác hơn chất lượng nghiên cứu thực sự và không bị lợi dụng bởi những nội dung nhân tạo. Để đối phó với nguy cơ này, cần có những giải pháp đồng bộ để ngăn chặn và xử lý các trường hợp lạm dụng AI trong nghiên cứu khoa học. Các tổ chức và cơ quan chức năng cần nâng cao nhận thức về vấn đề này, đồng thời xây dựng các cơ chế kiểm soát chặt chẽ hơn đối với việc xuất bản khoa học, đảm bảo tính minh bạch và trung thực trong nghiên cứu. Về lâu dài, cần nghiên cứu và phát triển các công cụ hiệu quả hơn để phát hiện và ngăn chặn các bài báo giả mạo, bảo vệ uy tín cho ngành nghiên cứu khoa học. Đây cũng là lời cảnh tỉnh cho cộng đồng nghiên cứu khoa học về những nguy cơ tiềm ẩn từ AI tạo sinh. Việc đảm bảo tính trung thực và uy tín của hệ thống nghiên cứu là điều tối quan trọng để duy trì sự phát triển bền vững của khoa học trong tương lai.

Tạp Chí Do AI Viết Làm Loạn Các Nhà Xuất Bản

Trong tuần này, sự xuất hiện của những sản phẩm do các AI tạo sinh tạo ra đang xáo trộn ngành xuất bản học thuật, gióng lên hồi chuông cảnh báo về nguy cơ sai lệch thông tin.

Hai giáo sư triết học Tomasz Żuradzk và Leszek Wroński đã phát hiện ra ba tạp chí thuộc nhà xuất bản Addleton Academic Publishers có vẻ như phần lớn nội dung được tạo ra bằng AI tạo sinh (Gen AI). Điều này được khẳng định qua việc các bài báo trong những tạp chí này đều theo một khuôn mẫu chung, lạm dụng các thuật ngữ phổ biến và hội đồng biên tập của cả ba tạp chí đều giống hệt nhau, bao gồm 10 thành viên đã qua đời và cùng sử dụng một địa chỉ không rõ ràng tại Queens, New York.

Sự tồn tại của các tạp chí “ma” này không chỉ gây ảnh hưởng đến uy tín của các nhà xuất bản mà còn phơi bày lỗ hổng trong hệ thống đánh giá năng lực nghiên cứu. Hệ thống CiteScore, một trong những thước đo uy tín, đã xếp hạng các tạp chí này trong top 10 về nghiên cứu triết học do các tạp chí này liên tục trích dẫn lẫn nhau. Điều này cho thấy việc lợi dụng hệ thống đánh giá nghiên cứu để thăng tiến và tuyển dụng dễ dàng đến mức nào, có thể dẫn đến nguy cơ tương tự trong các ngành nghề tri thức khác.

Theo các giáo sư Żuradzk và Wroński, nếu các tạp chí “ma” và thông tin giả mạo tràn lan, uy tín của toàn bộ hệ thống nghiên cứu khoa học sẽ bị lung lay. Bởi vì, các bảng xếp hạng như CiteScore được sử dụng để đánh giá chất lượng nghiên cứu và đóng vai trò quan trọng trong các quyết định liên quan đến giải thưởng học thuật, tuyển dụng và thăng chức.

Công nghệ này có thể được sử dụng để tạo ra các bài báo giả mạo tinh vi, gây ảnh hưởng tiêu cực đến uy tín của các nhà nghiên cứu chân chính và tạo ra sự bất công trong đánh giá năng lực. Điều này đòi hỏi sự tái cấu trúc toàn diện của hệ thống đánh giá nghiên cứu để đảm bảo rằng chúng phản ánh chính xác hơn chất lượng nghiên cứu thực sự và không bị lợi dụng bởi những nội dung nhân tạo.

Để đối phó với nguy cơ này, cần có những giải pháp đồng bộ để ngăn chặn và xử lý các trường hợp lạm dụng AI trong nghiên cứu khoa học. Các tổ chức và cơ quan chức năng cần nâng cao nhận thức về vấn đề này, đồng thời xây dựng các cơ chế kiểm soát chặt chẽ hơn đối với việc xuất bản khoa học, đảm bảo tính minh bạch và trung thực trong nghiên cứu. Về lâu dài, cần nghiên cứu và phát triển các công cụ hiệu quả hơn để phát hiện và ngăn chặn các bài báo giả mạo, bảo vệ uy tín cho ngành nghiên cứu khoa học.

Đây cũng là lời cảnh tỉnh cho cộng đồng nghiên cứu khoa học về những nguy cơ tiềm ẩn từ AI tạo sinh. Việc đảm bảo tính trung thực và uy tín của hệ thống nghiên cứu là điều tối quan trọng để duy trì sự phát triển bền vững của khoa học trong tương lai.
Переклад
Đức Gửi 195 Triệu USD Bitcoin Lên Các Sàn Tập TrungĐức đã gửi ít nhất 195 triệu USD trong tổng số 600 triệu USD giá trị Bitcoin (BTC) được di chuyển sang các sàn giao dịch tập trung, theo Arkham Intelligence. Hành động này khiến nhiều người lo ngại về tác động tiềm ẩn lên thị trường nếu họ bán lượng Bitcoin khổng lồ đang nắm giữ. Theo Arkham, Chính phủ Đức đã di chuyển tổng cộng 600 triệu USD Bitcoin (BTC) vào ngày 19/6, trong đó 195 triệu USD được chuyển đến 4 địa chỉ có khả năng là sàn giao dịch. Ba trong số đó được xác định là của các sàn giao dịch Kraken, Bitstamp và Coinbase. Các giao dịch Bitcoin này được thực hiện bởi Cục Cảnh sát Hình sự Liên bang Đức (BKA), cơ quan đã tịch thu gần 50.000 BTC từ trang web vi phạm bản quyền Movie2k.to hồi đầu năm nay. Vụ tịch thu này là kết quả của vụ án lớn vào năm 2018, đánh dấu một trong những vụ tịch thu tiền mã hoá lớn nhất trong lịch sử. Sau các giao dịch gần đây, Chính phủ Đức hiện sở hữu 47.179 BTC – trị giá khoảng 3 tỷ USD – theo dữ liệu của Arkham. Đức cũng là quốc gia sở hữu Bitcoin lớn thứ tư trên thế giới, dựa trên thông tin công khai. Ba quốc gia dẫn đầu là Mỹ với 13,9 tỷ USD, Trung Quốc 12,4 tỷ USD và Anh với gần 4 tỷ USD. Mỗi chính phủ đã tích lũy BTC chủ yếu thông qua các vụ tịch thu của cơ quan thực thi pháp luật trong những năm gần đây. Ukraine là quốc gia sở hữu Bitcoin lớn thứ năm với 46.351 BTC, phần lớn thu được từ cựu quan chức chính phủ Yuri Shchigol. Trong khi đó, các quốc gia như El Salvador, Venezuela và Cộng hòa Trung Phi đang tích lũy Bitcoin thông qua mua bán hay đầu tư và quyên góp, như một giải pháp cho những thách thức kinh tế và chính trị của họ. Việc bán Bitcoin của Chính phủ Đức được cho sẽ gây ảnh hưởng thị trường, bởi những giao dịch này có thể tác động đến giá Bitcoin và làm giảm niềm tin của nhà đầu tư. Mặt khác, các quốc gia khác lại đang tích lũy Bitcoin, đã cho thấy tiềm năng của đồng tiền số này, đặc biệt trong bối cảnh những thách thức về kinh tế và chính trị toàn cầu đang gia tăng.

Đức Gửi 195 Triệu USD Bitcoin Lên Các Sàn Tập Trung

Đức đã gửi ít nhất 195 triệu USD trong tổng số 600 triệu USD giá trị Bitcoin (BTC) được di chuyển sang các sàn giao dịch tập trung, theo Arkham Intelligence. Hành động này khiến nhiều người lo ngại về tác động tiềm ẩn lên thị trường nếu họ bán lượng Bitcoin khổng lồ đang nắm giữ.

Theo Arkham, Chính phủ Đức đã di chuyển tổng cộng 600 triệu USD Bitcoin (BTC) vào ngày 19/6, trong đó 195 triệu USD được chuyển đến 4 địa chỉ có khả năng là sàn giao dịch. Ba trong số đó được xác định là của các sàn giao dịch Kraken, Bitstamp và Coinbase.

Các giao dịch Bitcoin này được thực hiện bởi Cục Cảnh sát Hình sự Liên bang Đức (BKA), cơ quan đã tịch thu gần 50.000 BTC từ trang web vi phạm bản quyền Movie2k.to hồi đầu năm nay. Vụ tịch thu này là kết quả của vụ án lớn vào năm 2018, đánh dấu một trong những vụ tịch thu tiền mã hoá lớn nhất trong lịch sử.

Sau các giao dịch gần đây, Chính phủ Đức hiện sở hữu 47.179 BTC – trị giá khoảng 3 tỷ USD – theo dữ liệu của Arkham. Đức cũng là quốc gia sở hữu Bitcoin lớn thứ tư trên thế giới, dựa trên thông tin công khai. Ba quốc gia dẫn đầu là Mỹ với 13,9 tỷ USD, Trung Quốc 12,4 tỷ USD và Anh với gần 4 tỷ USD. Mỗi chính phủ đã tích lũy BTC chủ yếu thông qua các vụ tịch thu của cơ quan thực thi pháp luật trong những năm gần đây.

Ukraine là quốc gia sở hữu Bitcoin lớn thứ năm với 46.351 BTC, phần lớn thu được từ cựu quan chức chính phủ Yuri Shchigol. Trong khi đó, các quốc gia như El Salvador, Venezuela và Cộng hòa Trung Phi đang tích lũy Bitcoin thông qua mua bán hay đầu tư và quyên góp, như một giải pháp cho những thách thức kinh tế và chính trị của họ.

Việc bán Bitcoin của Chính phủ Đức được cho sẽ gây ảnh hưởng thị trường, bởi những giao dịch này có thể tác động đến giá Bitcoin và làm giảm niềm tin của nhà đầu tư. Mặt khác, các quốc gia khác lại đang tích lũy Bitcoin, đã cho thấy tiềm năng của đồng tiền số này, đặc biệt trong bối cảnh những thách thức về kinh tế và chính trị toàn cầu đang gia tăng.
Переклад
Amazon Triển Khai AI Hỗ Trợ Niêm Yết Sản PhẩmChỉ vài tuần sau khi ra mắt tại Anh và một số thị trường Châu Âu, công cụ AI tạo thông tin niêm yết sản phẩm của Amazon đã thu hút hơn 30.000 người bán hàng sử dụng. Đây là nỗ lực mới nhất của gã khổng lồ thương mại điện tử nhằm đơn giản hóa quy trình bán hàng trên nền tảng của mình bằng cách tích hợp công nghệ AI tạo sinh. Công cụ AI mới được thiết kế để tự động tạo mô tả sản phẩm, tiêu đề và thông tin chi tiết dựa trên từ khóa và hình ảnh được người dùng cung cấp. Người bán cũng có thể sử dụng công cụ này để bổ sung thông tin còn thiếu cho các danh sách sản phẩm hiện có. Thông tin về việc Amazon phát triển công nghệ AI tạo sinh cho người bán hàng đã được hé lộ từ tháng 9 năm ngoái. Tuy nhiên, lộ trình triển khai cụ thể vẫn là một ẩn số, khiến nhiều người cho rằng công nghệ này sẽ chỉ được áp dụng tại thị trường Mỹ. Đầu tháng này, Amazon âm thầm ra mắt các công cụ AI tại Anh. Mới đây, trong một bài đăng trên blog, công ty đã xác nhận việc triển khai tính năng này tại Anh và một số thị trường EU đã được thực hiện vài tuần trước. Với các công cụ mới, người bán có thể tiết kiệm thời gian và công sức trong việc tạo danh sách sản phẩm. Thay vì phải tự tay nhập liệu, người bán chỉ cần cung cấp từ khóa hoặc hình ảnh sản phẩm. Các thuật toán AI sẽ tự động tạo ra nội dung cho danh sách sản phẩm, bao gồm tiêu đề, gạch đầu dòng và mô tả chi tiết. Amazon khuyến nghị người bán nên kiểm tra kỹ lưỡng nội dung được tạo tự động bởi các mô hình ngôn ngữ lớn (LLM) trước khi đăng tải, bởi các mô hình này vẫn tiềm ẩn khả năng tạo ra thông tin sai lệch. Việc triển khai công cụ AI tạo thông tin niêm yết sản phẩm, đặc biệt là ở thị trường châu Âu vốn nổi tiếng với những quy định nghiêm ngặt về quyền riêng tư dữ liệu, đặt ra câu hỏi về nguồn dữ liệu mà Amazon sử dụng để huấn luyện các mô hình AI. Liệu dữ liệu của người dùng châu Âu có đang được Amazon sử dụng cho mục đích này? Bản thân Amazon không phải cái tên xa lạ với AI và học máy. Gã khổng lồ thương mại điện tử này đã ứng dụng các công nghệ này vào rất nhiều hoạt động. Tuy nhiên, việc triển khai AI tạo sinh tại châu Âu tiềm ẩn nhiều rủi ro pháp lý, đặc biệt là trong bối cảnh GDPR và Đạo luật Dịch vụ Kỹ thuật số (DSA) đang được siết chặt. Amazon cũng từng vướng vào nhiều bê bối liên quan đến việc sử dụng dữ liệu người dùng. Việc thiếu minh bạch về nguồn dữ liệu huấn luyện AI của Amazon có thể khiến công ty đối mặt với nhiều rủi ro pháp lý, đặc biệt khi EU đang ngày càng gia tăng giám sát các hoạt động ứng dụng AI của các tập đoàn công nghệ lớn.

Amazon Triển Khai AI Hỗ Trợ Niêm Yết Sản Phẩm

Chỉ vài tuần sau khi ra mắt tại Anh và một số thị trường Châu Âu, công cụ AI tạo thông tin niêm yết sản phẩm của Amazon đã thu hút hơn 30.000 người bán hàng sử dụng. Đây là nỗ lực mới nhất của gã khổng lồ thương mại điện tử nhằm đơn giản hóa quy trình bán hàng trên nền tảng của mình bằng cách tích hợp công nghệ AI tạo sinh.

Công cụ AI mới được thiết kế để tự động tạo mô tả sản phẩm, tiêu đề và thông tin chi tiết dựa trên từ khóa và hình ảnh được người dùng cung cấp. Người bán cũng có thể sử dụng công cụ này để bổ sung thông tin còn thiếu cho các danh sách sản phẩm hiện có.

Thông tin về việc Amazon phát triển công nghệ AI tạo sinh cho người bán hàng đã được hé lộ từ tháng 9 năm ngoái. Tuy nhiên, lộ trình triển khai cụ thể vẫn là một ẩn số, khiến nhiều người cho rằng công nghệ này sẽ chỉ được áp dụng tại thị trường Mỹ. Đầu tháng này, Amazon âm thầm ra mắt các công cụ AI tại Anh. Mới đây, trong một bài đăng trên blog, công ty đã xác nhận việc triển khai tính năng này tại Anh và một số thị trường EU đã được thực hiện vài tuần trước.

Với các công cụ mới, người bán có thể tiết kiệm thời gian và công sức trong việc tạo danh sách sản phẩm. Thay vì phải tự tay nhập liệu, người bán chỉ cần cung cấp từ khóa hoặc hình ảnh sản phẩm. Các thuật toán AI sẽ tự động tạo ra nội dung cho danh sách sản phẩm, bao gồm tiêu đề, gạch đầu dòng và mô tả chi tiết. Amazon khuyến nghị người bán nên kiểm tra kỹ lưỡng nội dung được tạo tự động bởi các mô hình ngôn ngữ lớn (LLM) trước khi đăng tải, bởi các mô hình này vẫn tiềm ẩn khả năng tạo ra thông tin sai lệch.

Việc triển khai công cụ AI tạo thông tin niêm yết sản phẩm, đặc biệt là ở thị trường châu Âu vốn nổi tiếng với những quy định nghiêm ngặt về quyền riêng tư dữ liệu, đặt ra câu hỏi về nguồn dữ liệu mà Amazon sử dụng để huấn luyện các mô hình AI. Liệu dữ liệu của người dùng châu Âu có đang được Amazon sử dụng cho mục đích này?

Bản thân Amazon không phải cái tên xa lạ với AI và học máy. Gã khổng lồ thương mại điện tử này đã ứng dụng các công nghệ này vào rất nhiều hoạt động. Tuy nhiên, việc triển khai AI tạo sinh tại châu Âu tiềm ẩn nhiều rủi ro pháp lý, đặc biệt là trong bối cảnh GDPR và Đạo luật Dịch vụ Kỹ thuật số (DSA) đang được siết chặt. Amazon cũng từng vướng vào nhiều bê bối liên quan đến việc sử dụng dữ liệu người dùng.

Việc thiếu minh bạch về nguồn dữ liệu huấn luyện AI của Amazon có thể khiến công ty đối mặt với nhiều rủi ro pháp lý, đặc biệt khi EU đang ngày càng gia tăng giám sát các hoạt động ứng dụng AI của các tập đoàn công nghệ lớn.
Переклад
Cách Chọn Lựa Giáo Dục Tiền Mã Hóa Chất Lượng Và Tránh Lừa ĐảoTrong bối cảnh tiền mã hóa và blockchain ngày càng trở nên quan trọng, việc nắm vững kiến thức chất lượng là vô cùng cần thiết. Ngành công nghiệp phát triển nhanh chóng này thường thu hút những kẻ lừa đảo. Hãy cùng tìm hiểu cách nhận biết và tiếp thu kiến thức đáng tin cậy về tiền mã hóa và tránh rơi vào bẫy của những kẻ gian lận. Ngành công nghiệp mới nổi và rủi ro từ giáo dục kém chất lượng Ngành tiền mã hóa không ngừng phát triển, thu hút vốn và nhân tài vào các phân khúc mới. Web 3.0 hướng tới việc sử dụng blockchain để tạo ra các ứng dụng và dịch vụ phi tập trung. Việc mã hóa tài sản thực (RWA) đang diễn ra, nơi các công ty phát hành token kỹ thuật số đại diện cho các tài sản thực như kim loại quý, cho phép nhà đầu tư tham gia vào nền kinh tế tài sản ở một cấp độ mới. Hơn nữa, các tổ chức tự trị phi tập trung (DAO) đang thúc đẩy các quy trình dân chủ trong quản lý dự án. Sự gia tăng nhanh chóng của tiền mã hóa và sự hiểu biết hạn chế về cơ chế của nó đã khiến nhiều người tìm kiếm sự giàu có qua công cụ mới này. Cùng với các dịch vụ hợp pháp, những lời đề nghị và sản phẩm lừa đảo cũng xuất hiện. Những kẻ gian lừa khách hàng bằng những điều kiện hấp dẫn và hứa hẹn làm giàu nhanh chóng, tương tự như các sơ đồ Ponzi trong các tổ chức tài chính. Một hậu quả liên quan và không kém phần quan trọng của sự phổ biến của tiền mã hóa là sự nổi lên của các “chuyên gia internet”. Sự bùng nổ quan tâm đến tiền mã hóa đã thu hút nhiều chuyên gia tự xưng, cung cấp các khóa học và hội thảo đáng ngờ. Ví dụ, các buổi hội thảo hứa hẹn “thu nhập đảm bảo” từ đầu tư tiền mã hóa sau khi hoàn thành khóa học, thường chỉ là những nỗ lực để lấy tiền từ các nhà đầu tư thiếu kính thức. Ví dụ và hậu quả của giáo dục kém chất lượng Sự lan truyền của các thực hành sai trái, tổn thất tài chính của học viên của các “khóa học” này, và sự suy giảm nhận thức chung về ngành tiền mã hóa như một lĩnh vực nghiêm túc và đáng tin cậy cho đầu tư và nghề nghiệp chỉ là một vài trong số những hậu quả tiêu cực. Khi các ngành công nghiệp mới phát triển, nguy cơ giáo dục kém chất lượng cũng tăng theo. Điều này đặc biệt liên quan đến các chủ đề phức tạp và liên tục phát triển như tiền mã hóa và blockchain. Những kẻ gian lợi dụng các chủ đề này để bán các khóa học với những hứa hẹn phóng đại. Các dấu hiệu điển hình của các chương trình giáo dục kém chất lượng bao gồm thiếu một giáo trình rõ ràng, quảng cáo phóng đại, và thiếu các đánh giá độc lập và phản hồi tiêu cực. Các khóa học chất lượng có các mục tiêu được định rõ và một cách tiếp cận có cấu trúc, cho phép học viên nâng cao kiến thức từng bước. Hãy cẩn thận với các khóa học tập trung nhiều vào quảng cáo quá đà với những hứa hẹn thành công nhanh chóng và thu nhập khổng lồ. Quan trọng là tiếp cận việc lựa chọn các chương trình giáo dục trong ngành tiền mã hóa một cách cẩn trọng, tìm kiếm các nguồn thông tin đã được kiểm chứng và không tin vào các hứa hẹn về kết quả dễ dàng. Phát triển và tầm quan trọng của giáo dục tiền mã hóa Ngành tiền mã hóa cần những chuyên gia có trình độ. Nhiều yếu tố góp phần vào sự thiếu hụt kiến thức như vậy và những người sở hữu nó. Ví dụ, Cơ quan Ngân hàng Châu Âu (EBA) và Ủy ban Chứng khoán và Giao dịch Hoa Kỳ (SEC) đã nêu rõ vấn đề về sự thiếu hụt chuyên gia tiền mã hóa. Có nhu cầu mạnh mẽ về giáo dục tiền mã hóa từ người dùng, đặc biệt là những người đã tham gia vào lĩnh vực tiền mã hóa. Theo một cuộc khảo sát của Study.com với 800 phụ huynh Mỹ và 200 sinh viên tốt nghiệp đại học, 86% sinh viên tốt nghiệp tin rằng họ sẽ kiếm được nhiều tiền hơn nếu có kiến thức chính thức về tiền mã hóa và công nghệ mới thay vì bằng đại học. Các bậc phụ huynh cũng tin rằng giáo dục tiền mã hóa nên bắt đầu từ cấp trung học. Một cột mốc quan trọng trong giáo dục tiền mã hóa là sự xuất hiện của khóa học Bitcoin và Công nghệ Tiền mã hóa của Đại học Princeton, có sẵn trên nền tảng trực tuyến Coursera từ năm 2015. Khóa học, do Arvind Narayanan và những người khác phát triển, là một trong những nỗ lực có hệ thống đầu tiên nhằm dạy học viên những kiến thức cơ bản về tiền mã hóa và công nghệ blockchain. Giáo dục tiền mã hóa hiện đại vẫn là một lĩnh vực đang phát triển và bao gồm các chủ đề từ cơ bản về công nghệ blockchain đến nghiên cứu chuyên sâu về mật mã học, kinh tế học và quản lý dữ liệu. Các nền tảng như Udemy, Pluralsight và Khan Academy cung cấp các khóa học cho cả người mới bắt đầu và người dùng nâng cao. Tuy nhiên, chất lượng và nội dung của các khóa học này có thể khác nhau đáng kể, do đó việc lựa chọn một chương trình giáo dục cần được thực hiện một cách cẩn trọng và suy xét. Tác động đến giáo dục và xã hội Một số chuyên gia sẽ cần phải có một nền giáo dục cơ bản — một bằng đại học trong một lĩnh vực liên quan, ngay cả khi nó không liên quan đến tiền mã hóa. Hiện vẫn còn ít các chương trình đại học về tiền mã hóa, nhưng những nỗ lực đáng chú ý trong hướng này đang được tiến hành ở Georgia. Năm ngoái, Binance Charity và GITA đã mở đơn đăng ký cho một chương trình giáo dục miễn phí về blockchain. Mục tiêu của dự án là thúc đẩy các hoạt động đổi mới trong các doanh nghiệp nhỏ và vừa (MSME) và cá nhân ở Georgia, và sự tham gia của họ vào nền kinh tế kỹ thuật số. Đặc biệt chú trọng đến giáo dục cho phụ nữ như một phần của cam kết của Binance nhằm xây dựng và tài trợ cho giáo dục Web3 cho phụ nữ. Binance Academy, một nền tảng giáo dục về blockchain và tiền mã hóa, đã tồn tại từ năm 2018. Nó có hơn 800 bài viết và từ điển, các khóa học về blockchain, tiền mã hóa, Web3, và nhiều hơn nữa. Nó cung cấp quyền truy cập vào các khóa học cho hàng triệu học viên trên toàn thế giới bằng hơn 30 ngôn ngữ. Các tài liệu giáo dục được cấu trúc đúng cách và mối quan hệ dựa trên niềm tin với khán giả có thể đóng góp vào sự phát triển lành mạnh của ngành. Tuy nhiên, một số chuyên gia tự xưng lợi dụng vị trí của mình để quảng bá các khóa học kém chất lượng hoặc tệ hơn, các sơ đồ lừa đảo. Điều làm cho giáo dục tiền mã hóa hấp dẫn đối với các “chuyên gia” giả là tính mới tương đối và sự quan tâm công chúng cao, khiến lĩnh vực giáo dục này dễ bị khai thác. Danh sách kiểm tra: cách chọn giáo dục chất lượng – Xác định mục tiêu học tập của bạn. Bắt đầu bằng cách xác định kỳ vọng của bạn để không bị lừa bởi những hứa hẹn làm giàu nhanh chóng. – Nghiên cứu lý lịch của các chuyên gia. Các chuyên gia đáng tin cậy thường có nhiều kinh nghiệm trong ngành tiền mã hóa và một nền tảng giáo dục vững chắc. – Kiểm tra đánh giá và danh tiếng của khóa học. Tìm kiếm các đánh giá độc lập và phân tích các trường hợp thực tế. – Minh bạch và khả dụng của tài liệu. Các khóa học chất lượng thường cung cấp tài liệu mẫu hoặc mô tả khóa học rõ ràng. Giáo dục tiền mã hóa không chỉ là một cơ hội để nắm vững kiến thức mới mà còn là một lĩnh vực dễ bị lừa đảo. Chọn các khóa học giáo dục đúng đắn và đánh giá thông tin một cách phê phán sẽ giúp bạn tránh được sai lầm và làm cho trải nghiệm học tập của bạn thực sự có giá trị.

Cách Chọn Lựa Giáo Dục Tiền Mã Hóa Chất Lượng Và Tránh Lừa Đảo

Trong bối cảnh tiền mã hóa và blockchain ngày càng trở nên quan trọng, việc nắm vững kiến thức chất lượng là vô cùng cần thiết. Ngành công nghiệp phát triển nhanh chóng này thường thu hút những kẻ lừa đảo. Hãy cùng tìm hiểu cách nhận biết và tiếp thu kiến thức đáng tin cậy về tiền mã hóa và tránh rơi vào bẫy của những kẻ gian lận.

Ngành công nghiệp mới nổi và rủi ro từ giáo dục kém chất lượng

Ngành tiền mã hóa không ngừng phát triển, thu hút vốn và nhân tài vào các phân khúc mới. Web 3.0 hướng tới việc sử dụng blockchain để tạo ra các ứng dụng và dịch vụ phi tập trung. Việc mã hóa tài sản thực (RWA) đang diễn ra, nơi các công ty phát hành token kỹ thuật số đại diện cho các tài sản thực như kim loại quý, cho phép nhà đầu tư tham gia vào nền kinh tế tài sản ở một cấp độ mới. Hơn nữa, các tổ chức tự trị phi tập trung (DAO) đang thúc đẩy các quy trình dân chủ trong quản lý dự án.

Sự gia tăng nhanh chóng của tiền mã hóa và sự hiểu biết hạn chế về cơ chế của nó đã khiến nhiều người tìm kiếm sự giàu có qua công cụ mới này. Cùng với các dịch vụ hợp pháp, những lời đề nghị và sản phẩm lừa đảo cũng xuất hiện. Những kẻ gian lừa khách hàng bằng những điều kiện hấp dẫn và hứa hẹn làm giàu nhanh chóng, tương tự như các sơ đồ Ponzi trong các tổ chức tài chính.

Một hậu quả liên quan và không kém phần quan trọng của sự phổ biến của tiền mã hóa là sự nổi lên của các “chuyên gia internet”. Sự bùng nổ quan tâm đến tiền mã hóa đã thu hút nhiều chuyên gia tự xưng, cung cấp các khóa học và hội thảo đáng ngờ. Ví dụ, các buổi hội thảo hứa hẹn “thu nhập đảm bảo” từ đầu tư tiền mã hóa sau khi hoàn thành khóa học, thường chỉ là những nỗ lực để lấy tiền từ các nhà đầu tư thiếu kính thức.

Ví dụ và hậu quả của giáo dục kém chất lượng

Sự lan truyền của các thực hành sai trái, tổn thất tài chính của học viên của các “khóa học” này, và sự suy giảm nhận thức chung về ngành tiền mã hóa như một lĩnh vực nghiêm túc và đáng tin cậy cho đầu tư và nghề nghiệp chỉ là một vài trong số những hậu quả tiêu cực. Khi các ngành công nghiệp mới phát triển, nguy cơ giáo dục kém chất lượng cũng tăng theo. Điều này đặc biệt liên quan đến các chủ đề phức tạp và liên tục phát triển như tiền mã hóa và blockchain. Những kẻ gian lợi dụng các chủ đề này để bán các khóa học với những hứa hẹn phóng đại.

Các dấu hiệu điển hình của các chương trình giáo dục kém chất lượng bao gồm thiếu một giáo trình rõ ràng, quảng cáo phóng đại, và thiếu các đánh giá độc lập và phản hồi tiêu cực. Các khóa học chất lượng có các mục tiêu được định rõ và một cách tiếp cận có cấu trúc, cho phép học viên nâng cao kiến thức từng bước. Hãy cẩn thận với các khóa học tập trung nhiều vào quảng cáo quá đà với những hứa hẹn thành công nhanh chóng và thu nhập khổng lồ.

Quan trọng là tiếp cận việc lựa chọn các chương trình giáo dục trong ngành tiền mã hóa một cách cẩn trọng, tìm kiếm các nguồn thông tin đã được kiểm chứng và không tin vào các hứa hẹn về kết quả dễ dàng.

Phát triển và tầm quan trọng của giáo dục tiền mã hóa

Ngành tiền mã hóa cần những chuyên gia có trình độ. Nhiều yếu tố góp phần vào sự thiếu hụt kiến thức như vậy và những người sở hữu nó. Ví dụ, Cơ quan Ngân hàng Châu Âu (EBA) và Ủy ban Chứng khoán và Giao dịch Hoa Kỳ (SEC) đã nêu rõ vấn đề về sự thiếu hụt chuyên gia tiền mã hóa. Có nhu cầu mạnh mẽ về giáo dục tiền mã hóa từ người dùng, đặc biệt là những người đã tham gia vào lĩnh vực tiền mã hóa.

Theo một cuộc khảo sát của Study.com với 800 phụ huynh Mỹ và 200 sinh viên tốt nghiệp đại học, 86% sinh viên tốt nghiệp tin rằng họ sẽ kiếm được nhiều tiền hơn nếu có kiến thức chính thức về tiền mã hóa và công nghệ mới thay vì bằng đại học. Các bậc phụ huynh cũng tin rằng giáo dục tiền mã hóa nên bắt đầu từ cấp trung học.

Một cột mốc quan trọng trong giáo dục tiền mã hóa là sự xuất hiện của khóa học Bitcoin và Công nghệ Tiền mã hóa của Đại học Princeton, có sẵn trên nền tảng trực tuyến Coursera từ năm 2015. Khóa học, do Arvind Narayanan và những người khác phát triển, là một trong những nỗ lực có hệ thống đầu tiên nhằm dạy học viên những kiến thức cơ bản về tiền mã hóa và công nghệ blockchain.

Giáo dục tiền mã hóa hiện đại vẫn là một lĩnh vực đang phát triển và bao gồm các chủ đề từ cơ bản về công nghệ blockchain đến nghiên cứu chuyên sâu về mật mã học, kinh tế học và quản lý dữ liệu. Các nền tảng như Udemy, Pluralsight và Khan Academy cung cấp các khóa học cho cả người mới bắt đầu và người dùng nâng cao. Tuy nhiên, chất lượng và nội dung của các khóa học này có thể khác nhau đáng kể, do đó việc lựa chọn một chương trình giáo dục cần được thực hiện một cách cẩn trọng và suy xét.

Tác động đến giáo dục và xã hội

Một số chuyên gia sẽ cần phải có một nền giáo dục cơ bản — một bằng đại học trong một lĩnh vực liên quan, ngay cả khi nó không liên quan đến tiền mã hóa. Hiện vẫn còn ít các chương trình đại học về tiền mã hóa, nhưng những nỗ lực đáng chú ý trong hướng này đang được tiến hành ở Georgia.

Năm ngoái, Binance Charity và GITA đã mở đơn đăng ký cho một chương trình giáo dục miễn phí về blockchain. Mục tiêu của dự án là thúc đẩy các hoạt động đổi mới trong các doanh nghiệp nhỏ và vừa (MSME) và cá nhân ở Georgia, và sự tham gia của họ vào nền kinh tế kỹ thuật số. Đặc biệt chú trọng đến giáo dục cho phụ nữ như một phần của cam kết của Binance nhằm xây dựng và tài trợ cho giáo dục Web3 cho phụ nữ.

Binance Academy, một nền tảng giáo dục về blockchain và tiền mã hóa, đã tồn tại từ năm 2018. Nó có hơn 800 bài viết và từ điển, các khóa học về blockchain, tiền mã hóa, Web3, và nhiều hơn nữa. Nó cung cấp quyền truy cập vào các khóa học cho hàng triệu học viên trên toàn thế giới bằng hơn 30 ngôn ngữ.

Các tài liệu giáo dục được cấu trúc đúng cách và mối quan hệ dựa trên niềm tin với khán giả có thể đóng góp vào sự phát triển lành mạnh của ngành. Tuy nhiên, một số chuyên gia tự xưng lợi dụng vị trí của mình để quảng bá các khóa học kém chất lượng hoặc tệ hơn, các sơ đồ lừa đảo. Điều làm cho giáo dục tiền mã hóa hấp dẫn đối với các “chuyên gia” giả là tính mới tương đối và sự quan tâm công chúng cao, khiến lĩnh vực giáo dục này dễ bị khai thác.

Danh sách kiểm tra: cách chọn giáo dục chất lượng

– Xác định mục tiêu học tập của bạn. Bắt đầu bằng cách xác định kỳ vọng của bạn để không bị lừa bởi những hứa hẹn làm giàu nhanh chóng.

– Nghiên cứu lý lịch của các chuyên gia. Các chuyên gia đáng tin cậy thường có nhiều kinh nghiệm trong ngành tiền mã hóa và một nền tảng giáo dục vững chắc.

– Kiểm tra đánh giá và danh tiếng của khóa học. Tìm kiếm các đánh giá độc lập và phân tích các trường hợp thực tế.

– Minh bạch và khả dụng của tài liệu. Các khóa học chất lượng thường cung cấp tài liệu mẫu hoặc mô tả khóa học rõ ràng.

Giáo dục tiền mã hóa không chỉ là một cơ hội để nắm vững kiến thức mới mà còn là một lĩnh vực dễ bị lừa đảo. Chọn các khóa học giáo dục đúng đắn và đánh giá thông tin một cách phê phán sẽ giúp bạn tránh được sai lầm và làm cho trải nghiệm học tập của bạn thực sự có giá trị.
Переклад
Anthropic Và Chiến Lược “đội Đỏ” Trong Lĩnh Vực Bảo Mật AIAnthropic cùng nhiều ông lớn công nghệ khác đang thành lập “đội đỏ” (Red teaming) nhằm vá lỗi bảo mật, ngăn chặn nguy cơ mô hình bị lợi dụng cho mục đích xấu. Trong tuần, Anthropic đã phát hành hướng dẫn về “đội đỏ”, gia nhập nhóm các nhà cung cấp như Google, Microsoft, NIST, NVIDIA và OpenAI, những đơn vị cũng đã phát hành các khung tương tự. Mục tiêu của các khung này là xác định và khắc phục các lỗ hổng an ninh đang ngày càng gia tăng trong các mô hình trí tuệ nhân tạo (AI). Phương án “đội đỏ” đang chứng tỏ hiệu quả trong việc phát hiện các lỗ hổng an ninh mà các phương pháp bảo mật khác không thể nhìn thấy, giúp các công ty AI tránh việc mô hình của họ bị sử dụng để tạo ra nội dung không mong muốn. Mục tiêu và tầm quan trọng của chiến lược “đội đỏ” trong lĩnh vực AI Nỗi lo ngại về nguy cơ bảo mật từ các mô hình AI đang ngày càng gia tăng, thúc đẩy các nhà hoạch định chính sách tìm kiếm giải pháp cho một nền tảng AI an toàn, đáng tin cậy. Sắc lệnh (EO) về AI An toàn, Bảo mật và Đáng tin cậy (14110) được Tổng thống Biden ký ban hành vào ngày 30/10/2018, đã chỉ đạo NIST thiết lập các hướng dẫn, quy trình phù hợp cho phép các nhà phát triển AI, đặc biệt với mô hình nền tảng sử dụng khép, tiến hành “kiểm nghiệm mô hình AI” – cũng chính là phương án “đội đỏ” AI, nhằm triển khai hệ thống AI an toàn, đáng tin cậy. NIST đã phát hành hai ấn phẩm dự thảo vào cuối tháng 4 để giúp quản lý rủi ro của AI tạo sinh. Các tài liệu này là tài nguyên bổ sung cho Khung quản lý Rủi ro AI (AI RMF) và Khung Phát triển Phần mềm Bảo mật (SSDF). Văn phòng Bảo mật Thông tin Liên bang Đức (BSI) cung cấp chiến lược “đội đỏ” như một phần của khung IT-Grundschutz rộng lớn hơn của họ. Australia, Canada, Liên minh Châu Âu, Nhật Bản, Hà Lan và Singapore cũng có các khung nổi bật. Nghị viện Châu Âu đã thông qua Đạo luật Trí tuệ Nhân tạo EU vào tháng 3 năm nay. Khái niệm về “đội đỏ” AI Thực tế, mô hình đội đỏ đã xuất hiện từ những năm 1960, khi các cuộc tấn công đối nghịch được tạo ra theo dạng mô phỏng nhằm đảm bảo hệ thống máy tính hoạt động ổn định. “Trong máy tính, không có khái niệm ‘an toàn’. Thay vào đó, những gì kỹ sư có thể nói là: chúng tôi đã cố gắng nhưng chưa phá vỡ được nó”, Bruce Schneier, chuyên gia bảo mật và là thành viên tại Trung tâm nghiên cứu Berkman Klein thuộc Đại học Harvard, nói. Ngày nay, “đội đỏ” còn được biết đến như một kỹ thuật kiểm tra các mô hình AI bằng cách mô phỏng các cuộc tấn công đa dạng và không thể đoán trước, nhằm xác định các điểm mạnh và yếu của chúng. Vì các mô hình AI tạo sinh được huấn luyện trên kho dữ liệu khổng lồ, các phương pháp bảo mật truyền thống rất khó tra ra lỗ hổng. Nhưng giống như bất kỳ phần mềm máy tính nào, các mô hình này vẫn có chung các lỗ hổng mạng: chúng có thể bị tấn công bởi những kẻ bất chính để đạt được nhiều mục tiêu khác nhau, bao quát việc đưa ra những câu trả lời gây hại, nội dung khiêu dâm, sử dụng tài liệu có bản quyền một cách bất hợp pháp hay để lộ những thông tin dạng cá nhân như tên, địa chỉ và số điện thoại. Mục tiêu của chiến lược là thúc đẩy các mô hình phản ứng và nói ra những điều chưa được lập trình sẵn để làm, bao quát cả việc bộc lộ thành kiến. Trong đó, các thành viên trong “đội đỏ” sẽ sử dụng các mô hình ngôn ngữ lớn (LLM) để tự động hóa việc tạo lệnh và kịch bản tấn công nhằm tìm và sửa chữa các điểm yếu của mô hình AI tạo sinh ở quy mô lớn. Ví dụ: Google sử dụng đội đỏ để bảo vệ các mô hình AI khỏi các mối đe dọa như tấn công tiêm nhiễm prompt, tấn công đầu độc dữ liệu và backdoor. Khi các lỗ hổng như vậy được xác định, họ có thể thu hẹp lỗi trong phần mềm và cải thiện chúng. Giá trị của chiến lược “đội đỏ” trong việc cải thiện an ninh mô hình AI tiếp tục được chứng minh trong các cuộc thi trên toàn ngành. Vào năm ngoái, DEF CON – hội nghị hacker lớn nhất thế giới – đã tổ chức cuộc thi Generative Red Team (GRT) đầu tiên, được coi là một trong những thành công lớn trong việc sử dụng kỹ thuật crowdsourcing. Các mô hình được cung cấp bởi Anthropic, Cohere, Google, Hugging Face, Meta, Nvidia, OpenAI và Stability. Người tham gia thử nghiệm các mô hình trên một nền tảng đánh giá do Scale AI phát triển. Chiến lược “đội đỏ” AI của Anthropic Khi công bố các phương pháp của mình, Anthropic nhấn mạnh sự cần thiết của các quy trình kiểm tra hệ thống hóa và tiêu chuẩn hóa có thể mở rộng. Theo công ty, sự thiếu hụt các tiêu chuẩn chung chính là rào cản lớn cho quá trình kiểm nghiệm mô hình AI trên toàn ngành Anthropic cũng đồng thời đề xuất bốn phương pháp kiểm nghiệm chính: kiểm nghiệm bởi chuyên gia theo lĩnh vực, sử dụng mô hình ngôn ngữ để kiểm nghiệm, kiểm nghiệm trong các phương thức mới và kiểm nghiệm mở chung. Điểm đáng chú ý trong cách tiếp cận của Anthropic là sự kết hợp nhuần nhuyễn giữa hiểu biết sâu rộng của con người và kết quả định lượng từ các kỹ thuật kiểm nghiệm. Điển hình như việc Anthropic chú trọng đến vai trò của nhóm chuyên gia theo lĩnh vực, đồng thời ưu tiên áp dụng Kiểm tra Lỗ hổng Chính sách (PVT) – kỹ thuật định tính giúp xác định và triển khai biện pháp bảo vệ an ninh, đặc biệt là trong các lĩnh vực nhạy cảm dễ bị lợi dụng như can thiệp bầu cử, kích động thù địch, nội dung khiêu dâm,… Giống như nhiều công ty công nghệ khác, Anthropic đang hướng đến tự động hóa quy trình kiểm tra bằng cách sử dụng chính các mô hình AI thực hiện các cuộc tấn công mô phỏng ngẫu nhiên, từ đó phát hiện lỗ hổng. “Chúng tôi tin rằng, khi mô hình AI càng mạnh mẽ, chúng càng có thể hỗ trợ đắc lực cho con người trong việc kiểm tra, tự động hóa quy trình kiểm nghiệm”, Anthropic chia sẻ. Dựa trên mô hình nhóm đỏ/nhóm xanh, Anthropic sử dụng các mô hình tấn công, “khiêu khích” mô hình AI mục tiêu thực hiện hành vi mong muốn, từ đó thu thập dữ liệu và điều chỉnh, củng cố hệ thống. Một trong những lĩnh vực then chốt và cũng đầy thách thức mà Anthropic đang theo đuổi chính là kiểm nghiệm đa phương thức. Việc kiểm tra các mô hình AI bằng hình ảnh và âm thanh phức tạp hơn rất nhiều so với văn bản, bởi lẽ kẻ tấn công hoàn toàn có thể “trá hình” mã độc trong hình ảnh, âm thanh, qua mặt hệ thống bảo mật. Minh chứng là dòng mô hình Claude 3 của Anthropic, trước khi ra mắt đã phải trải qua quy trình kiểm tra gắt gao về khả năng xử lý thông tin đa phương tiện, nhằm giảm thiểu các rủi ro tiềm ẩn như lừa đảo, kích động thù địch, hay đe dọa an toàn trẻ em. Kết luận Có thể nói, việc kiểm nghiệm mô hình AI đang dần cho thấy vị thế là lớp lá chắn quan trọng, bảo vệ cho sự phát triển bền vững của ngành công nghiệp AI. Sự tham gia của các tập đoàn công nghệ hàng đầu cùng các cơ quan chính phủ cho thấy nỗ lực chung tay kiến tạo một khung pháp lý, kỹ thuật vững chắc, mở ra tương lai cho AI phát triển thịnh vượng nhưng vẫn đảm bảo an toàn và trách nhiệm.

Anthropic Và Chiến Lược “đội Đỏ” Trong Lĩnh Vực Bảo Mật AI

Anthropic cùng nhiều ông lớn công nghệ khác đang thành lập “đội đỏ” (Red teaming) nhằm vá lỗi bảo mật, ngăn chặn nguy cơ mô hình bị lợi dụng cho mục đích xấu.

Trong tuần, Anthropic đã phát hành hướng dẫn về “đội đỏ”, gia nhập nhóm các nhà cung cấp như Google, Microsoft, NIST, NVIDIA và OpenAI, những đơn vị cũng đã phát hành các khung tương tự. Mục tiêu của các khung này là xác định và khắc phục các lỗ hổng an ninh đang ngày càng gia tăng trong các mô hình trí tuệ nhân tạo (AI).

Phương án “đội đỏ” đang chứng tỏ hiệu quả trong việc phát hiện các lỗ hổng an ninh mà các phương pháp bảo mật khác không thể nhìn thấy, giúp các công ty AI tránh việc mô hình của họ bị sử dụng để tạo ra nội dung không mong muốn.

Mục tiêu và tầm quan trọng của chiến lược “đội đỏ” trong lĩnh vực AI

Nỗi lo ngại về nguy cơ bảo mật từ các mô hình AI đang ngày càng gia tăng, thúc đẩy các nhà hoạch định chính sách tìm kiếm giải pháp cho một nền tảng AI an toàn, đáng tin cậy. Sắc lệnh (EO) về AI An toàn, Bảo mật và Đáng tin cậy (14110) được Tổng thống Biden ký ban hành vào ngày 30/10/2018, đã chỉ đạo NIST thiết lập các hướng dẫn, quy trình phù hợp cho phép các nhà phát triển AI, đặc biệt với mô hình nền tảng sử dụng khép, tiến hành “kiểm nghiệm mô hình AI” – cũng chính là phương án “đội đỏ” AI, nhằm triển khai hệ thống AI an toàn, đáng tin cậy.

NIST đã phát hành hai ấn phẩm dự thảo vào cuối tháng 4 để giúp quản lý rủi ro của AI tạo sinh. Các tài liệu này là tài nguyên bổ sung cho Khung quản lý Rủi ro AI (AI RMF) và Khung Phát triển Phần mềm Bảo mật (SSDF).

Văn phòng Bảo mật Thông tin Liên bang Đức (BSI) cung cấp chiến lược “đội đỏ” như một phần của khung IT-Grundschutz rộng lớn hơn của họ. Australia, Canada, Liên minh Châu Âu, Nhật Bản, Hà Lan và Singapore cũng có các khung nổi bật. Nghị viện Châu Âu đã thông qua Đạo luật Trí tuệ Nhân tạo EU vào tháng 3 năm nay.

Khái niệm về “đội đỏ” AI

Thực tế, mô hình đội đỏ đã xuất hiện từ những năm 1960, khi các cuộc tấn công đối nghịch được tạo ra theo dạng mô phỏng nhằm đảm bảo hệ thống máy tính hoạt động ổn định. “Trong máy tính, không có khái niệm ‘an toàn’. Thay vào đó, những gì kỹ sư có thể nói là: chúng tôi đã cố gắng nhưng chưa phá vỡ được nó”, Bruce Schneier, chuyên gia bảo mật và là thành viên tại Trung tâm nghiên cứu Berkman Klein thuộc Đại học Harvard, nói.

Ngày nay, “đội đỏ” còn được biết đến như một kỹ thuật kiểm tra các mô hình AI bằng cách mô phỏng các cuộc tấn công đa dạng và không thể đoán trước, nhằm xác định các điểm mạnh và yếu của chúng. Vì các mô hình AI tạo sinh được huấn luyện trên kho dữ liệu khổng lồ, các phương pháp bảo mật truyền thống rất khó tra ra lỗ hổng.

Nhưng giống như bất kỳ phần mềm máy tính nào, các mô hình này vẫn có chung các lỗ hổng mạng: chúng có thể bị tấn công bởi những kẻ bất chính để đạt được nhiều mục tiêu khác nhau, bao quát việc đưa ra những câu trả lời gây hại, nội dung khiêu dâm, sử dụng tài liệu có bản quyền một cách bất hợp pháp hay để lộ những thông tin dạng cá nhân như tên, địa chỉ và số điện thoại. Mục tiêu của chiến lược là thúc đẩy các mô hình phản ứng và nói ra những điều chưa được lập trình sẵn để làm, bao quát cả việc bộc lộ thành kiến.

Trong đó, các thành viên trong “đội đỏ” sẽ sử dụng các mô hình ngôn ngữ lớn (LLM) để tự động hóa việc tạo lệnh và kịch bản tấn công nhằm tìm và sửa chữa các điểm yếu của mô hình AI tạo sinh ở quy mô lớn.

Ví dụ: Google sử dụng đội đỏ để bảo vệ các mô hình AI khỏi các mối đe dọa như tấn công tiêm nhiễm prompt, tấn công đầu độc dữ liệu và backdoor. Khi các lỗ hổng như vậy được xác định, họ có thể thu hẹp lỗi trong phần mềm và cải thiện chúng.

Giá trị của chiến lược “đội đỏ” trong việc cải thiện an ninh mô hình AI tiếp tục được chứng minh trong các cuộc thi trên toàn ngành. Vào năm ngoái, DEF CON – hội nghị hacker lớn nhất thế giới – đã tổ chức cuộc thi Generative Red Team (GRT) đầu tiên, được coi là một trong những thành công lớn trong việc sử dụng kỹ thuật crowdsourcing.

Các mô hình được cung cấp bởi Anthropic, Cohere, Google, Hugging Face, Meta, Nvidia, OpenAI và Stability. Người tham gia thử nghiệm các mô hình trên một nền tảng đánh giá do Scale AI phát triển.

Chiến lược “đội đỏ” AI của Anthropic

Khi công bố các phương pháp của mình, Anthropic nhấn mạnh sự cần thiết của các quy trình kiểm tra hệ thống hóa và tiêu chuẩn hóa có thể mở rộng. Theo công ty, sự thiếu hụt các tiêu chuẩn chung chính là rào cản lớn cho quá trình kiểm nghiệm mô hình AI trên toàn ngành

Anthropic cũng đồng thời đề xuất bốn phương pháp kiểm nghiệm chính: kiểm nghiệm bởi chuyên gia theo lĩnh vực, sử dụng mô hình ngôn ngữ để kiểm nghiệm, kiểm nghiệm trong các phương thức mới và kiểm nghiệm mở chung.

Điểm đáng chú ý trong cách tiếp cận của Anthropic là sự kết hợp nhuần nhuyễn giữa hiểu biết sâu rộng của con người và kết quả định lượng từ các kỹ thuật kiểm nghiệm. Điển hình như việc Anthropic chú trọng đến vai trò của nhóm chuyên gia theo lĩnh vực, đồng thời ưu tiên áp dụng Kiểm tra Lỗ hổng Chính sách (PVT) – kỹ thuật định tính giúp xác định và triển khai biện pháp bảo vệ an ninh, đặc biệt là trong các lĩnh vực nhạy cảm dễ bị lợi dụng như can thiệp bầu cử, kích động thù địch, nội dung khiêu dâm,…

Giống như nhiều công ty công nghệ khác, Anthropic đang hướng đến tự động hóa quy trình kiểm tra bằng cách sử dụng chính các mô hình AI thực hiện các cuộc tấn công mô phỏng ngẫu nhiên, từ đó phát hiện lỗ hổng. “Chúng tôi tin rằng, khi mô hình AI càng mạnh mẽ, chúng càng có thể hỗ trợ đắc lực cho con người trong việc kiểm tra, tự động hóa quy trình kiểm nghiệm”, Anthropic chia sẻ.

Dựa trên mô hình nhóm đỏ/nhóm xanh, Anthropic sử dụng các mô hình tấn công, “khiêu khích” mô hình AI mục tiêu thực hiện hành vi mong muốn, từ đó thu thập dữ liệu và điều chỉnh, củng cố hệ thống.

Một trong những lĩnh vực then chốt và cũng đầy thách thức mà Anthropic đang theo đuổi chính là kiểm nghiệm đa phương thức. Việc kiểm tra các mô hình AI bằng hình ảnh và âm thanh phức tạp hơn rất nhiều so với văn bản, bởi lẽ kẻ tấn công hoàn toàn có thể “trá hình” mã độc trong hình ảnh, âm thanh, qua mặt hệ thống bảo mật. Minh chứng là dòng mô hình Claude 3 của Anthropic, trước khi ra mắt đã phải trải qua quy trình kiểm tra gắt gao về khả năng xử lý thông tin đa phương tiện, nhằm giảm thiểu các rủi ro tiềm ẩn như lừa đảo, kích động thù địch, hay đe dọa an toàn trẻ em.

Kết luận

Có thể nói, việc kiểm nghiệm mô hình AI đang dần cho thấy vị thế là lớp lá chắn quan trọng, bảo vệ cho sự phát triển bền vững của ngành công nghiệp AI. Sự tham gia của các tập đoàn công nghệ hàng đầu cùng các cơ quan chính phủ cho thấy nỗ lực chung tay kiến tạo một khung pháp lý, kỹ thuật vững chắc, mở ra tương lai cho AI phát triển thịnh vượng nhưng vẫn đảm bảo an toàn và trách nhiệm.
Переклад
Perplexity bắt Tay SoftBank, Mở Rộng Thị Trường Nhật BảnCông cụ tìm kiếm AI Perplexity đã chính thức hợp tác với SoftBank, cung cấp gói thuê bao miễn phí một năm cho dịch vụ Perplexity Pro tại Nhật Bản, nhằm tiếp cận lượng người dùng khổng lồ tại thị trường này.  Bắt đầu từ ngày 19/6, SoftBank cùng hai công ty con Y!mobile và LINEMO sẽ cung cấp gói miễn phí này, giúp Perplexity mở rộng thị phần và cạnh tranh với các “ông lớn” như Google. Đây là bước đi chiến lược của Perplexity sau khi công bố quan hệ đối tác với SoftBank vào tháng 4. Việc hợp tác này không chỉ giúp SoftBank thu hút người dùng quan tâm đến AI mà còn mở ra cơ hội tăng khách hàng và doanh thu. SoftBank từ lâu đã nổi tiếng với tầm nhìn chiến lược trong lĩnh vực công nghệ. Tập đoàn này không chỉ rót vốn đầu tưvào các startup AI tiềm năng, mà còn chủ động phát triển các dự án AI của riêng mình. Với Perplexity Pro, người dùng có thể trải nghiệm phiên bản nâng cao của Perplexity với nhiều tính năng vượt trội như lựa chọn LLM mới nhất để tìm kiếm thông tin toàn diện, xử lý dữ liệu hiệu quả hơn, tạo hình ảnh chất lượng cao và AI Profile – cá nhân hóa kết quả tìm kiếm. Hiện tại, ứng dụng Perplexity Pro trên iOS có giá 3.000 yên/tháng và 30.000 yên/năm. Phiên bản web có giá 20 USD/tháng và 200 USD/năm.

Perplexity bắt Tay SoftBank, Mở Rộng Thị Trường Nhật Bản

Công cụ tìm kiếm AI Perplexity đã chính thức hợp tác với SoftBank, cung cấp gói thuê bao miễn phí một năm cho dịch vụ Perplexity Pro tại Nhật Bản, nhằm tiếp cận lượng người dùng khổng lồ tại thị trường này. 

Bắt đầu từ ngày 19/6, SoftBank cùng hai công ty con Y!mobile và LINEMO sẽ cung cấp gói miễn phí này, giúp Perplexity mở rộng thị phần và cạnh tranh với các “ông lớn” như Google.

Đây là bước đi chiến lược của Perplexity sau khi công bố quan hệ đối tác với SoftBank vào tháng 4. Việc hợp tác này không chỉ giúp SoftBank thu hút người dùng quan tâm đến AI mà còn mở ra cơ hội tăng khách hàng và doanh thu.

SoftBank từ lâu đã nổi tiếng với tầm nhìn chiến lược trong lĩnh vực công nghệ. Tập đoàn này không chỉ rót vốn đầu tưvào các startup AI tiềm năng, mà còn chủ động phát triển các dự án AI của riêng mình.

Với Perplexity Pro, người dùng có thể trải nghiệm phiên bản nâng cao của Perplexity với nhiều tính năng vượt trội như lựa chọn LLM mới nhất để tìm kiếm thông tin toàn diện, xử lý dữ liệu hiệu quả hơn, tạo hình ảnh chất lượng cao và AI Profile – cá nhân hóa kết quả tìm kiếm.

Hiện tại, ứng dụng Perplexity Pro trên iOS có giá 3.000 yên/tháng và 30.000 yên/năm. Phiên bản web có giá 20 USD/tháng và 200 USD/năm.
Переклад
OpenAI Chiêu Mộ Cựu Tư Lệnh an Ninh Mạng MỹNgày 13/6, OpenAI thông báo rằng cựu giám đốc Cơ quan An ninh Quốc gia Mỹ (NSA), tướng Paul Nakasone, sẽ tham gia vào tiểu ban Uỷ ban An toàn AI của Ban giám đốc. Việc bổ nhiệm ông Nakasone, một nhân vật kỳ cựu trong lĩnh vực an ninh quốc gia được xem là nỗ lực của OpenAI nhằm xoa dịu dư luận, đặc biệt là những lo ngại cho rằng công ty đang phát AI quá nhanh chóng mà chưa có biện pháp kiểm soát rủi ro hiệu quả. Tuy nhiên động thái này cũng vấp phải nhiều ý kiến trái chiều. Một số người cho rằng kinh nghiệm của ông Nakasone tại NSA, cơ quan từng vướng vào nhiều bê bối về quyền riêng tư có thể khiến OpenAI đi theo hướng “lấy dữ liệu bằng mọi giá”. Dù vậy, không thể phủ nhận kiến thức và kinh nghiệm an ninh mạng dày dặn trong nhiều thập kỷ trải dài từ Lục quân, Bộ Tư lệnh Không gian mạng và NSA của ông Nakasone. Điều này đặc biệt quan trọng trong bối cảnh OpenAI đang tìm cách cung cấp giải pháp AI cho những lĩnh vực nhạy cảm như quốc phòng, an ninh quốc gia. Trong thông cáo báo chí, OpenAI cho biết ông Nakasone sẽ tham gia vào tiểu ban an toàn và an ninh của ban giám đốc, chịu trách nhiệm “đưa ra các khuyến nghị cho toàn bộ Ban giám đốc về các quyết định an toàn và an ninh quan trọng. Hiện vẫn chưa rõ thực thể mới được ra mắt này sẽ thực hiện những gì và hoạt động ra sao, vì một số thành viên cấp cao đang làm việc về lĩnh vực an toàn (về rủi ro) AI đã rời công ty, và tiểu ban này hiện đang trong giai đoạn đánh giá 90 ngày về các quy trình và biện pháp bảo vệ của công ty. “Chúng tôi tin rằng AI có tiềm năng mang lại những lợi ích đáng kể trong lĩnh vực an ninh mạng cho nhiều tổ chức thường xuyên là mục tiêu của các cuộc tấn công mạng như bệnh viện, trường học và các tổ chức tài chính,” OpenAI cho biết. Việc OpenAI nhắm đến thị trường an ninh mạng là điều dễ hiểu. Theo báo cáo của Cybersecurity Ventures, thiệt hại do tội phạm mạng gây ra trên toàn cầu dự kiến lên tới 10,5 nghìn tỷ USD mỗi năm vào năm 2025. Đây là thị trường màu mỡ cho các công ty công nghệ như OpenAI. Việc bổ nhiệm tướng Paul Nakasone vào ban giám đốc có thể là một bước đi quan trọng của OpenAI, nhằm đảm bảo công ty sẽ tiếp tục phát triển trong sự an toàn và bảo mật, đáp ứng kỳ vọng của khách hàng và cổ đông, đồng thời mở rộng thị trường mới trong lĩnh vực an ninh mạng.

OpenAI Chiêu Mộ Cựu Tư Lệnh an Ninh Mạng Mỹ

Ngày 13/6, OpenAI thông báo rằng cựu giám đốc Cơ quan An ninh Quốc gia Mỹ (NSA), tướng Paul Nakasone, sẽ tham gia vào tiểu ban Uỷ ban An toàn AI của Ban giám đốc.

Việc bổ nhiệm ông Nakasone, một nhân vật kỳ cựu trong lĩnh vực an ninh quốc gia được xem là nỗ lực của OpenAI nhằm xoa dịu dư luận, đặc biệt là những lo ngại cho rằng công ty đang phát AI quá nhanh chóng mà chưa có biện pháp kiểm soát rủi ro hiệu quả.

Tuy nhiên động thái này cũng vấp phải nhiều ý kiến trái chiều. Một số người cho rằng kinh nghiệm của ông Nakasone tại NSA, cơ quan từng vướng vào nhiều bê bối về quyền riêng tư có thể khiến OpenAI đi theo hướng “lấy dữ liệu bằng mọi giá”.

Dù vậy, không thể phủ nhận kiến thức và kinh nghiệm an ninh mạng dày dặn trong nhiều thập kỷ trải dài từ Lục quân, Bộ Tư lệnh Không gian mạng và NSA của ông Nakasone. Điều này đặc biệt quan trọng trong bối cảnh OpenAI đang tìm cách cung cấp giải pháp AI cho những lĩnh vực nhạy cảm như quốc phòng, an ninh quốc gia.

Trong thông cáo báo chí, OpenAI cho biết ông Nakasone sẽ tham gia vào tiểu ban an toàn và an ninh của ban giám đốc, chịu trách nhiệm “đưa ra các khuyến nghị cho toàn bộ Ban giám đốc về các quyết định an toàn và an ninh quan trọng.

Hiện vẫn chưa rõ thực thể mới được ra mắt này sẽ thực hiện những gì và hoạt động ra sao, vì một số thành viên cấp cao đang làm việc về lĩnh vực an toàn (về rủi ro) AI đã rời công ty, và tiểu ban này hiện đang trong giai đoạn đánh giá 90 ngày về các quy trình và biện pháp bảo vệ của công ty.

“Chúng tôi tin rằng AI có tiềm năng mang lại những lợi ích đáng kể trong lĩnh vực an ninh mạng cho nhiều tổ chức thường xuyên là mục tiêu của các cuộc tấn công mạng như bệnh viện, trường học và các tổ chức tài chính,” OpenAI cho biết.

Việc OpenAI nhắm đến thị trường an ninh mạng là điều dễ hiểu. Theo báo cáo của Cybersecurity Ventures, thiệt hại do tội phạm mạng gây ra trên toàn cầu dự kiến lên tới 10,5 nghìn tỷ USD mỗi năm vào năm 2025. Đây là thị trường màu mỡ cho các công ty công nghệ như OpenAI.

Việc bổ nhiệm tướng Paul Nakasone vào ban giám đốc có thể là một bước đi quan trọng của OpenAI, nhằm đảm bảo công ty sẽ tiếp tục phát triển trong sự an toàn và bảo mật, đáp ứng kỳ vọng của khách hàng và cổ đông, đồng thời mở rộng thị trường mới trong lĩnh vực an ninh mạng.
Переклад
Elon Musk Rút Đơn Kiện OpenAISau hơn ba tháng kiện cáo, Elon Musk đã bất ngờ rút đơn kiện OpenAI, cáo buộc công ty này đi ngược sứ mệnh ban đầu để chạy theo lợi nhuận. Quyết định này được xem là một bước ngoặt, mở ra nhiều khả năng cho tương lai của ngành AI và mối quan hệ giữa hai ông lớn công nghệ. Musk, đồng sáng lập OpenAI, đã rời khỏi ban quản trị công ty vào năm 2018 và bày tỏ sự bất mãn với việc OpenAI trở thành một “chi nhánh kín đáo” của Microsoft. Đơn kiện được đệ trình vào tháng Hai nhằm ngăn cản OpenAI và Microsoft khai thác công nghệ AGI của mình vì lợi nhuận cá nhân. Tuy nhiên, sau phản ứng của OpenAI với việc bày tỏ sự tiếc nuối về sự chia rẽ và nhấn mạnh vào những thành công gần đây của ChatGPT, Musk đã quyết định rút đơn kiện. Sự kiện này được giới chuyên gia đánh giá là một dấu hiệu tích cực cho sự hợp tác trong lĩnh vực AI. Thay vì đối đầu, hai gã khổng lồ công nghệ có thể cùng chung tay thúc đẩy sự phát triển của AI vì lợi ích nhân loại, đặc biệt là trong bối cảnh cuộc đua AI đang ngày càng khốc liệt. Động thái này cũng có thể phản ánh một sự thay đổi chiến lược của Elon Musk, tập trung vào việc phát triển AI cho mục đích nhân đạo thông qua công ty xAI của mình. xAI đã nhận được 6 tỷ USD trong vòng gọi vốn Series B vào tháng Năm, khẳng định tham vọng lớn của Musk trong lĩnh vực AI. Sự kiện này cũng cho thấy tầm quan trọng của ChatGPT, sản phẩm đình đám của OpenAI, đã gây tiếng vang lớn trong cộng đồng công nghệ.

Elon Musk Rút Đơn Kiện OpenAI

Sau hơn ba tháng kiện cáo, Elon Musk đã bất ngờ rút đơn kiện OpenAI, cáo buộc công ty này đi ngược sứ mệnh ban đầu để chạy theo lợi nhuận. Quyết định này được xem là một bước ngoặt, mở ra nhiều khả năng cho tương lai của ngành AI và mối quan hệ giữa hai ông lớn công nghệ.

Musk, đồng sáng lập OpenAI, đã rời khỏi ban quản trị công ty vào năm 2018 và bày tỏ sự bất mãn với việc OpenAI trở thành một “chi nhánh kín đáo” của Microsoft. Đơn kiện được đệ trình vào tháng Hai nhằm ngăn cản OpenAI và Microsoft khai thác công nghệ AGI của mình vì lợi nhuận cá nhân.

Tuy nhiên, sau phản ứng của OpenAI với việc bày tỏ sự tiếc nuối về sự chia rẽ và nhấn mạnh vào những thành công gần đây của ChatGPT, Musk đã quyết định rút đơn kiện.

Sự kiện này được giới chuyên gia đánh giá là một dấu hiệu tích cực cho sự hợp tác trong lĩnh vực AI. Thay vì đối đầu, hai gã khổng lồ công nghệ có thể cùng chung tay thúc đẩy sự phát triển của AI vì lợi ích nhân loại, đặc biệt là trong bối cảnh cuộc đua AI đang ngày càng khốc liệt.

Động thái này cũng có thể phản ánh một sự thay đổi chiến lược của Elon Musk, tập trung vào việc phát triển AI cho mục đích nhân đạo thông qua công ty xAI của mình. xAI đã nhận được 6 tỷ USD trong vòng gọi vốn Series B vào tháng Năm, khẳng định tham vọng lớn của Musk trong lĩnh vực AI.

Sự kiện này cũng cho thấy tầm quan trọng của ChatGPT, sản phẩm đình đám của OpenAI, đã gây tiếng vang lớn trong cộng đồng công nghệ.
Переклад
Meta Tạm Ngừng Ra Mắt Trợ Lý AI Ở Châu Âu Meta đã thông báo tạm dừng ra mắt và đào tạo trợ lý AI của mình tại Châu Âu theo yêu cầu của Ủy ban Bảo vệ Dữ liệu Ireland (DPC). Yêu cầu này được đưa ra sau khi DPC, cơ quan quản lý quyền riêng tư hàng đầu của Meta tại EU, yêu cầu công ty tạm dừng đào tạo mô hình ngôn ngữ lớn (LLM) sử dụng dữ liệu công khai do người dùng Facebook và Instagram chia sẻ. Meta cho biết quyết định này khiến họ “thất vọng” và coi đó là “bước lùi” đối với sự cạnh tranh và đổi mới AI ở EU. Tuy nhiên, công ty khẳng định họ tuân thủ các quy định của Châu Âu. DPC đã ủng hộ việc tạm dừng này, cho biết họ “hoan nghênh quyết định” và sẽ tiếp tục hợp tác với Meta sau những “sự tham gia sâu rộng” trước đó. Theo tổ chức phi lợi nhuận về quyền riêng tư ở Châu Âu NOYB, yêu cầu tạm dừng hoạt động của Meta là kết quả của các khiếu nại từ chính họ, và các tổ chức khác như Hội đồng Người tiêu dùng Na Uy và một số cơ quan bảo vệ dữ liệu khác. Vấn đề này đã diễn biến trong nhiều tháng. Meta cho biết họ đã thông báo cho các cơ quan bảo vệ dữ liệu Châu Âu về các hoạt động của mình kể từ tháng 3. Tuy nhiên, tình hình trở nên nghiêm trọng hơn khi Meta bắt đầu thông báo cho người dùng về hoạt động đào tạo AI của mình thông qua hơn hai tỷ thông báo và email trong ứng dụng vào ngày 22/5. NOYB đã gửi khiếu nại tới 11 cơ quan bảo vệ dữ liệu vào ngày 6/6. Meta thừa nhận đã tham vấn với DPC vào ngày 10/6 và cho biết họ đã tích hợp phản hồi để đảm bảo hoạt động đào tạo AI của mình tuân thủ luật AI. Meta lưu ý rằng Google và OpenAI cũng đã sử dụng AI để đào tạo dữ liệu người dùng. Công ty dự kiến sẽ tuân thủ luật Quy định bảo vệ dữ liệu chung (GDPR) của EU trên cơ sở pháp lý về “Lợi ích hợp pháp,” một điều khoản linh hoạt mà các công ty AI khác đã dựa vào. Việc tạm dừng này cho thấy sự phức tạp và thách thức trong việc áp dụng công nghệ AI, đặc biệt trong bối cảnh các quy định bảo vệ dữ liệu ngày càng nghiêm ngặt.

Meta Tạm Ngừng Ra Mắt Trợ Lý AI Ở Châu Âu 

Meta đã thông báo tạm dừng ra mắt và đào tạo trợ lý AI của mình tại Châu Âu theo yêu cầu của Ủy ban Bảo vệ Dữ liệu Ireland (DPC).

Yêu cầu này được đưa ra sau khi DPC, cơ quan quản lý quyền riêng tư hàng đầu của Meta tại EU, yêu cầu công ty tạm dừng đào tạo mô hình ngôn ngữ lớn (LLM) sử dụng dữ liệu công khai do người dùng Facebook và Instagram chia sẻ.

Meta cho biết quyết định này khiến họ “thất vọng” và coi đó là “bước lùi” đối với sự cạnh tranh và đổi mới AI ở EU. Tuy nhiên, công ty khẳng định họ tuân thủ các quy định của Châu Âu.

DPC đã ủng hộ việc tạm dừng này, cho biết họ “hoan nghênh quyết định” và sẽ tiếp tục hợp tác với Meta sau những “sự tham gia sâu rộng” trước đó.

Theo tổ chức phi lợi nhuận về quyền riêng tư ở Châu Âu NOYB, yêu cầu tạm dừng hoạt động của Meta là kết quả của các khiếu nại từ chính họ, và các tổ chức khác như Hội đồng Người tiêu dùng Na Uy và một số cơ quan bảo vệ dữ liệu khác.

Vấn đề này đã diễn biến trong nhiều tháng. Meta cho biết họ đã thông báo cho các cơ quan bảo vệ dữ liệu Châu Âu về các hoạt động của mình kể từ tháng 3.

Tuy nhiên, tình hình trở nên nghiêm trọng hơn khi Meta bắt đầu thông báo cho người dùng về hoạt động đào tạo AI của mình thông qua hơn hai tỷ thông báo và email trong ứng dụng vào ngày 22/5. NOYB đã gửi khiếu nại tới 11 cơ quan bảo vệ dữ liệu vào ngày 6/6.

Meta thừa nhận đã tham vấn với DPC vào ngày 10/6 và cho biết họ đã tích hợp phản hồi để đảm bảo hoạt động đào tạo AI của mình tuân thủ luật AI.

Meta lưu ý rằng Google và OpenAI cũng đã sử dụng AI để đào tạo dữ liệu người dùng. Công ty dự kiến sẽ tuân thủ luật Quy định bảo vệ dữ liệu chung (GDPR) của EU trên cơ sở pháp lý về “Lợi ích hợp pháp,” một điều khoản linh hoạt mà các công ty AI khác đã dựa vào.

Việc tạm dừng này cho thấy sự phức tạp và thách thức trong việc áp dụng công nghệ AI, đặc biệt trong bối cảnh các quy định bảo vệ dữ liệu ngày càng nghiêm ngặt.
Переклад
Luật AI Của Châu Âu Gây Tranh Cãi Về Minh Bạch Dữ LiệuLuật AI mới của Liên minh Châu Âu (EU) sẽ buộc các công ty tiết lộ dữ liệu huấn luyện, tạo nên cuộc tranh cãi lớn về quyền sở hữu trí tuệ. Sự ra đời của ChatGPT đánh dấu cột mốc quan trọng, mở ra kỷ nguyên bùng nổ của AI tạo sinh (Gen AI). Chỉ trong vòng 18 tháng, công nghệ này đã thu hút lượng đầu tư khổng lồ và ứng dụng rộng rãi trong nhiều lĩnh vực. AI tạo sinh là tập hợp các ứng dụng có thể sản xuất nhanh chóng nội dung văn bản, hình ảnh và âm thanh. Tuy nhiên, bên cạnh những lợi ích to lớn, AI tạo sinh cũng đặt ra nhiều vấn đề về mặt pháp lý, đặc biệt là câu chuyện về nguồn gốc dữ liệu huấn luyện, theo Reuters. Nắm bắt được những thách thức này, Liên minh châu Âu (EU) đã tiên phong ban hành Luật AI, dự kiến có hiệu lực trong vòng 2 năm tới. Một trong những điểm đáng chú ý nhất của luật này là yêu cầu các tổ chức triển khai mô hình AI đa năng, điển hình như ChatGPT, phải công khai minh bạch dữ liệu huấn luyện. Cụ thể, họ phải cung cấp “bản tóm tắt chi tiết” về nguồn dữ liệu được sử dụng, bao gồm cả văn bản, hình ảnh và âm thanh. Quy định này được kỳ vọng sẽ phần nào giải quyết được những lo ngại về việc vi phạm bản quyền khi nhiều công ty AI bị cáo buộc sử dụng trái phép sách, phim ảnh và các tác phẩm nghệ thuật khác để huấn luyện AI mà chưa có sự đồng ý của tác giả. Tuy nhiên, động thái này vấp phải sự phản đối mạnh mẽ từ phía các công ty công nghệ. Họ cho rằng việc tiết lộ dữ liệu huấn luyện chẳng khác nào “bật mí công thức bí mật”, gây bất lợi cho họ trong cuộc đua cạnh tranh khốc liệt. Ông Matthieu Riouf, CEO của Photoroom, một công ty chuyên về chỉnh sửa ảnh bằng AI, ví von: “Việc công khai dữ liệu huấn luyện AI cũng giống như việc bắt một đầu bếp danh tiếng tiết lộ công thức nấu ăn bí mật của mình vậy”. Quan điểm này cũng nhận được sự đồng tình từ nhiều ông lớn công nghệ khác như Google, Meta, những đơn vị đang đặt cược tương lai vào AI. Mức độ chi tiết của các báo cáo minh bạch này sẽ có ảnh hưởng lớn đối với các startup AI nhỏ và các công ty công nghệ lớn như Google và Meta, những công ty đã đặt công nghệ này vào trung tâm hoạt động tương lai của họ. Trong năm qua, một số công ty công nghệ nổi tiếng, bao gồm Google, OpenAI và Stability AI, đã phải đối mặt với các vụ kiện từ các tác giả cho rằng nội dung của họ đã bị sử dụng không đúng cách để huấn luyện các mô hình. Mặc dù Tổng thống Mỹ Joe Biden đã ban hành một số lệnh hành pháp tập trung vào các rủi ro an ninh của AI, các câu hỏi về bản quyền vẫn chưa được thử nghiệm đầy đủ. Các yêu cầu buộc các công ty công nghệ phải trả tiền cho những người giữ quyền đã nhận được sự ủng hộ lưỡng đảng trong Quốc hội. Trước sức ép từ dư luận, các ông lớn công nghệ đã rục rịch “xoa dịu” bằng hàng loạt thỏa thuận cấp phép nội dung với các cơ quan truyền thông. Điển hình như OpenAI đã ký kết thỏa thuận với Financial Times và The Atlantic, trong khi Google bắt tay với mạng xã hội Reddit của NewsCorp. Tuy nhiên, những động thái này vẫn chưa đủ để xoa dịu dư luận. OpenAI tiếp tục hứng chịu chỉ trích khi CTO Mira Murati từ chối trả lời câu hỏi về việc liệu công ty có sử dụng video YouTube để huấn luyện Sora – công cụ tạo video AI – hay không. Vụ việc giọng nói AI của nữ diễn viên Scarlett Johansson trong phiên bản ChatGPT mới nhất càng khiến làn sóng phản đối OpenAI dâng cao. Giữa tâm bão tranh cãi, Thomas Wolf, đồng sáng lập Hugging Face, lên tiếng ủng hộ minh bạch dữ liệu, nhưng thừa nhận quan điểm này không nhận được sự đồng thuận trong ngành. Trong khi đó, giới lập pháp châu Âu cũng có những quan điểm trái chiều. Nghị sĩ Dragos Tudorache, một trong những người soạn thảo Luật AI, cho rằng việc công khai dữ liệu huấn luyện là cần thiết để đảm bảo quyền lợi cho các nhà sáng tạo nội dung. “Họ có quyền được biết liệu tác phẩm của mình có bị sử dụng để huấn luyện AI hay không”, ông nhấn mạnh. Cuộc chiến giữa minh bạch dữ liệu và bí mật thương mại trong lĩnh vực AI đang ngày càng trở nên nóng hơn bao giờ hết. Giới chuyên gia dự đoán đây sẽ là một trong những thách thức lớn nhất mà các nhà hoạch định chính sách và doanh nghiệp phải đối mặt trong thời gian tới.

Luật AI Của Châu Âu Gây Tranh Cãi Về Minh Bạch Dữ Liệu

Luật AI mới của Liên minh Châu Âu (EU) sẽ buộc các công ty tiết lộ dữ liệu huấn luyện, tạo nên cuộc tranh cãi lớn về quyền sở hữu trí tuệ.

Sự ra đời của ChatGPT đánh dấu cột mốc quan trọng, mở ra kỷ nguyên bùng nổ của AI tạo sinh (Gen AI). Chỉ trong vòng 18 tháng, công nghệ này đã thu hút lượng đầu tư khổng lồ và ứng dụng rộng rãi trong nhiều lĩnh vực. AI tạo sinh là tập hợp các ứng dụng có thể sản xuất nhanh chóng nội dung văn bản, hình ảnh và âm thanh.

Tuy nhiên, bên cạnh những lợi ích to lớn, AI tạo sinh cũng đặt ra nhiều vấn đề về mặt pháp lý, đặc biệt là câu chuyện về nguồn gốc dữ liệu huấn luyện, theo Reuters.

Nắm bắt được những thách thức này, Liên minh châu Âu (EU) đã tiên phong ban hành Luật AI, dự kiến có hiệu lực trong vòng 2 năm tới. Một trong những điểm đáng chú ý nhất của luật này là yêu cầu các tổ chức triển khai mô hình AI đa năng, điển hình như ChatGPT, phải công khai minh bạch dữ liệu huấn luyện. Cụ thể, họ phải cung cấp “bản tóm tắt chi tiết” về nguồn dữ liệu được sử dụng, bao gồm cả văn bản, hình ảnh và âm thanh.

Quy định này được kỳ vọng sẽ phần nào giải quyết được những lo ngại về việc vi phạm bản quyền khi nhiều công ty AI bị cáo buộc sử dụng trái phép sách, phim ảnh và các tác phẩm nghệ thuật khác để huấn luyện AI mà chưa có sự đồng ý của tác giả.

Tuy nhiên, động thái này vấp phải sự phản đối mạnh mẽ từ phía các công ty công nghệ. Họ cho rằng việc tiết lộ dữ liệu huấn luyện chẳng khác nào “bật mí công thức bí mật”, gây bất lợi cho họ trong cuộc đua cạnh tranh khốc liệt.

Ông Matthieu Riouf, CEO của Photoroom, một công ty chuyên về chỉnh sửa ảnh bằng AI, ví von: “Việc công khai dữ liệu huấn luyện AI cũng giống như việc bắt một đầu bếp danh tiếng tiết lộ công thức nấu ăn bí mật của mình vậy”. Quan điểm này cũng nhận được sự đồng tình từ nhiều ông lớn công nghệ khác như Google, Meta, những đơn vị đang đặt cược tương lai vào AI.

Mức độ chi tiết của các báo cáo minh bạch này sẽ có ảnh hưởng lớn đối với các startup AI nhỏ và các công ty công nghệ lớn như Google và Meta, những công ty đã đặt công nghệ này vào trung tâm hoạt động tương lai của họ.

Trong năm qua, một số công ty công nghệ nổi tiếng, bao gồm Google, OpenAI và Stability AI, đã phải đối mặt với các vụ kiện từ các tác giả cho rằng nội dung của họ đã bị sử dụng không đúng cách để huấn luyện các mô hình. Mặc dù Tổng thống Mỹ Joe Biden đã ban hành một số lệnh hành pháp tập trung vào các rủi ro an ninh của AI, các câu hỏi về bản quyền vẫn chưa được thử nghiệm đầy đủ. Các yêu cầu buộc các công ty công nghệ phải trả tiền cho những người giữ quyền đã nhận được sự ủng hộ lưỡng đảng trong Quốc hội.

Trước sức ép từ dư luận, các ông lớn công nghệ đã rục rịch “xoa dịu” bằng hàng loạt thỏa thuận cấp phép nội dung với các cơ quan truyền thông. Điển hình như OpenAI đã ký kết thỏa thuận với Financial Times và The Atlantic, trong khi Google bắt tay với mạng xã hội Reddit của NewsCorp.

Tuy nhiên, những động thái này vẫn chưa đủ để xoa dịu dư luận. OpenAI tiếp tục hứng chịu chỉ trích khi CTO Mira Murati từ chối trả lời câu hỏi về việc liệu công ty có sử dụng video YouTube để huấn luyện Sora – công cụ tạo video AI – hay không. Vụ việc giọng nói AI của nữ diễn viên Scarlett Johansson trong phiên bản ChatGPT mới nhất càng khiến làn sóng phản đối OpenAI dâng cao.

Giữa tâm bão tranh cãi, Thomas Wolf, đồng sáng lập Hugging Face, lên tiếng ủng hộ minh bạch dữ liệu, nhưng thừa nhận quan điểm này không nhận được sự đồng thuận trong ngành.

Trong khi đó, giới lập pháp châu Âu cũng có những quan điểm trái chiều. Nghị sĩ Dragos Tudorache, một trong những người soạn thảo Luật AI, cho rằng việc công khai dữ liệu huấn luyện là cần thiết để đảm bảo quyền lợi cho các nhà sáng tạo nội dung. “Họ có quyền được biết liệu tác phẩm của mình có bị sử dụng để huấn luyện AI hay không”, ông nhấn mạnh.

Cuộc chiến giữa minh bạch dữ liệu và bí mật thương mại trong lĩnh vực AI đang ngày càng trở nên nóng hơn bao giờ hết. Giới chuyên gia dự đoán đây sẽ là một trong những thách thức lớn nhất mà các nhà hoạch định chính sách và doanh nghiệp phải đối mặt trong thời gian tới.
Переклад
Mỹ Nhận Thấy Tiềm Năng Của AI Trong Dịch Vụ CôngChính quyền Biden kỳ vọng vào tiềm năng to lớn của trí tuệ nhân tạo (AI) trong việc nâng tầm dịch vụ công, và đang thể hiện những gì có thể làm được với những công cụ này. Vào sáng thứ Năm, Văn phòng Khoa học và Công nghệ của Nhà Trắng (OSTP) đã tổ chức một hội nghị thượng đỉnh về “kỳ vọng AI,” trong đó các cơ quan liên bang đã trình diễn cách sử dụng AI để cung cấp nhiều dịch vụ hơn cho người dân. Phát biểu tại hội nghị, Giám đốc OSTP, tiến sĩ Arati Prabhakar, nhấn mạnh rằng sự phát triển của AI trong chính phủ sẽ cần sự hợp tác từ khu vực tư nhân và các tổ chức học thuật. Cùng chung quan điểm, bà Shalanda Young, Giám đốc Văn phòng Quản lý và Ngân sách, nhận định rằng AI có tiềm năng rất lớn trong việc cải thiện dịch vụ khách hàng của các cơ quan chính phủ, nếu được triển khai hiệu quả. Mo Early, lãnh đạo danh mục các nhà cung cấp dịch vụ có tác động cao tại OMB, cũng cho biết AI có thể mang lại cơ hội mới để định hình lại các dịch vụ chính phủ, giúp mọi người cảm thấy an tâm và tin tưởng rằng dữ liệu và quyền riêng tư của họ được bảo vệ. Bộ trưởng Thương mại Gina Raimondo cho biết Cơ quan Khí tượng và Đại dương Quốc gia Mỹ (NOAA) đang sử dụng AI để tạo ra các mô hình thời tiết nhanh hơn và chính xác hơn, nhờ vào kho lưu trữ dữ liệu khổng lồ của mình. Trong khi đó, Giám đốc Quỹ Khoa học Quốc gia (NSF), ông Sethuraman Panchanathan, tự hào khẳng định những thành tựu AI ngày nay là kết quả của quá trình đầu tư và nghiên cứu bền bỉ suốt 50-60 năm qua. Giáo dục cũng là lĩnh vực được kỳ vọng sẽ có bước chuyển mình mạnh mẽ nhờ AI. Bộ trưởng Giáo dục Miguel Cardona cho rằng AI có thể gây ra sự xáo trộn lớn trong các trường học và đại học, tương tự như sự bùng nổ của internet. Ông nhấn mạnh rằng AI sẽ sớm hiện diện trong gia đình và lớp học, và chúng ta phải chuẩn bị để đáp ứng nhu cầu này. Tiến sĩ Prabhakar cho biết chính quyền Biden đang trình diễn công việc đã và đang được thực hiện tại một số cơ quan nghiên cứu và phát triển liên bang, đồng thời nhấn mạnh tiềm năng của AI trong việc đẩy nhanh nghiên cứu dược phẩm và phê duyệt các loại thuốc mới trong vài tháng thay vì nhiều thập kỷ. Nhà Trắng nhận thấy tiềm năng của AI trong việc nâng cao tiêu chuẩn dịch vụ khách hàng trên toàn chính phủ, giúp người dân tiếp cận dịch vụ quan trọng đúng lúc cần thiết nhất, khi đang kêu gọi sự hợp tác từ các chuyên gia khu vực tư nhân, học thuật và nghiên cứu để phát triển công nghệ này. Không chỉ dừng lại ở những cam kết, chính quyền Biden đã và đang hiện thực hóa tầm nhìn AI bằng những dự án cụ thể. Theo bà Prabhakar, 12 cơ quan nghiên cứu và phát triển liên bang đang triển khai các dự án ứng dụng AI trong nhiều lĩnh vực, từ đẩy nhanh quá trình nghiên cứu và phê duyệt thuốc mới, cá nhân hóa giáo dục đến nâng cao chất lượng dịch vụ công. Để đảm bảo AI được ứng dụng một cách có trách nhiệm và hiệu quả, chính quyền Biden cam kết sẽ hợp tác chặt chẽ với khu vực tư nhân, học giả và các nhà nghiên cứu. Đồng thời, vấn đề đạo đức trong AI cũng được đặt lên hàng đầu, nhằm ngăn chặn nguy cơ phân biệt đối xử và đảm bảo tính công bằng trong quá trình triển khai công nghệ này. Tóm lại, Nhà Trắng đang hướng tới việc sử dụng AI để cải thiện các dịch vụ chính phủ, với sự hợp tác từ nhiều cơ quan và tổ chức. Việc triển khai AI đúng cách không chỉ mang lại lợi ích to lớn mà còn giúp xây dựng niềm tin và sự hài lòng của người dân.

Mỹ Nhận Thấy Tiềm Năng Của AI Trong Dịch Vụ Công

Chính quyền Biden kỳ vọng vào tiềm năng to lớn của trí tuệ nhân tạo (AI) trong việc nâng tầm dịch vụ công, và đang thể hiện những gì có thể làm được với những công cụ này.

Vào sáng thứ Năm, Văn phòng Khoa học và Công nghệ của Nhà Trắng (OSTP) đã tổ chức một hội nghị thượng đỉnh về “kỳ vọng AI,” trong đó các cơ quan liên bang đã trình diễn cách sử dụng AI để cung cấp nhiều dịch vụ hơn cho người dân.

Phát biểu tại hội nghị, Giám đốc OSTP, tiến sĩ Arati Prabhakar, nhấn mạnh rằng sự phát triển của AI trong chính phủ sẽ cần sự hợp tác từ khu vực tư nhân và các tổ chức học thuật. Cùng chung quan điểm, bà Shalanda Young, Giám đốc Văn phòng Quản lý và Ngân sách, nhận định rằng AI có tiềm năng rất lớn trong việc cải thiện dịch vụ khách hàng của các cơ quan chính phủ, nếu được triển khai hiệu quả.

Mo Early, lãnh đạo danh mục các nhà cung cấp dịch vụ có tác động cao tại OMB, cũng cho biết AI có thể mang lại cơ hội mới để định hình lại các dịch vụ chính phủ, giúp mọi người cảm thấy an tâm và tin tưởng rằng dữ liệu và quyền riêng tư của họ được bảo vệ.

Bộ trưởng Thương mại Gina Raimondo cho biết Cơ quan Khí tượng và Đại dương Quốc gia Mỹ (NOAA) đang sử dụng AI để tạo ra các mô hình thời tiết nhanh hơn và chính xác hơn, nhờ vào kho lưu trữ dữ liệu khổng lồ của mình. Trong khi đó, Giám đốc Quỹ Khoa học Quốc gia (NSF), ông Sethuraman Panchanathan, tự hào khẳng định những thành tựu AI ngày nay là kết quả của quá trình đầu tư và nghiên cứu bền bỉ suốt 50-60 năm qua.

Giáo dục cũng là lĩnh vực được kỳ vọng sẽ có bước chuyển mình mạnh mẽ nhờ AI. Bộ trưởng Giáo dục Miguel Cardona cho rằng AI có thể gây ra sự xáo trộn lớn trong các trường học và đại học, tương tự như sự bùng nổ của internet. Ông nhấn mạnh rằng AI sẽ sớm hiện diện trong gia đình và lớp học, và chúng ta phải chuẩn bị để đáp ứng nhu cầu này.

Tiến sĩ Prabhakar cho biết chính quyền Biden đang trình diễn công việc đã và đang được thực hiện tại một số cơ quan nghiên cứu và phát triển liên bang, đồng thời nhấn mạnh tiềm năng của AI trong việc đẩy nhanh nghiên cứu dược phẩm và phê duyệt các loại thuốc mới trong vài tháng thay vì nhiều thập kỷ.

Nhà Trắng nhận thấy tiềm năng của AI trong việc nâng cao tiêu chuẩn dịch vụ khách hàng trên toàn chính phủ, giúp người dân tiếp cận dịch vụ quan trọng đúng lúc cần thiết nhất, khi đang kêu gọi sự hợp tác từ các chuyên gia khu vực tư nhân, học thuật và nghiên cứu để phát triển công nghệ này.

Không chỉ dừng lại ở những cam kết, chính quyền Biden đã và đang hiện thực hóa tầm nhìn AI bằng những dự án cụ thể. Theo bà Prabhakar, 12 cơ quan nghiên cứu và phát triển liên bang đang triển khai các dự án ứng dụng AI trong nhiều lĩnh vực, từ đẩy nhanh quá trình nghiên cứu và phê duyệt thuốc mới, cá nhân hóa giáo dục đến nâng cao chất lượng dịch vụ công.

Để đảm bảo AI được ứng dụng một cách có trách nhiệm và hiệu quả, chính quyền Biden cam kết sẽ hợp tác chặt chẽ với khu vực tư nhân, học giả và các nhà nghiên cứu. Đồng thời, vấn đề đạo đức trong AI cũng được đặt lên hàng đầu, nhằm ngăn chặn nguy cơ phân biệt đối xử và đảm bảo tính công bằng trong quá trình triển khai công nghệ này.

Tóm lại, Nhà Trắng đang hướng tới việc sử dụng AI để cải thiện các dịch vụ chính phủ, với sự hợp tác từ nhiều cơ quan và tổ chức. Việc triển khai AI đúng cách không chỉ mang lại lợi ích to lớn mà còn giúp xây dựng niềm tin và sự hài lòng của người dân.
Переклад
AI Tạo Ra Thách Thức Mới Cho Ngành Truyền Thông Và Giải TríSự bùng nổ của trí tuệ nhân tạo tạo sinh (GenAI) mang đến nhiều cơ hội nhưng cũng đặt ra nhiều rủi ro chưa từng có cho ngành truyền thông, phim ảnh, truyền hình và giải trí. Sự xuất hiện của công nghệ tạo nội dung tự động này khiến các chuyên gia bảo hiểm truyền thông phải đối mặt với một câu hỏi nan giải: liệu họ có bảo hiểm các yêu cầu bồi thường cho nội dung được tạo ra bằng AI tạo sinh hay không? Ros Breese, Giám đốc bảo hiểm – truyền thông, điện ảnh và truyền hình tại Tokio Marine HCC International, cho biết AI tạo sinh đã tạo ra nhiều cuộc thảo luận sôi nổi trong ngành bảo hiểm truyền thông. Công nghệ này mang đến một loạt rủi ro mới khác biệt hoàn toàn với các phương pháp sáng tạo nội dung truyền thống. Sự thận trọng với công nghệ AI không chỉ là thái độ của ngành bảo hiểm truyền thông, mà còn bao quát cả ngành truyền thông và giải trí, đặc biệt là khi đối mặt với các vụ kiện pháp lý nổi bật. Chẳng hạn như vụ kiện của tờ New York Times chống lại OpenAI, chủ sở hữu ChatGPT về việc sử dụng tài liệu lưu trữ trong các công cụ AI tạo sinh. Tờ báo đã khẳng định bản quyền của họ bị vi phạm để huấn luyện các mô hình AI, và đòi bồi thường thiệt hại lên đến hàng tỷ USD. Vụ kiện này cho thấy sự thiếu rõ ràng về pháp lý liên quan đến việc sử dụng AI tạo sinh trong việc tạo nội dung. Vấn đề lớn nhất là việc truy xuất quyền sở hữu nội dung gốc trong tài liệu AI tạo sinh. Hiện tại, chưa có khung pháp lý cụ thể nào về vấn đề này, khiến các công ty truyền thông và các nhà sản xuất phim phải thận trọng trong việc ứng dụng công nghệ mới này. Khi AI tạo sinh trở nên phổ biến hơn, ngành bảo hiểm sẽ cần phải điều chỉnh cách tiếp cận của mình đối với các rủi ro mà nó gây ra. Để giảm thiểu rủi ro, Breese khuyến nghị các công ty nên phát triển các giao thức để truy tìm nguồn gốc của nội dung và thiết lập mối liên hệ trách nhiệm hai chiều giữa khách hàng và các công cụ AI tạo sinh. “Tôi nghĩ rằng chúng ta có thể sẽ xem xét nó giống với nội dung khác và hợp tác với các công ty bảo hiểm để giảm thiểu các yêu cầu bồi thường. Nếu chúng ta biết AI tạo sinh được sử dụng cho mục đích gì và những chủ sở hữu nội dung gốc, điều ấy sẽ tạo ra sự đảm bảo trong mối liên hệ giữa người sử dụng với công cụ AI tạo sinh,” cô cho biết. “Chúng ta đang trên tiến trình này.“ Tính minh bạch về mặt luật pháp và các vụ kiện quan trọng như vụ kiện của New York Times cũng đóng vai trò quan trọng trong việc định hình các chiến lược bảo hiểm trong tương lai. Bên cạnh những thách thức về mặt công nghệ, chính bản thân bối cảnh tiêu thụ truyền thông cũng đang thay đổi, chịu ảnh hưởng nặng nề bởi đại dịch COVID-19. Hiện nay đang có xu hướng rõ rệt là chuyển từ nội dung sản xuất truyền thống sang các định dạng ngắn gọn, dễ tiêu hóa hơn như podcast. Breese cho biết: “Chúng tôi đang thấy rất nhiều nội dung podcast hơn bao giờ hết, đặc biệt trong thể loại tội phạm có thật. Có một sự quan tâm lớn đến các bộ phim tài liệu sử dụng tư liệu lưu trữ, thay vì các bộ phim truyền hình bom tấn lớn.” Vị giám đốc nói thêm, “nếu bạn nhìn vào các dịch vụ phát trực tuyến hiện nay, có một danh mục phim tài liệu khổng lồ, điều mà chúng ta sẽ không thấy cách đây năm hay mười năm trước. Chúng ta đang thấy một xu hướng chuyển đổi rõ rệt từ phim truyền hình hư cấu sang nội dung thực tế.” Xu hướng này đòi hỏi một cách tiếp cận khác đối với quản lý rủi ro. Ví dụ, các nhà làm phim tài liệu sẽ phải đối mặt với đủ loại vấn đề về quyền với những cá nhân xuất hiện trong tác phẩm của họ, bao gồm cả trong các cảnh lưu trữ. Theo cô Breese, bản thân chuyện này đã là một mỏ mìn tiềm ẩn. Sự phức tạp trong việc giải quyết tư liệu lưu trữ và việc sử dụng các biện pháp bảo vệ như sử dụng hợp lý và đối xử công bằng càng làm phức tạp quá trình sản xuất. Những thách thức này cho thấy sự cần thiết của các giải pháp bảo hiểm chuyên biệt phù hợp với bối cảnh phức tạp của sản xuất phim tài liệu và nội dung có thật. Breese khuyên các nhà môi giới làm việc với khách hàng trong lĩnh vực truyền thông và điện ảnh nên theo dõi các rủi ro đang phát triển và nhu cầu bảo hiểm và quản lý rủi ro đặc thù của khách hàng. “Mối quan hệ và cuộc trò chuyện càng cởi mở giữa tất cả các bên trong chuỗi bảo hiểm thì càng có lợi,” cô nói.

AI Tạo Ra Thách Thức Mới Cho Ngành Truyền Thông Và Giải Trí

Sự bùng nổ của trí tuệ nhân tạo tạo sinh (GenAI) mang đến nhiều cơ hội nhưng cũng đặt ra nhiều rủi ro chưa từng có cho ngành truyền thông, phim ảnh, truyền hình và giải trí.

Sự xuất hiện của công nghệ tạo nội dung tự động này khiến các chuyên gia bảo hiểm truyền thông phải đối mặt với một câu hỏi nan giải: liệu họ có bảo hiểm các yêu cầu bồi thường cho nội dung được tạo ra bằng AI tạo sinh hay không?

Ros Breese, Giám đốc bảo hiểm – truyền thông, điện ảnh và truyền hình tại Tokio Marine HCC International, cho biết AI tạo sinh đã tạo ra nhiều cuộc thảo luận sôi nổi trong ngành bảo hiểm truyền thông. Công nghệ này mang đến một loạt rủi ro mới khác biệt hoàn toàn với các phương pháp sáng tạo nội dung truyền thống.

Sự thận trọng với công nghệ AI không chỉ là thái độ của ngành bảo hiểm truyền thông, mà còn bao quát cả ngành truyền thông và giải trí, đặc biệt là khi đối mặt với các vụ kiện pháp lý nổi bật.

Chẳng hạn như vụ kiện của tờ New York Times chống lại OpenAI, chủ sở hữu ChatGPT về việc sử dụng tài liệu lưu trữ trong các công cụ AI tạo sinh. Tờ báo đã khẳng định bản quyền của họ bị vi phạm để huấn luyện các mô hình AI, và đòi bồi thường thiệt hại lên đến hàng tỷ USD.

Vụ kiện này cho thấy sự thiếu rõ ràng về pháp lý liên quan đến việc sử dụng AI tạo sinh trong việc tạo nội dung. Vấn đề lớn nhất là việc truy xuất quyền sở hữu nội dung gốc trong tài liệu AI tạo sinh. Hiện tại, chưa có khung pháp lý cụ thể nào về vấn đề này, khiến các công ty truyền thông và các nhà sản xuất phim phải thận trọng trong việc ứng dụng công nghệ mới này.

Khi AI tạo sinh trở nên phổ biến hơn, ngành bảo hiểm sẽ cần phải điều chỉnh cách tiếp cận của mình đối với các rủi ro mà nó gây ra.

Để giảm thiểu rủi ro, Breese khuyến nghị các công ty nên phát triển các giao thức để truy tìm nguồn gốc của nội dung và thiết lập mối liên hệ trách nhiệm hai chiều giữa khách hàng và các công cụ AI tạo sinh.

“Tôi nghĩ rằng chúng ta có thể sẽ xem xét nó giống với nội dung khác và hợp tác với các công ty bảo hiểm để giảm thiểu các yêu cầu bồi thường. Nếu chúng ta biết AI tạo sinh được sử dụng cho mục đích gì và những chủ sở hữu nội dung gốc, điều ấy sẽ tạo ra sự đảm bảo trong mối liên hệ giữa người sử dụng với công cụ AI tạo sinh,” cô cho biết. “Chúng ta đang trên tiến trình này.“

Tính minh bạch về mặt luật pháp và các vụ kiện quan trọng như vụ kiện của New York Times cũng đóng vai trò quan trọng trong việc định hình các chiến lược bảo hiểm trong tương lai.

Bên cạnh những thách thức về mặt công nghệ, chính bản thân bối cảnh tiêu thụ truyền thông cũng đang thay đổi, chịu ảnh hưởng nặng nề bởi đại dịch COVID-19. Hiện nay đang có xu hướng rõ rệt là chuyển từ nội dung sản xuất truyền thống sang các định dạng ngắn gọn, dễ tiêu hóa hơn như podcast.

Breese cho biết: “Chúng tôi đang thấy rất nhiều nội dung podcast hơn bao giờ hết, đặc biệt trong thể loại tội phạm có thật. Có một sự quan tâm lớn đến các bộ phim tài liệu sử dụng tư liệu lưu trữ, thay vì các bộ phim truyền hình bom tấn lớn.” Vị giám đốc nói thêm, “nếu bạn nhìn vào các dịch vụ phát trực tuyến hiện nay, có một danh mục phim tài liệu khổng lồ, điều mà chúng ta sẽ không thấy cách đây năm hay mười năm trước. Chúng ta đang thấy một xu hướng chuyển đổi rõ rệt từ phim truyền hình hư cấu sang nội dung thực tế.”

Xu hướng này đòi hỏi một cách tiếp cận khác đối với quản lý rủi ro. Ví dụ, các nhà làm phim tài liệu sẽ phải đối mặt với đủ loại vấn đề về quyền với những cá nhân xuất hiện trong tác phẩm của họ, bao gồm cả trong các cảnh lưu trữ. Theo cô Breese, bản thân chuyện này đã là một mỏ mìn tiềm ẩn.

Sự phức tạp trong việc giải quyết tư liệu lưu trữ và việc sử dụng các biện pháp bảo vệ như sử dụng hợp lý và đối xử công bằng càng làm phức tạp quá trình sản xuất. Những thách thức này cho thấy sự cần thiết của các giải pháp bảo hiểm chuyên biệt phù hợp với bối cảnh phức tạp của sản xuất phim tài liệu và nội dung có thật.

Breese khuyên các nhà môi giới làm việc với khách hàng trong lĩnh vực truyền thông và điện ảnh nên theo dõi các rủi ro đang phát triển và nhu cầu bảo hiểm và quản lý rủi ro đặc thù của khách hàng. “Mối quan hệ và cuộc trò chuyện càng cởi mở giữa tất cả các bên trong chuỗi bảo hiểm thì càng có lợi,” cô nói.
Переклад
Quan Chức Anh Cảnh Báo Chứng Nghiện Giao Dịch Tiền Mã Hoá Ở Giới TrẻGiám đốc điều hành Dịch vụ Y tế Quốc gia Vương quốc Anh (NHS), Amanda Pritchard, đã cảnh báo rằng ngày càng nhiều nam thanh niên trẻ tuổi cần phải điều trị sau khi nghiện giao dịch tiền mã hoá, và kêu gọi hành động chống lại “các trang web tiền mã hoá không được quản lý.” Bà Pritchard bày tỏ lo ngại sâu sắc về vấn đề này trong bài phát biểu tại hội nghị ConfedExpo của các nhà quản lý NHS ở Manchester vào ngày 12/6. Bà cho biết NHS đã phải mở thêm phòng khám chuyên khoa về nghiện cờ bạc thứ 15 trong năm nay để đáp ứng nhu cầu ngày càng tăng của xã hội. Theo bà Pritchard, các phương thức dụ dỗ người dùng tham gia giao dịch tiền mã hoá ngày càng tinh vi. Nhiều bạn trẻ dễ bị thu hút bởi những lời hứa hẹn về giàu có nhanh chóng từ thị trường tiền mã hoá, nhưng lại không lường trước được những rủi ro tiềm ẩn. Bà Pritchard chia sẻ, chính bản thân đã được nghe các nhân viên y tế tại phòng khám nghiện cờ bạc quốc gia nói về sự gia tăng số lượng người nghiện giao dịch tiền mã hoá. Đồng thời nhấn mạnh rằng các phòng khám chuyên khoa về cờ bạc của NHS đang phải “thu dọn mảnh vỡ” sau khi bệnh nhân nghiện kiếm tiền từ thị trường đầy biến động. “Ngày càng nhiều cơ hội nảy sinh đối với những người trẻ tuổi để trở nên nghiện cờ bạc – bao gồm cả thị trường tiền mã hoá không được quản lý”, bà nói. Amanda Pritchard trên sân khấu tại NHS ConfedExpo cảnh báo về chứng nghiện giao dịch tiền mã hoá. Nguồn: YouTube Bà Pritchard cũng nhắc đến việc chính phủ Anh đã ban hành luật để quản lý tiền mã hoá theo cùng quy định với các dịch vụ tài chính khác vào tháng 6 năm ngoái. Tuy nhiên, Bộ Tài chính lại bác bỏ đề xuất của các nhà lập pháp về việc quản lý giao dịch tiền mã hoá bán lẻ tương tự như cờ bạc vào tháng 7/2023. Thay vào đó, họ muốn quản lý nó như một dịch vụ tài chính. Theo bà Pritchard, việc quản lý thị trường tiền mã hoá là vô cùng cần thiết để bảo vệ người dùng, đặc biệt là giới trẻ khỏi những rủi ro tiềm ẩn của thị trường này. Bà kêu gọi các nhà lập pháp Anh cần hành động quyết liệt để kiểm soát tình hình và ngăn chặn nạn nghiện giao dịch Bitcoin ở giới trẻ. Theo BBC hồi đầu năm ngoái, một quốc gia Châu Âu khác là Thụy Sĩ cũng đã thành lập Trung tâm cai nghiện có tên “The Balance”, nhằm điều trị nhiều chứng nghiện khác nhau như rượu, ma túy & sức khỏe hành vi, và chứng nghiện giao dịch tiền mã hóa. Được biết một khách hàng của trung tâm đã liên hệ để điều trị chứng nghiện giao dịch tiền mã hoá sau khi rót khoảng 200.000 USD vào các giao dịch mỗi tuần. Ngoài The Balance, Bệnh viện Castle Craig tại Scotland cũng đã điều trị cho khoảng 100 người nghiện giao dịch tiền mã hóa có nồng độ adrenaline trong máu cao kể từ năm 2018. Ở châu Á, một trung tâm chăm sóc sức khỏe có tên Diamond Rehabilitation tại Thái Lan cũng đã bổ sung các dịch vụ dành riêng cho việc cai nghiện và điều trị chứng nghiện tiền mã hóa.

Quan Chức Anh Cảnh Báo Chứng Nghiện Giao Dịch Tiền Mã Hoá Ở Giới Trẻ

Giám đốc điều hành Dịch vụ Y tế Quốc gia Vương quốc Anh (NHS), Amanda Pritchard, đã cảnh báo rằng ngày càng nhiều nam thanh niên trẻ tuổi cần phải điều trị sau khi nghiện giao dịch tiền mã hoá, và kêu gọi hành động chống lại “các trang web tiền mã hoá không được quản lý.”

Bà Pritchard bày tỏ lo ngại sâu sắc về vấn đề này trong bài phát biểu tại hội nghị ConfedExpo của các nhà quản lý NHS ở Manchester vào ngày 12/6. Bà cho biết NHS đã phải mở thêm phòng khám chuyên khoa về nghiện cờ bạc thứ 15 trong năm nay để đáp ứng nhu cầu ngày càng tăng của xã hội.

Theo bà Pritchard, các phương thức dụ dỗ người dùng tham gia giao dịch tiền mã hoá ngày càng tinh vi. Nhiều bạn trẻ dễ bị thu hút bởi những lời hứa hẹn về giàu có nhanh chóng từ thị trường tiền mã hoá, nhưng lại không lường trước được những rủi ro tiềm ẩn.

Bà Pritchard chia sẻ, chính bản thân đã được nghe các nhân viên y tế tại phòng khám nghiện cờ bạc quốc gia nói về sự gia tăng số lượng người nghiện giao dịch tiền mã hoá. Đồng thời nhấn mạnh rằng các phòng khám chuyên khoa về cờ bạc của NHS đang phải “thu dọn mảnh vỡ” sau khi bệnh nhân nghiện kiếm tiền từ thị trường đầy biến động.

“Ngày càng nhiều cơ hội nảy sinh đối với những người trẻ tuổi để trở nên nghiện cờ bạc – bao gồm cả thị trường tiền mã hoá không được quản lý”, bà nói.

Amanda Pritchard trên sân khấu tại NHS ConfedExpo cảnh báo về chứng nghiện giao dịch tiền mã hoá. Nguồn: YouTube

Bà Pritchard cũng nhắc đến việc chính phủ Anh đã ban hành luật để quản lý tiền mã hoá theo cùng quy định với các dịch vụ tài chính khác vào tháng 6 năm ngoái. Tuy nhiên, Bộ Tài chính lại bác bỏ đề xuất của các nhà lập pháp về việc quản lý giao dịch tiền mã hoá bán lẻ tương tự như cờ bạc vào tháng 7/2023. Thay vào đó, họ muốn quản lý nó như một dịch vụ tài chính.

Theo bà Pritchard, việc quản lý thị trường tiền mã hoá là vô cùng cần thiết để bảo vệ người dùng, đặc biệt là giới trẻ khỏi những rủi ro tiềm ẩn của thị trường này. Bà kêu gọi các nhà lập pháp Anh cần hành động quyết liệt để kiểm soát tình hình và ngăn chặn nạn nghiện giao dịch Bitcoin ở giới trẻ.

Theo BBC hồi đầu năm ngoái, một quốc gia Châu Âu khác là Thụy Sĩ cũng đã thành lập Trung tâm cai nghiện có tên “The Balance”, nhằm điều trị nhiều chứng nghiện khác nhau như rượu, ma túy & sức khỏe hành vi, và chứng nghiện giao dịch tiền mã hóa. Được biết một khách hàng của trung tâm đã liên hệ để điều trị chứng nghiện giao dịch tiền mã hoá sau khi rót khoảng 200.000 USD vào các giao dịch mỗi tuần.

Ngoài The Balance, Bệnh viện Castle Craig tại Scotland cũng đã điều trị cho khoảng 100 người nghiện giao dịch tiền mã hóa có nồng độ adrenaline trong máu cao kể từ năm 2018.

Ở châu Á, một trung tâm chăm sóc sức khỏe có tên Diamond Rehabilitation tại Thái Lan cũng đã bổ sung các dịch vụ dành riêng cho việc cai nghiện và điều trị chứng nghiện tiền mã hóa.
Переклад
Terraform Labs Và Do Kwon Bị Phạt 4,5 Tỷ USDTòa án quận Nam New York đã đưa ra phán quyết cuối cùng trong vụ kiện đình đám của Ủy ban Chứng khoán và Giao dịch Mỹ (SEC) chống lại Terraform Labs và đồng sáng lập Do Kwon hôm 12/6. Theo đó, Terraform Labs và Do Kwon bị kết tội vi phạm nhiều quy định về chứng khoán và phải nộp tổng số tiền phạt gần 4,5 tỷ USD, bao gồm 3,6 tỷ USD bồi thường thiệt hại, 467 triệu USD tiền lãi trước khi xét xử và 420 triệu USD tiền phạt dân sự. Do Kwon cũng phải chịu trách nhiệm chung và riêng lẻ đối với 110 triệu USD bồi thường thiệt hại và 14,3 triệu USD tiền lãi trước khi xét xử. Ngoài ra, cựu CEO Terraform Labs phải chuyển giao nhiều tài sản, bao gồm cổ phần sở hữu trong token PYTH và các tài sản khác cho quỹ phá sản của Terraform. Những tài sản này sẽ được sử dụng để thanh toán các khoản phạt tiền và được phân phối cho các nhà đầu tư bị thiệt hại. Theo Coindesk, Do Kwon và Terraform Labs đã đồng ý với thỏa thuận dàn xếp nộp phạt từ ngày 6/6. Ngoài khoản phạt 4,5 tỷ USD, Do Kwon còn phải đối mặt với các biện pháp trừng phạt bổ sung. SEC có quyền thu hồi khoản phạt bằng mọi cách thức được phép, bao gồm cả việc kiện Do Kwon ra tòa nếu anh ta không tuân thủ lệnh chuyển giao tài sản trong vòng 30 ngày. Do Kwon cũng bị cấm vĩnh viễn giữ chức vụ giám đốc điều hành hoặc giám đốc của bất kỳ công ty phát hành nào có lớp chứng khoán đã đăng ký hoặc nghĩa vụ báo cáo. Phán quyết từ toà án quận Nam New York Phán quyết cũng cấm Terraform Labs và Do Kwon vi phạm các quy định chống gian lận, giao dịch chứng khoán chưa đăng ký, giao dịch chứng khoán tài sản số hoặc xúi giục người khác giao dịch chứng khoán tài sản số trong tương lai. Phán quyết cho phép Terraform Labs xử lý tài sản số trong quá trình phá sản với sự cho phép của tòa án. Tuy nhiên, công ty cũng phải tiêu hủy khóa ví và đốt token theo yêu cầu. Terraform Labs cũng có thể cho phép bên thứ ba rút tiền, bỏ staking và hủy bỏ vị thế trên nền tảng của mình. Vụ kiện của SEC nhằm vào Terraform Labs và Do Kwon bắt đầu từ tháng 2/2023, cáo buộc công ty đã lừa đảo các nhà đầu tư tiền mã hoá, bao gồm cả việc sử dụng stablecoin Terra USD (UST) đã sụp đổ. Phán quyết này đánh dấu một thắng lợi cho SEC, đồng thời gửi đi thông điệp rõ ràng về tầm quan trọng của việc tuân thủ các quy định đối với ngành công nghiệp tiền mã hoá.

Terraform Labs Và Do Kwon Bị Phạt 4,5 Tỷ USD

Tòa án quận Nam New York đã đưa ra phán quyết cuối cùng trong vụ kiện đình đám của Ủy ban Chứng khoán và Giao dịch Mỹ (SEC) chống lại Terraform Labs và đồng sáng lập Do Kwon hôm 12/6. Theo đó, Terraform Labs và Do Kwon bị kết tội vi phạm nhiều quy định về chứng khoán và phải nộp tổng số tiền phạt gần 4,5 tỷ USD, bao gồm 3,6 tỷ USD bồi thường thiệt hại, 467 triệu USD tiền lãi trước khi xét xử và 420 triệu USD tiền phạt dân sự.

Do Kwon cũng phải chịu trách nhiệm chung và riêng lẻ đối với 110 triệu USD bồi thường thiệt hại và 14,3 triệu USD tiền lãi trước khi xét xử. Ngoài ra, cựu CEO Terraform Labs phải chuyển giao nhiều tài sản, bao gồm cổ phần sở hữu trong token PYTH và các tài sản khác cho quỹ phá sản của Terraform. Những tài sản này sẽ được sử dụng để thanh toán các khoản phạt tiền và được phân phối cho các nhà đầu tư bị thiệt hại.

Theo Coindesk, Do Kwon và Terraform Labs đã đồng ý với thỏa thuận dàn xếp nộp phạt từ ngày 6/6.

Ngoài khoản phạt 4,5 tỷ USD, Do Kwon còn phải đối mặt với các biện pháp trừng phạt bổ sung. SEC có quyền thu hồi khoản phạt bằng mọi cách thức được phép, bao gồm cả việc kiện Do Kwon ra tòa nếu anh ta không tuân thủ lệnh chuyển giao tài sản trong vòng 30 ngày. Do Kwon cũng bị cấm vĩnh viễn giữ chức vụ giám đốc điều hành hoặc giám đốc của bất kỳ công ty phát hành nào có lớp chứng khoán đã đăng ký hoặc nghĩa vụ báo cáo.

Phán quyết từ toà án quận Nam New York

Phán quyết cũng cấm Terraform Labs và Do Kwon vi phạm các quy định chống gian lận, giao dịch chứng khoán chưa đăng ký, giao dịch chứng khoán tài sản số hoặc xúi giục người khác giao dịch chứng khoán tài sản số trong tương lai.

Phán quyết cho phép Terraform Labs xử lý tài sản số trong quá trình phá sản với sự cho phép của tòa án. Tuy nhiên, công ty cũng phải tiêu hủy khóa ví và đốt token theo yêu cầu. Terraform Labs cũng có thể cho phép bên thứ ba rút tiền, bỏ staking và hủy bỏ vị thế trên nền tảng của mình.

Vụ kiện của SEC nhằm vào Terraform Labs và Do Kwon bắt đầu từ tháng 2/2023, cáo buộc công ty đã lừa đảo các nhà đầu tư tiền mã hoá, bao gồm cả việc sử dụng stablecoin Terra USD (UST) đã sụp đổ. Phán quyết này đánh dấu một thắng lợi cho SEC, đồng thời gửi đi thông điệp rõ ràng về tầm quan trọng của việc tuân thủ các quy định đối với ngành công nghiệp tiền mã hoá.
Переклад
Quân Đội Mỹ Phát Triển Công Cụ AI Chuyên BiệtNgày 10/6, Lực lượng Không gian Mỹ (USSF) và Không quân Mỹ (USAF) đã công bố một công cụ AI tạo sinh mới với tên gọi NIPRGPT (Non-classified Internet Protocol Generative Pre-training Transformer). Công cụ này hứa hẹn sẽ cải thiện khả năng tiếp cận thông tin và đánh giá nhu cầu của lực lượng. NIPRGPT được thiết kế để hỗ trợ nhân viên thử nghiệm các công nghệ AI trong các nhiệm vụ hàng ngày. Những ứng dụng tiềm năng của công cụ này bao gồm tóm tắt báo cáo, hỗ trợ IT và lập trình, giúp giảm tải công việc thủ công và tăng cường hiệu quả hoạt động. Theo Alexis Bonnell, Giám đốc thông tin và Giám đốc năng lực số tại Phòng Thí nghiệm Nghiên cứu Không quân (AFRL), mục tiêu chính của NIPRGPT là làm cho dữ liệu trở nên dễ tiếp cận và tùy biến hơn trong các dịch vụ của lực lượng. Bonnell nhấn mạnh rằng việc xác định liệu AI tạo sinh có thể hỗ trợ các nhiệm vụ này hay không là một phần quan trọng của quá trình thử nghiệm. Ảnh minh hoạ Trước đó, Bộ Quốc phòng Mỹ đã và đang khám phá cách sử dụng các công cụ AI tạo sinh như ChatGPT để làm các công việc hàng ngày như tìm kiếm tài liệu và trả lời câu hỏi trở nên hiệu quả hơn. Năm 2023, Hải quân đã triển khai một chương trình AI đối thoại mang tên “Amelia” để giúp các thủy thủ giải quyết sự cố và cung cấp hỗ trợ kỹ thuật. Collen Roller, nhà khoa học máy tính cao cấp tại AFRL, cho biết nhóm của ông đã nỗ lực nghiên cứu cách USSF và USAF có thể sử dụng công nghệ này cho các nhiệm vụ hành chính và cả trong các hoạt động chiến thuật. “Lĩnh vực này thay đổi rất nhanh, chúng tôi phải có khả năng thích nghi với những điều mới xuất hiện,” ông nói. “Trên quan điểm nghiên cứu và phát triển, điều này rất trọng yếu nếu chúng tôi có thể đánh giá những công nghệ mới và vạch ra phương hướng áp dụng cụ thể.” AFRL phát triển NIPRGPT bằng cách sử dụng các mô hình AU có sẵn công khai, và Bonnell cho biết dịch vụ này chưa cam kết với một phương pháp hay nhà cung cấp cụ thể nào khi xây dựng trên cơ sở đó. Khi các quân nhân bắt đầu sử dụng hệ thống, AFRL sẽ hợp tác với các đối tác thương mại để kiểm tra và tích hợp các công cụ của họ, xác định xem chúng có hữu ích cho các dịch vụ hay không. “Chúng tôi hy vọng rằng không chỉ khơi dậy sự tò mò và thử nghiệm từ người dùng, mà còn cung cấp cách để kiểm tra các mô hình của các nhà cung cấp,” bà nói.“Chúng tôi kỳ vọng rằng một số mô hình sẽ xuất sắc ở một số trường hợp sử dụng và không tốt ở những trường hợp khác.” Công cụ NIPRGPT không chỉ giúp các công ty thử nghiệm các công cụ và mô hình khác nhau mà còn giúp hai cơ quan USSF, USAF xác định cách tiếp cận tốt nhất để mua các năng lực này. Bonnell nhấn mạnh rằng chiến lược đúng sẽ phụ thuộc vào cách các dịch vụ sử dụng NIPRGPT và liệu có đủ nhu cầu hay không. “Công cụ này giúp chúng tôi điều mong muốn đạt được cuối cùng là gì. Và nếu xuất hiện các công cụ thương mại xuất hiện và vượt qua quy trình hoặc hệ thống an ninh vốn có, chúng tôi sẽ mua chúng với mức giá hợp lý.” Bonnell chia sẻ.

Quân Đội Mỹ Phát Triển Công Cụ AI Chuyên Biệt

Ngày 10/6, Lực lượng Không gian Mỹ (USSF) và Không quân Mỹ (USAF) đã công bố một công cụ AI tạo sinh mới với tên gọi NIPRGPT (Non-classified Internet Protocol Generative Pre-training Transformer). Công cụ này hứa hẹn sẽ cải thiện khả năng tiếp cận thông tin và đánh giá nhu cầu của lực lượng.

NIPRGPT được thiết kế để hỗ trợ nhân viên thử nghiệm các công nghệ AI trong các nhiệm vụ hàng ngày. Những ứng dụng tiềm năng của công cụ này bao gồm tóm tắt báo cáo, hỗ trợ IT và lập trình, giúp giảm tải công việc thủ công và tăng cường hiệu quả hoạt động.

Theo Alexis Bonnell, Giám đốc thông tin và Giám đốc năng lực số tại Phòng Thí nghiệm Nghiên cứu Không quân (AFRL), mục tiêu chính của NIPRGPT là làm cho dữ liệu trở nên dễ tiếp cận và tùy biến hơn trong các dịch vụ của lực lượng. Bonnell nhấn mạnh rằng việc xác định liệu AI tạo sinh có thể hỗ trợ các nhiệm vụ này hay không là một phần quan trọng của quá trình thử nghiệm.

Ảnh minh hoạ

Trước đó, Bộ Quốc phòng Mỹ đã và đang khám phá cách sử dụng các công cụ AI tạo sinh như ChatGPT để làm các công việc hàng ngày như tìm kiếm tài liệu và trả lời câu hỏi trở nên hiệu quả hơn. Năm 2023, Hải quân đã triển khai một chương trình AI đối thoại mang tên “Amelia” để giúp các thủy thủ giải quyết sự cố và cung cấp hỗ trợ kỹ thuật.

Collen Roller, nhà khoa học máy tính cao cấp tại AFRL, cho biết nhóm của ông đã nỗ lực nghiên cứu cách USSF và USAF có thể sử dụng công nghệ này cho các nhiệm vụ hành chính và cả trong các hoạt động chiến thuật. “Lĩnh vực này thay đổi rất nhanh, chúng tôi phải có khả năng thích nghi với những điều mới xuất hiện,” ông nói. “Trên quan điểm nghiên cứu và phát triển, điều này rất trọng yếu nếu chúng tôi có thể đánh giá những công nghệ mới và vạch ra phương hướng áp dụng cụ thể.”

AFRL phát triển NIPRGPT bằng cách sử dụng các mô hình AU có sẵn công khai, và Bonnell cho biết dịch vụ này chưa cam kết với một phương pháp hay nhà cung cấp cụ thể nào khi xây dựng trên cơ sở đó. Khi các quân nhân bắt đầu sử dụng hệ thống, AFRL sẽ hợp tác với các đối tác thương mại để kiểm tra và tích hợp các công cụ của họ, xác định xem chúng có hữu ích cho các dịch vụ hay không.

“Chúng tôi hy vọng rằng không chỉ khơi dậy sự tò mò và thử nghiệm từ người dùng, mà còn cung cấp cách để kiểm tra các mô hình của các nhà cung cấp,” bà nói.“Chúng tôi kỳ vọng rằng một số mô hình sẽ xuất sắc ở một số trường hợp sử dụng và không tốt ở những trường hợp khác.”

Công cụ NIPRGPT không chỉ giúp các công ty thử nghiệm các công cụ và mô hình khác nhau mà còn giúp hai cơ quan USSF, USAF xác định cách tiếp cận tốt nhất để mua các năng lực này. Bonnell nhấn mạnh rằng chiến lược đúng sẽ phụ thuộc vào cách các dịch vụ sử dụng NIPRGPT và liệu có đủ nhu cầu hay không.

“Công cụ này giúp chúng tôi điều mong muốn đạt được cuối cùng là gì. Và nếu xuất hiện các công cụ thương mại xuất hiện và vượt qua quy trình hoặc hệ thống an ninh vốn có, chúng tôi sẽ mua chúng với mức giá hợp lý.” Bonnell chia sẻ.
Переклад
Elon Musk Dọa Cấm Apple Nếu Tích Hợp ChatGPTElon Musk đã gây xôn xao khi đe dọa cấm sẽ cấm các thiết bị Apple khỏi các công ty của mình nếu tính năng ChatGPT được tích hợp vào iOS 18 như Apple công bố. Tại buổi giới thiệu tại WWDC 2024, Apple đã công bố tích hợp mới cho phép người dùng truy cập ChatGPT toàn hệ thống thông qua công cụ soạn thảo. Người dùng có thể yêu cầu ChatGPT viết truyện cho trẻ em hoặc tạo hình ảnh để bổ sung cho bài viết. Những tính năng này cho phép người dùng truy cập ChatGPT miễn phí mà không cần tạo tài khoản. Điều này dự báo sẽ mang lại lượng lớn yêu cầu từ người dùng Apple cho OpenAI. Phó Chủ tịch cấp cao phụ trách Kỹ thuật Phần mềm của Apple, Craig Federighi đã nhấn mạnh, “người dùng hoàn toàn kiểm soát việc sử dụng ChatGPT và sẽ được hỏi ý kiến trước khi bất kỳ thông tin nào của bạn được chia sẻ”. Các tính năng này chỉ có trên các mẫu iPhone Pro 15 và thiết bị sử dụng chip M1 hoặc mới hơn. Tuy nhiên, tỷ phú Elon Musk đã công khai chỉ trích sự hợp tác này. Trên X, ông cho rằng Apple đang đẩy người dùng vào nguy cơ bị xâm phạm quyền riêng tư khi “tuồn” dữ liệu cho OpenAI. “Thật vô lý khi Apple không đủ thông minh để tự tạo ra AI của riêng mình, nhưng lại có thể đảm bảo OpenAI sẽ bảo vệ sự an toàn và quyền riêng tư của bạn!”, Musk đồng thời dọa sẽ cấm thiết bị Apple tại các công ty của mình nếu Tim Cook không chấm dứt hành động gián điệp đáng sợ này. Mặc dù Apple khẳng định người dùng có toàn quyền kiểm soát việc sử dụng ChatGPT và thông tin cá nhân, nhưng Musk cho rằng người dùng không đủ hiểu biết về vấn đề quyền riêng tư. Ông tin rằng nếu người dùng có thể tự do lựa chọn AI bot thay thế, như Claude của Anthropic hay Grok của xAI (công ty AI do Musk sáng lập), thì Apple sẽ không dám hành động như vậy. Thực tế, Apple cũng đã ám chỉ rằng Google Gemini có thể được tích hợp vào trong tương lai. Cả Apple và OpenAI đều đính chính rằng dữ liệu người dùng sẽ chỉ được chia sẻ khi có sự đồng ý rõ ràng và các tương tác này được thiết kế để an toàn. OpenAI lưu ý trong một bài đăng blog mới rằng “các yêu cầu không được lưu trữ bởi OpenAI và địa chỉ IP của người dùng sẽ bị ẩn.” Người dùng cũng có thể chọn kết nối tài khoản ChatGPT của họ để truy cập các tính năng trả phí, nhưng đây là tính năng tùy chọn. Hình ảnh, văn bản hoặc truy vấn tìm kiếm được gửi đến ChatGPT được gửi mà không có định danh và sẽ bị xóa sau khi kết quả được tạo ra và gửi đến người dùng. Ngay cả khi Apple và ChatGPT nói dối và âm mưu thu thập dữ liệu người dùng, dữ liệu họ nhận được chỉ là những gì người dùng chủ động chọn gửi đi. Cần làm rõ là không có lý do nào để lo sợ việc ChatGPT có thể được truy cập bởi Siri hoặc Công cụ Writing Tools. Điều này không khác biệt đáng kể so với việc cài đặt ứng dụng ChatGPT trên iPhone. Tuy nhiên tình hình hiện tại cũng đặt ra nhiều câu hỏi về quyền riêng tư và an ninh khi các công ty công nghệ lớn tiếp tục tích hợp các công nghệ AI mới vào sản phẩm của họ.

Elon Musk Dọa Cấm Apple Nếu Tích Hợp ChatGPT

Elon Musk đã gây xôn xao khi đe dọa cấm sẽ cấm các thiết bị Apple khỏi các công ty của mình nếu tính năng ChatGPT được tích hợp vào iOS 18 như Apple công bố.

Tại buổi giới thiệu tại WWDC 2024, Apple đã công bố tích hợp mới cho phép người dùng truy cập ChatGPT toàn hệ thống thông qua công cụ soạn thảo. Người dùng có thể yêu cầu ChatGPT viết truyện cho trẻ em hoặc tạo hình ảnh để bổ sung cho bài viết. Những tính năng này cho phép người dùng truy cập ChatGPT miễn phí mà không cần tạo tài khoản. Điều này dự báo sẽ mang lại lượng lớn yêu cầu từ người dùng Apple cho OpenAI.

Phó Chủ tịch cấp cao phụ trách Kỹ thuật Phần mềm của Apple, Craig Federighi đã nhấn mạnh, “người dùng hoàn toàn kiểm soát việc sử dụng ChatGPT và sẽ được hỏi ý kiến trước khi bất kỳ thông tin nào của bạn được chia sẻ”. Các tính năng này chỉ có trên các mẫu iPhone Pro 15 và thiết bị sử dụng chip M1 hoặc mới hơn.

Tuy nhiên, tỷ phú Elon Musk đã công khai chỉ trích sự hợp tác này. Trên X, ông cho rằng Apple đang đẩy người dùng vào nguy cơ bị xâm phạm quyền riêng tư khi “tuồn” dữ liệu cho OpenAI.

“Thật vô lý khi Apple không đủ thông minh để tự tạo ra AI của riêng mình, nhưng lại có thể đảm bảo OpenAI sẽ bảo vệ sự an toàn và quyền riêng tư của bạn!”, Musk đồng thời dọa sẽ cấm thiết bị Apple tại các công ty của mình nếu Tim Cook không chấm dứt hành động gián điệp đáng sợ này.

Mặc dù Apple khẳng định người dùng có toàn quyền kiểm soát việc sử dụng ChatGPT và thông tin cá nhân, nhưng Musk cho rằng người dùng không đủ hiểu biết về vấn đề quyền riêng tư. Ông tin rằng nếu người dùng có thể tự do lựa chọn AI bot thay thế, như Claude của Anthropic hay Grok của xAI (công ty AI do Musk sáng lập), thì Apple sẽ không dám hành động như vậy.

Thực tế, Apple cũng đã ám chỉ rằng Google Gemini có thể được tích hợp vào trong tương lai.

Cả Apple và OpenAI đều đính chính rằng dữ liệu người dùng sẽ chỉ được chia sẻ khi có sự đồng ý rõ ràng và các tương tác này được thiết kế để an toàn. OpenAI lưu ý trong một bài đăng blog mới rằng “các yêu cầu không được lưu trữ bởi OpenAI và địa chỉ IP của người dùng sẽ bị ẩn.” Người dùng cũng có thể chọn kết nối tài khoản ChatGPT của họ để truy cập các tính năng trả phí, nhưng đây là tính năng tùy chọn.

Hình ảnh, văn bản hoặc truy vấn tìm kiếm được gửi đến ChatGPT được gửi mà không có định danh và sẽ bị xóa sau khi kết quả được tạo ra và gửi đến người dùng. Ngay cả khi Apple và ChatGPT nói dối và âm mưu thu thập dữ liệu người dùng, dữ liệu họ nhận được chỉ là những gì người dùng chủ động chọn gửi đi.

Cần làm rõ là không có lý do nào để lo sợ việc ChatGPT có thể được truy cập bởi Siri hoặc Công cụ Writing Tools. Điều này không khác biệt đáng kể so với việc cài đặt ứng dụng ChatGPT trên iPhone. Tuy nhiên tình hình hiện tại cũng đặt ra nhiều câu hỏi về quyền riêng tư và an ninh khi các công ty công nghệ lớn tiếp tục tích hợp các công nghệ AI mới vào sản phẩm của họ.
Дізнавайтеся останні новини у сфері криптовалют
⚡️ Долучайтеся до гарячих дискусій на тему криптовалют
💬 Спілкуйтеся з улюбленими авторами
👍 Насолоджуйтеся контентом, який вас цікавить
Електронна пошта / номер телефону

Останні новини

--
Більше

Популярні статті

Більше
Карта сторінки
Cookie Preferences
Правила та умови користування платформою