Binance Square
LIVE
PCB Block
@blockchain247
Top news channel 247 🚀🚀🚀
Вы подписаны
Подписчики
Понравилось
Поделились
Все публикации
LIVE
--
Cách Chọn Lựa Giáo Dục Tiền Mã Hóa Chất Lượng Và Tránh Lừa ĐảoTrong bối cảnh tiền mã hóa và blockchain ngày càng trở nên quan trọng, việc nắm vững kiến thức chất lượng là vô cùng cần thiết. Ngành công nghiệp phát triển nhanh chóng này thường thu hút những kẻ lừa đảo. Hãy cùng tìm hiểu cách nhận biết và tiếp thu kiến thức đáng tin cậy về tiền mã hóa và tránh rơi vào bẫy của những kẻ gian lận. Ngành công nghiệp mới nổi và rủi ro từ giáo dục kém chất lượng Ngành tiền mã hóa không ngừng phát triển, thu hút vốn và nhân tài vào các phân khúc mới. Web 3.0 hướng tới việc sử dụng blockchain để tạo ra các ứng dụng và dịch vụ phi tập trung. Việc mã hóa tài sản thực (RWA) đang diễn ra, nơi các công ty phát hành token kỹ thuật số đại diện cho các tài sản thực như kim loại quý, cho phép nhà đầu tư tham gia vào nền kinh tế tài sản ở một cấp độ mới. Hơn nữa, các tổ chức tự trị phi tập trung (DAO) đang thúc đẩy các quy trình dân chủ trong quản lý dự án. Sự gia tăng nhanh chóng của tiền mã hóa và sự hiểu biết hạn chế về cơ chế của nó đã khiến nhiều người tìm kiếm sự giàu có qua công cụ mới này. Cùng với các dịch vụ hợp pháp, những lời đề nghị và sản phẩm lừa đảo cũng xuất hiện. Những kẻ gian lừa khách hàng bằng những điều kiện hấp dẫn và hứa hẹn làm giàu nhanh chóng, tương tự như các sơ đồ Ponzi trong các tổ chức tài chính. Một hậu quả liên quan và không kém phần quan trọng của sự phổ biến của tiền mã hóa là sự nổi lên của các “chuyên gia internet”. Sự bùng nổ quan tâm đến tiền mã hóa đã thu hút nhiều chuyên gia tự xưng, cung cấp các khóa học và hội thảo đáng ngờ. Ví dụ, các buổi hội thảo hứa hẹn “thu nhập đảm bảo” từ đầu tư tiền mã hóa sau khi hoàn thành khóa học, thường chỉ là những nỗ lực để lấy tiền từ các nhà đầu tư thiếu kính thức. Ví dụ và hậu quả của giáo dục kém chất lượng Sự lan truyền của các thực hành sai trái, tổn thất tài chính của học viên của các “khóa học” này, và sự suy giảm nhận thức chung về ngành tiền mã hóa như một lĩnh vực nghiêm túc và đáng tin cậy cho đầu tư và nghề nghiệp chỉ là một vài trong số những hậu quả tiêu cực. Khi các ngành công nghiệp mới phát triển, nguy cơ giáo dục kém chất lượng cũng tăng theo. Điều này đặc biệt liên quan đến các chủ đề phức tạp và liên tục phát triển như tiền mã hóa và blockchain. Những kẻ gian lợi dụng các chủ đề này để bán các khóa học với những hứa hẹn phóng đại. Các dấu hiệu điển hình của các chương trình giáo dục kém chất lượng bao gồm thiếu một giáo trình rõ ràng, quảng cáo phóng đại, và thiếu các đánh giá độc lập và phản hồi tiêu cực. Các khóa học chất lượng có các mục tiêu được định rõ và một cách tiếp cận có cấu trúc, cho phép học viên nâng cao kiến thức từng bước. Hãy cẩn thận với các khóa học tập trung nhiều vào quảng cáo quá đà với những hứa hẹn thành công nhanh chóng và thu nhập khổng lồ. Quan trọng là tiếp cận việc lựa chọn các chương trình giáo dục trong ngành tiền mã hóa một cách cẩn trọng, tìm kiếm các nguồn thông tin đã được kiểm chứng và không tin vào các hứa hẹn về kết quả dễ dàng. Phát triển và tầm quan trọng của giáo dục tiền mã hóa Ngành tiền mã hóa cần những chuyên gia có trình độ. Nhiều yếu tố góp phần vào sự thiếu hụt kiến thức như vậy và những người sở hữu nó. Ví dụ, Cơ quan Ngân hàng Châu Âu (EBA) và Ủy ban Chứng khoán và Giao dịch Hoa Kỳ (SEC) đã nêu rõ vấn đề về sự thiếu hụt chuyên gia tiền mã hóa. Có nhu cầu mạnh mẽ về giáo dục tiền mã hóa từ người dùng, đặc biệt là những người đã tham gia vào lĩnh vực tiền mã hóa. Theo một cuộc khảo sát của Study.com với 800 phụ huynh Mỹ và 200 sinh viên tốt nghiệp đại học, 86% sinh viên tốt nghiệp tin rằng họ sẽ kiếm được nhiều tiền hơn nếu có kiến thức chính thức về tiền mã hóa và công nghệ mới thay vì bằng đại học. Các bậc phụ huynh cũng tin rằng giáo dục tiền mã hóa nên bắt đầu từ cấp trung học. Một cột mốc quan trọng trong giáo dục tiền mã hóa là sự xuất hiện của khóa học Bitcoin và Công nghệ Tiền mã hóa của Đại học Princeton, có sẵn trên nền tảng trực tuyến Coursera từ năm 2015. Khóa học, do Arvind Narayanan và những người khác phát triển, là một trong những nỗ lực có hệ thống đầu tiên nhằm dạy học viên những kiến thức cơ bản về tiền mã hóa và công nghệ blockchain. Giáo dục tiền mã hóa hiện đại vẫn là một lĩnh vực đang phát triển và bao gồm các chủ đề từ cơ bản về công nghệ blockchain đến nghiên cứu chuyên sâu về mật mã học, kinh tế học và quản lý dữ liệu. Các nền tảng như Udemy, Pluralsight và Khan Academy cung cấp các khóa học cho cả người mới bắt đầu và người dùng nâng cao. Tuy nhiên, chất lượng và nội dung của các khóa học này có thể khác nhau đáng kể, do đó việc lựa chọn một chương trình giáo dục cần được thực hiện một cách cẩn trọng và suy xét. Tác động đến giáo dục và xã hội Một số chuyên gia sẽ cần phải có một nền giáo dục cơ bản — một bằng đại học trong một lĩnh vực liên quan, ngay cả khi nó không liên quan đến tiền mã hóa. Hiện vẫn còn ít các chương trình đại học về tiền mã hóa, nhưng những nỗ lực đáng chú ý trong hướng này đang được tiến hành ở Georgia. Năm ngoái, Binance Charity và GITA đã mở đơn đăng ký cho một chương trình giáo dục miễn phí về blockchain. Mục tiêu của dự án là thúc đẩy các hoạt động đổi mới trong các doanh nghiệp nhỏ và vừa (MSME) và cá nhân ở Georgia, và sự tham gia của họ vào nền kinh tế kỹ thuật số. Đặc biệt chú trọng đến giáo dục cho phụ nữ như một phần của cam kết của Binance nhằm xây dựng và tài trợ cho giáo dục Web3 cho phụ nữ. Binance Academy, một nền tảng giáo dục về blockchain và tiền mã hóa, đã tồn tại từ năm 2018. Nó có hơn 800 bài viết và từ điển, các khóa học về blockchain, tiền mã hóa, Web3, và nhiều hơn nữa. Nó cung cấp quyền truy cập vào các khóa học cho hàng triệu học viên trên toàn thế giới bằng hơn 30 ngôn ngữ. Các tài liệu giáo dục được cấu trúc đúng cách và mối quan hệ dựa trên niềm tin với khán giả có thể đóng góp vào sự phát triển lành mạnh của ngành. Tuy nhiên, một số chuyên gia tự xưng lợi dụng vị trí của mình để quảng bá các khóa học kém chất lượng hoặc tệ hơn, các sơ đồ lừa đảo. Điều làm cho giáo dục tiền mã hóa hấp dẫn đối với các “chuyên gia” giả là tính mới tương đối và sự quan tâm công chúng cao, khiến lĩnh vực giáo dục này dễ bị khai thác. Danh sách kiểm tra: cách chọn giáo dục chất lượng – Xác định mục tiêu học tập của bạn. Bắt đầu bằng cách xác định kỳ vọng của bạn để không bị lừa bởi những hứa hẹn làm giàu nhanh chóng. – Nghiên cứu lý lịch của các chuyên gia. Các chuyên gia đáng tin cậy thường có nhiều kinh nghiệm trong ngành tiền mã hóa và một nền tảng giáo dục vững chắc. – Kiểm tra đánh giá và danh tiếng của khóa học. Tìm kiếm các đánh giá độc lập và phân tích các trường hợp thực tế. – Minh bạch và khả dụng của tài liệu. Các khóa học chất lượng thường cung cấp tài liệu mẫu hoặc mô tả khóa học rõ ràng. Giáo dục tiền mã hóa không chỉ là một cơ hội để nắm vững kiến thức mới mà còn là một lĩnh vực dễ bị lừa đảo. Chọn các khóa học giáo dục đúng đắn và đánh giá thông tin một cách phê phán sẽ giúp bạn tránh được sai lầm và làm cho trải nghiệm học tập của bạn thực sự có giá trị.

Cách Chọn Lựa Giáo Dục Tiền Mã Hóa Chất Lượng Và Tránh Lừa Đảo

Trong bối cảnh tiền mã hóa và blockchain ngày càng trở nên quan trọng, việc nắm vững kiến thức chất lượng là vô cùng cần thiết. Ngành công nghiệp phát triển nhanh chóng này thường thu hút những kẻ lừa đảo. Hãy cùng tìm hiểu cách nhận biết và tiếp thu kiến thức đáng tin cậy về tiền mã hóa và tránh rơi vào bẫy của những kẻ gian lận.

Ngành công nghiệp mới nổi và rủi ro từ giáo dục kém chất lượng

Ngành tiền mã hóa không ngừng phát triển, thu hút vốn và nhân tài vào các phân khúc mới. Web 3.0 hướng tới việc sử dụng blockchain để tạo ra các ứng dụng và dịch vụ phi tập trung. Việc mã hóa tài sản thực (RWA) đang diễn ra, nơi các công ty phát hành token kỹ thuật số đại diện cho các tài sản thực như kim loại quý, cho phép nhà đầu tư tham gia vào nền kinh tế tài sản ở một cấp độ mới. Hơn nữa, các tổ chức tự trị phi tập trung (DAO) đang thúc đẩy các quy trình dân chủ trong quản lý dự án.

Sự gia tăng nhanh chóng của tiền mã hóa và sự hiểu biết hạn chế về cơ chế của nó đã khiến nhiều người tìm kiếm sự giàu có qua công cụ mới này. Cùng với các dịch vụ hợp pháp, những lời đề nghị và sản phẩm lừa đảo cũng xuất hiện. Những kẻ gian lừa khách hàng bằng những điều kiện hấp dẫn và hứa hẹn làm giàu nhanh chóng, tương tự như các sơ đồ Ponzi trong các tổ chức tài chính.

Một hậu quả liên quan và không kém phần quan trọng của sự phổ biến của tiền mã hóa là sự nổi lên của các “chuyên gia internet”. Sự bùng nổ quan tâm đến tiền mã hóa đã thu hút nhiều chuyên gia tự xưng, cung cấp các khóa học và hội thảo đáng ngờ. Ví dụ, các buổi hội thảo hứa hẹn “thu nhập đảm bảo” từ đầu tư tiền mã hóa sau khi hoàn thành khóa học, thường chỉ là những nỗ lực để lấy tiền từ các nhà đầu tư thiếu kính thức.

Ví dụ và hậu quả của giáo dục kém chất lượng

Sự lan truyền của các thực hành sai trái, tổn thất tài chính của học viên của các “khóa học” này, và sự suy giảm nhận thức chung về ngành tiền mã hóa như một lĩnh vực nghiêm túc và đáng tin cậy cho đầu tư và nghề nghiệp chỉ là một vài trong số những hậu quả tiêu cực. Khi các ngành công nghiệp mới phát triển, nguy cơ giáo dục kém chất lượng cũng tăng theo. Điều này đặc biệt liên quan đến các chủ đề phức tạp và liên tục phát triển như tiền mã hóa và blockchain. Những kẻ gian lợi dụng các chủ đề này để bán các khóa học với những hứa hẹn phóng đại.

Các dấu hiệu điển hình của các chương trình giáo dục kém chất lượng bao gồm thiếu một giáo trình rõ ràng, quảng cáo phóng đại, và thiếu các đánh giá độc lập và phản hồi tiêu cực. Các khóa học chất lượng có các mục tiêu được định rõ và một cách tiếp cận có cấu trúc, cho phép học viên nâng cao kiến thức từng bước. Hãy cẩn thận với các khóa học tập trung nhiều vào quảng cáo quá đà với những hứa hẹn thành công nhanh chóng và thu nhập khổng lồ.

Quan trọng là tiếp cận việc lựa chọn các chương trình giáo dục trong ngành tiền mã hóa một cách cẩn trọng, tìm kiếm các nguồn thông tin đã được kiểm chứng và không tin vào các hứa hẹn về kết quả dễ dàng.

Phát triển và tầm quan trọng của giáo dục tiền mã hóa

Ngành tiền mã hóa cần những chuyên gia có trình độ. Nhiều yếu tố góp phần vào sự thiếu hụt kiến thức như vậy và những người sở hữu nó. Ví dụ, Cơ quan Ngân hàng Châu Âu (EBA) và Ủy ban Chứng khoán và Giao dịch Hoa Kỳ (SEC) đã nêu rõ vấn đề về sự thiếu hụt chuyên gia tiền mã hóa. Có nhu cầu mạnh mẽ về giáo dục tiền mã hóa từ người dùng, đặc biệt là những người đã tham gia vào lĩnh vực tiền mã hóa.

Theo một cuộc khảo sát của Study.com với 800 phụ huynh Mỹ và 200 sinh viên tốt nghiệp đại học, 86% sinh viên tốt nghiệp tin rằng họ sẽ kiếm được nhiều tiền hơn nếu có kiến thức chính thức về tiền mã hóa và công nghệ mới thay vì bằng đại học. Các bậc phụ huynh cũng tin rằng giáo dục tiền mã hóa nên bắt đầu từ cấp trung học.

Một cột mốc quan trọng trong giáo dục tiền mã hóa là sự xuất hiện của khóa học Bitcoin và Công nghệ Tiền mã hóa của Đại học Princeton, có sẵn trên nền tảng trực tuyến Coursera từ năm 2015. Khóa học, do Arvind Narayanan và những người khác phát triển, là một trong những nỗ lực có hệ thống đầu tiên nhằm dạy học viên những kiến thức cơ bản về tiền mã hóa và công nghệ blockchain.

Giáo dục tiền mã hóa hiện đại vẫn là một lĩnh vực đang phát triển và bao gồm các chủ đề từ cơ bản về công nghệ blockchain đến nghiên cứu chuyên sâu về mật mã học, kinh tế học và quản lý dữ liệu. Các nền tảng như Udemy, Pluralsight và Khan Academy cung cấp các khóa học cho cả người mới bắt đầu và người dùng nâng cao. Tuy nhiên, chất lượng và nội dung của các khóa học này có thể khác nhau đáng kể, do đó việc lựa chọn một chương trình giáo dục cần được thực hiện một cách cẩn trọng và suy xét.

Tác động đến giáo dục và xã hội

Một số chuyên gia sẽ cần phải có một nền giáo dục cơ bản — một bằng đại học trong một lĩnh vực liên quan, ngay cả khi nó không liên quan đến tiền mã hóa. Hiện vẫn còn ít các chương trình đại học về tiền mã hóa, nhưng những nỗ lực đáng chú ý trong hướng này đang được tiến hành ở Georgia.

Năm ngoái, Binance Charity và GITA đã mở đơn đăng ký cho một chương trình giáo dục miễn phí về blockchain. Mục tiêu của dự án là thúc đẩy các hoạt động đổi mới trong các doanh nghiệp nhỏ và vừa (MSME) và cá nhân ở Georgia, và sự tham gia của họ vào nền kinh tế kỹ thuật số. Đặc biệt chú trọng đến giáo dục cho phụ nữ như một phần của cam kết của Binance nhằm xây dựng và tài trợ cho giáo dục Web3 cho phụ nữ.

Binance Academy, một nền tảng giáo dục về blockchain và tiền mã hóa, đã tồn tại từ năm 2018. Nó có hơn 800 bài viết và từ điển, các khóa học về blockchain, tiền mã hóa, Web3, và nhiều hơn nữa. Nó cung cấp quyền truy cập vào các khóa học cho hàng triệu học viên trên toàn thế giới bằng hơn 30 ngôn ngữ.

Các tài liệu giáo dục được cấu trúc đúng cách và mối quan hệ dựa trên niềm tin với khán giả có thể đóng góp vào sự phát triển lành mạnh của ngành. Tuy nhiên, một số chuyên gia tự xưng lợi dụng vị trí của mình để quảng bá các khóa học kém chất lượng hoặc tệ hơn, các sơ đồ lừa đảo. Điều làm cho giáo dục tiền mã hóa hấp dẫn đối với các “chuyên gia” giả là tính mới tương đối và sự quan tâm công chúng cao, khiến lĩnh vực giáo dục này dễ bị khai thác.

Danh sách kiểm tra: cách chọn giáo dục chất lượng

– Xác định mục tiêu học tập của bạn. Bắt đầu bằng cách xác định kỳ vọng của bạn để không bị lừa bởi những hứa hẹn làm giàu nhanh chóng.

– Nghiên cứu lý lịch của các chuyên gia. Các chuyên gia đáng tin cậy thường có nhiều kinh nghiệm trong ngành tiền mã hóa và một nền tảng giáo dục vững chắc.

– Kiểm tra đánh giá và danh tiếng của khóa học. Tìm kiếm các đánh giá độc lập và phân tích các trường hợp thực tế.

– Minh bạch và khả dụng của tài liệu. Các khóa học chất lượng thường cung cấp tài liệu mẫu hoặc mô tả khóa học rõ ràng.

Giáo dục tiền mã hóa không chỉ là một cơ hội để nắm vững kiến thức mới mà còn là một lĩnh vực dễ bị lừa đảo. Chọn các khóa học giáo dục đúng đắn và đánh giá thông tin một cách phê phán sẽ giúp bạn tránh được sai lầm và làm cho trải nghiệm học tập của bạn thực sự có giá trị.
Anthropic Và Chiến Lược “đội Đỏ” Trong Lĩnh Vực Bảo Mật AIAnthropic cùng nhiều ông lớn công nghệ khác đang thành lập “đội đỏ” (Red teaming) nhằm vá lỗi bảo mật, ngăn chặn nguy cơ mô hình bị lợi dụng cho mục đích xấu. Trong tuần, Anthropic đã phát hành hướng dẫn về “đội đỏ”, gia nhập nhóm các nhà cung cấp như Google, Microsoft, NIST, NVIDIA và OpenAI, những đơn vị cũng đã phát hành các khung tương tự. Mục tiêu của các khung này là xác định và khắc phục các lỗ hổng an ninh đang ngày càng gia tăng trong các mô hình trí tuệ nhân tạo (AI). Phương án “đội đỏ” đang chứng tỏ hiệu quả trong việc phát hiện các lỗ hổng an ninh mà các phương pháp bảo mật khác không thể nhìn thấy, giúp các công ty AI tránh việc mô hình của họ bị sử dụng để tạo ra nội dung không mong muốn. Mục tiêu và tầm quan trọng của chiến lược “đội đỏ” trong lĩnh vực AI Nỗi lo ngại về nguy cơ bảo mật từ các mô hình AI đang ngày càng gia tăng, thúc đẩy các nhà hoạch định chính sách tìm kiếm giải pháp cho một nền tảng AI an toàn, đáng tin cậy. Sắc lệnh (EO) về AI An toàn, Bảo mật và Đáng tin cậy (14110) được Tổng thống Biden ký ban hành vào ngày 30/10/2018, đã chỉ đạo NIST thiết lập các hướng dẫn, quy trình phù hợp cho phép các nhà phát triển AI, đặc biệt với mô hình nền tảng sử dụng khép, tiến hành “kiểm nghiệm mô hình AI” – cũng chính là phương án “đội đỏ” AI, nhằm triển khai hệ thống AI an toàn, đáng tin cậy. NIST đã phát hành hai ấn phẩm dự thảo vào cuối tháng 4 để giúp quản lý rủi ro của AI tạo sinh. Các tài liệu này là tài nguyên bổ sung cho Khung quản lý Rủi ro AI (AI RMF) và Khung Phát triển Phần mềm Bảo mật (SSDF). Văn phòng Bảo mật Thông tin Liên bang Đức (BSI) cung cấp chiến lược “đội đỏ” như một phần của khung IT-Grundschutz rộng lớn hơn của họ. Australia, Canada, Liên minh Châu Âu, Nhật Bản, Hà Lan và Singapore cũng có các khung nổi bật. Nghị viện Châu Âu đã thông qua Đạo luật Trí tuệ Nhân tạo EU vào tháng 3 năm nay. Khái niệm về “đội đỏ” AI Thực tế, mô hình đội đỏ đã xuất hiện từ những năm 1960, khi các cuộc tấn công đối nghịch được tạo ra theo dạng mô phỏng nhằm đảm bảo hệ thống máy tính hoạt động ổn định. “Trong máy tính, không có khái niệm ‘an toàn’. Thay vào đó, những gì kỹ sư có thể nói là: chúng tôi đã cố gắng nhưng chưa phá vỡ được nó”, Bruce Schneier, chuyên gia bảo mật và là thành viên tại Trung tâm nghiên cứu Berkman Klein thuộc Đại học Harvard, nói. Ngày nay, “đội đỏ” còn được biết đến như một kỹ thuật kiểm tra các mô hình AI bằng cách mô phỏng các cuộc tấn công đa dạng và không thể đoán trước, nhằm xác định các điểm mạnh và yếu của chúng. Vì các mô hình AI tạo sinh được huấn luyện trên kho dữ liệu khổng lồ, các phương pháp bảo mật truyền thống rất khó tra ra lỗ hổng. Nhưng giống như bất kỳ phần mềm máy tính nào, các mô hình này vẫn có chung các lỗ hổng mạng: chúng có thể bị tấn công bởi những kẻ bất chính để đạt được nhiều mục tiêu khác nhau, bao quát việc đưa ra những câu trả lời gây hại, nội dung khiêu dâm, sử dụng tài liệu có bản quyền một cách bất hợp pháp hay để lộ những thông tin dạng cá nhân như tên, địa chỉ và số điện thoại. Mục tiêu của chiến lược là thúc đẩy các mô hình phản ứng và nói ra những điều chưa được lập trình sẵn để làm, bao quát cả việc bộc lộ thành kiến. Trong đó, các thành viên trong “đội đỏ” sẽ sử dụng các mô hình ngôn ngữ lớn (LLM) để tự động hóa việc tạo lệnh và kịch bản tấn công nhằm tìm và sửa chữa các điểm yếu của mô hình AI tạo sinh ở quy mô lớn. Ví dụ: Google sử dụng đội đỏ để bảo vệ các mô hình AI khỏi các mối đe dọa như tấn công tiêm nhiễm prompt, tấn công đầu độc dữ liệu và backdoor. Khi các lỗ hổng như vậy được xác định, họ có thể thu hẹp lỗi trong phần mềm và cải thiện chúng. Giá trị của chiến lược “đội đỏ” trong việc cải thiện an ninh mô hình AI tiếp tục được chứng minh trong các cuộc thi trên toàn ngành. Vào năm ngoái, DEF CON – hội nghị hacker lớn nhất thế giới – đã tổ chức cuộc thi Generative Red Team (GRT) đầu tiên, được coi là một trong những thành công lớn trong việc sử dụng kỹ thuật crowdsourcing. Các mô hình được cung cấp bởi Anthropic, Cohere, Google, Hugging Face, Meta, Nvidia, OpenAI và Stability. Người tham gia thử nghiệm các mô hình trên một nền tảng đánh giá do Scale AI phát triển. Chiến lược “đội đỏ” AI của Anthropic Khi công bố các phương pháp của mình, Anthropic nhấn mạnh sự cần thiết của các quy trình kiểm tra hệ thống hóa và tiêu chuẩn hóa có thể mở rộng. Theo công ty, sự thiếu hụt các tiêu chuẩn chung chính là rào cản lớn cho quá trình kiểm nghiệm mô hình AI trên toàn ngành Anthropic cũng đồng thời đề xuất bốn phương pháp kiểm nghiệm chính: kiểm nghiệm bởi chuyên gia theo lĩnh vực, sử dụng mô hình ngôn ngữ để kiểm nghiệm, kiểm nghiệm trong các phương thức mới và kiểm nghiệm mở chung. Điểm đáng chú ý trong cách tiếp cận của Anthropic là sự kết hợp nhuần nhuyễn giữa hiểu biết sâu rộng của con người và kết quả định lượng từ các kỹ thuật kiểm nghiệm. Điển hình như việc Anthropic chú trọng đến vai trò của nhóm chuyên gia theo lĩnh vực, đồng thời ưu tiên áp dụng Kiểm tra Lỗ hổng Chính sách (PVT) – kỹ thuật định tính giúp xác định và triển khai biện pháp bảo vệ an ninh, đặc biệt là trong các lĩnh vực nhạy cảm dễ bị lợi dụng như can thiệp bầu cử, kích động thù địch, nội dung khiêu dâm,… Giống như nhiều công ty công nghệ khác, Anthropic đang hướng đến tự động hóa quy trình kiểm tra bằng cách sử dụng chính các mô hình AI thực hiện các cuộc tấn công mô phỏng ngẫu nhiên, từ đó phát hiện lỗ hổng. “Chúng tôi tin rằng, khi mô hình AI càng mạnh mẽ, chúng càng có thể hỗ trợ đắc lực cho con người trong việc kiểm tra, tự động hóa quy trình kiểm nghiệm”, Anthropic chia sẻ. Dựa trên mô hình nhóm đỏ/nhóm xanh, Anthropic sử dụng các mô hình tấn công, “khiêu khích” mô hình AI mục tiêu thực hiện hành vi mong muốn, từ đó thu thập dữ liệu và điều chỉnh, củng cố hệ thống. Một trong những lĩnh vực then chốt và cũng đầy thách thức mà Anthropic đang theo đuổi chính là kiểm nghiệm đa phương thức. Việc kiểm tra các mô hình AI bằng hình ảnh và âm thanh phức tạp hơn rất nhiều so với văn bản, bởi lẽ kẻ tấn công hoàn toàn có thể “trá hình” mã độc trong hình ảnh, âm thanh, qua mặt hệ thống bảo mật. Minh chứng là dòng mô hình Claude 3 của Anthropic, trước khi ra mắt đã phải trải qua quy trình kiểm tra gắt gao về khả năng xử lý thông tin đa phương tiện, nhằm giảm thiểu các rủi ro tiềm ẩn như lừa đảo, kích động thù địch, hay đe dọa an toàn trẻ em. Kết luận Có thể nói, việc kiểm nghiệm mô hình AI đang dần cho thấy vị thế là lớp lá chắn quan trọng, bảo vệ cho sự phát triển bền vững của ngành công nghiệp AI. Sự tham gia của các tập đoàn công nghệ hàng đầu cùng các cơ quan chính phủ cho thấy nỗ lực chung tay kiến tạo một khung pháp lý, kỹ thuật vững chắc, mở ra tương lai cho AI phát triển thịnh vượng nhưng vẫn đảm bảo an toàn và trách nhiệm.

Anthropic Và Chiến Lược “đội Đỏ” Trong Lĩnh Vực Bảo Mật AI

Anthropic cùng nhiều ông lớn công nghệ khác đang thành lập “đội đỏ” (Red teaming) nhằm vá lỗi bảo mật, ngăn chặn nguy cơ mô hình bị lợi dụng cho mục đích xấu.

Trong tuần, Anthropic đã phát hành hướng dẫn về “đội đỏ”, gia nhập nhóm các nhà cung cấp như Google, Microsoft, NIST, NVIDIA và OpenAI, những đơn vị cũng đã phát hành các khung tương tự. Mục tiêu của các khung này là xác định và khắc phục các lỗ hổng an ninh đang ngày càng gia tăng trong các mô hình trí tuệ nhân tạo (AI).

Phương án “đội đỏ” đang chứng tỏ hiệu quả trong việc phát hiện các lỗ hổng an ninh mà các phương pháp bảo mật khác không thể nhìn thấy, giúp các công ty AI tránh việc mô hình của họ bị sử dụng để tạo ra nội dung không mong muốn.

Mục tiêu và tầm quan trọng của chiến lược “đội đỏ” trong lĩnh vực AI

Nỗi lo ngại về nguy cơ bảo mật từ các mô hình AI đang ngày càng gia tăng, thúc đẩy các nhà hoạch định chính sách tìm kiếm giải pháp cho một nền tảng AI an toàn, đáng tin cậy. Sắc lệnh (EO) về AI An toàn, Bảo mật và Đáng tin cậy (14110) được Tổng thống Biden ký ban hành vào ngày 30/10/2018, đã chỉ đạo NIST thiết lập các hướng dẫn, quy trình phù hợp cho phép các nhà phát triển AI, đặc biệt với mô hình nền tảng sử dụng khép, tiến hành “kiểm nghiệm mô hình AI” – cũng chính là phương án “đội đỏ” AI, nhằm triển khai hệ thống AI an toàn, đáng tin cậy.

NIST đã phát hành hai ấn phẩm dự thảo vào cuối tháng 4 để giúp quản lý rủi ro của AI tạo sinh. Các tài liệu này là tài nguyên bổ sung cho Khung quản lý Rủi ro AI (AI RMF) và Khung Phát triển Phần mềm Bảo mật (SSDF).

Văn phòng Bảo mật Thông tin Liên bang Đức (BSI) cung cấp chiến lược “đội đỏ” như một phần của khung IT-Grundschutz rộng lớn hơn của họ. Australia, Canada, Liên minh Châu Âu, Nhật Bản, Hà Lan và Singapore cũng có các khung nổi bật. Nghị viện Châu Âu đã thông qua Đạo luật Trí tuệ Nhân tạo EU vào tháng 3 năm nay.

Khái niệm về “đội đỏ” AI

Thực tế, mô hình đội đỏ đã xuất hiện từ những năm 1960, khi các cuộc tấn công đối nghịch được tạo ra theo dạng mô phỏng nhằm đảm bảo hệ thống máy tính hoạt động ổn định. “Trong máy tính, không có khái niệm ‘an toàn’. Thay vào đó, những gì kỹ sư có thể nói là: chúng tôi đã cố gắng nhưng chưa phá vỡ được nó”, Bruce Schneier, chuyên gia bảo mật và là thành viên tại Trung tâm nghiên cứu Berkman Klein thuộc Đại học Harvard, nói.

Ngày nay, “đội đỏ” còn được biết đến như một kỹ thuật kiểm tra các mô hình AI bằng cách mô phỏng các cuộc tấn công đa dạng và không thể đoán trước, nhằm xác định các điểm mạnh và yếu của chúng. Vì các mô hình AI tạo sinh được huấn luyện trên kho dữ liệu khổng lồ, các phương pháp bảo mật truyền thống rất khó tra ra lỗ hổng.

Nhưng giống như bất kỳ phần mềm máy tính nào, các mô hình này vẫn có chung các lỗ hổng mạng: chúng có thể bị tấn công bởi những kẻ bất chính để đạt được nhiều mục tiêu khác nhau, bao quát việc đưa ra những câu trả lời gây hại, nội dung khiêu dâm, sử dụng tài liệu có bản quyền một cách bất hợp pháp hay để lộ những thông tin dạng cá nhân như tên, địa chỉ và số điện thoại. Mục tiêu của chiến lược là thúc đẩy các mô hình phản ứng và nói ra những điều chưa được lập trình sẵn để làm, bao quát cả việc bộc lộ thành kiến.

Trong đó, các thành viên trong “đội đỏ” sẽ sử dụng các mô hình ngôn ngữ lớn (LLM) để tự động hóa việc tạo lệnh và kịch bản tấn công nhằm tìm và sửa chữa các điểm yếu của mô hình AI tạo sinh ở quy mô lớn.

Ví dụ: Google sử dụng đội đỏ để bảo vệ các mô hình AI khỏi các mối đe dọa như tấn công tiêm nhiễm prompt, tấn công đầu độc dữ liệu và backdoor. Khi các lỗ hổng như vậy được xác định, họ có thể thu hẹp lỗi trong phần mềm và cải thiện chúng.

Giá trị của chiến lược “đội đỏ” trong việc cải thiện an ninh mô hình AI tiếp tục được chứng minh trong các cuộc thi trên toàn ngành. Vào năm ngoái, DEF CON – hội nghị hacker lớn nhất thế giới – đã tổ chức cuộc thi Generative Red Team (GRT) đầu tiên, được coi là một trong những thành công lớn trong việc sử dụng kỹ thuật crowdsourcing.

Các mô hình được cung cấp bởi Anthropic, Cohere, Google, Hugging Face, Meta, Nvidia, OpenAI và Stability. Người tham gia thử nghiệm các mô hình trên một nền tảng đánh giá do Scale AI phát triển.

Chiến lược “đội đỏ” AI của Anthropic

Khi công bố các phương pháp của mình, Anthropic nhấn mạnh sự cần thiết của các quy trình kiểm tra hệ thống hóa và tiêu chuẩn hóa có thể mở rộng. Theo công ty, sự thiếu hụt các tiêu chuẩn chung chính là rào cản lớn cho quá trình kiểm nghiệm mô hình AI trên toàn ngành

Anthropic cũng đồng thời đề xuất bốn phương pháp kiểm nghiệm chính: kiểm nghiệm bởi chuyên gia theo lĩnh vực, sử dụng mô hình ngôn ngữ để kiểm nghiệm, kiểm nghiệm trong các phương thức mới và kiểm nghiệm mở chung.

Điểm đáng chú ý trong cách tiếp cận của Anthropic là sự kết hợp nhuần nhuyễn giữa hiểu biết sâu rộng của con người và kết quả định lượng từ các kỹ thuật kiểm nghiệm. Điển hình như việc Anthropic chú trọng đến vai trò của nhóm chuyên gia theo lĩnh vực, đồng thời ưu tiên áp dụng Kiểm tra Lỗ hổng Chính sách (PVT) – kỹ thuật định tính giúp xác định và triển khai biện pháp bảo vệ an ninh, đặc biệt là trong các lĩnh vực nhạy cảm dễ bị lợi dụng như can thiệp bầu cử, kích động thù địch, nội dung khiêu dâm,…

Giống như nhiều công ty công nghệ khác, Anthropic đang hướng đến tự động hóa quy trình kiểm tra bằng cách sử dụng chính các mô hình AI thực hiện các cuộc tấn công mô phỏng ngẫu nhiên, từ đó phát hiện lỗ hổng. “Chúng tôi tin rằng, khi mô hình AI càng mạnh mẽ, chúng càng có thể hỗ trợ đắc lực cho con người trong việc kiểm tra, tự động hóa quy trình kiểm nghiệm”, Anthropic chia sẻ.

Dựa trên mô hình nhóm đỏ/nhóm xanh, Anthropic sử dụng các mô hình tấn công, “khiêu khích” mô hình AI mục tiêu thực hiện hành vi mong muốn, từ đó thu thập dữ liệu và điều chỉnh, củng cố hệ thống.

Một trong những lĩnh vực then chốt và cũng đầy thách thức mà Anthropic đang theo đuổi chính là kiểm nghiệm đa phương thức. Việc kiểm tra các mô hình AI bằng hình ảnh và âm thanh phức tạp hơn rất nhiều so với văn bản, bởi lẽ kẻ tấn công hoàn toàn có thể “trá hình” mã độc trong hình ảnh, âm thanh, qua mặt hệ thống bảo mật. Minh chứng là dòng mô hình Claude 3 của Anthropic, trước khi ra mắt đã phải trải qua quy trình kiểm tra gắt gao về khả năng xử lý thông tin đa phương tiện, nhằm giảm thiểu các rủi ro tiềm ẩn như lừa đảo, kích động thù địch, hay đe dọa an toàn trẻ em.

Kết luận

Có thể nói, việc kiểm nghiệm mô hình AI đang dần cho thấy vị thế là lớp lá chắn quan trọng, bảo vệ cho sự phát triển bền vững của ngành công nghiệp AI. Sự tham gia của các tập đoàn công nghệ hàng đầu cùng các cơ quan chính phủ cho thấy nỗ lực chung tay kiến tạo một khung pháp lý, kỹ thuật vững chắc, mở ra tương lai cho AI phát triển thịnh vượng nhưng vẫn đảm bảo an toàn và trách nhiệm.
Perplexity bắt Tay SoftBank, Mở Rộng Thị Trường Nhật BảnCông cụ tìm kiếm AI Perplexity đã chính thức hợp tác với SoftBank, cung cấp gói thuê bao miễn phí một năm cho dịch vụ Perplexity Pro tại Nhật Bản, nhằm tiếp cận lượng người dùng khổng lồ tại thị trường này.  Bắt đầu từ ngày 19/6, SoftBank cùng hai công ty con Y!mobile và LINEMO sẽ cung cấp gói miễn phí này, giúp Perplexity mở rộng thị phần và cạnh tranh với các “ông lớn” như Google. Đây là bước đi chiến lược của Perplexity sau khi công bố quan hệ đối tác với SoftBank vào tháng 4. Việc hợp tác này không chỉ giúp SoftBank thu hút người dùng quan tâm đến AI mà còn mở ra cơ hội tăng khách hàng và doanh thu. SoftBank từ lâu đã nổi tiếng với tầm nhìn chiến lược trong lĩnh vực công nghệ. Tập đoàn này không chỉ rót vốn đầu tưvào các startup AI tiềm năng, mà còn chủ động phát triển các dự án AI của riêng mình. Với Perplexity Pro, người dùng có thể trải nghiệm phiên bản nâng cao của Perplexity với nhiều tính năng vượt trội như lựa chọn LLM mới nhất để tìm kiếm thông tin toàn diện, xử lý dữ liệu hiệu quả hơn, tạo hình ảnh chất lượng cao và AI Profile – cá nhân hóa kết quả tìm kiếm. Hiện tại, ứng dụng Perplexity Pro trên iOS có giá 3.000 yên/tháng và 30.000 yên/năm. Phiên bản web có giá 20 USD/tháng và 200 USD/năm.

Perplexity bắt Tay SoftBank, Mở Rộng Thị Trường Nhật Bản

Công cụ tìm kiếm AI Perplexity đã chính thức hợp tác với SoftBank, cung cấp gói thuê bao miễn phí một năm cho dịch vụ Perplexity Pro tại Nhật Bản, nhằm tiếp cận lượng người dùng khổng lồ tại thị trường này. 

Bắt đầu từ ngày 19/6, SoftBank cùng hai công ty con Y!mobile và LINEMO sẽ cung cấp gói miễn phí này, giúp Perplexity mở rộng thị phần và cạnh tranh với các “ông lớn” như Google.

Đây là bước đi chiến lược của Perplexity sau khi công bố quan hệ đối tác với SoftBank vào tháng 4. Việc hợp tác này không chỉ giúp SoftBank thu hút người dùng quan tâm đến AI mà còn mở ra cơ hội tăng khách hàng và doanh thu.

SoftBank từ lâu đã nổi tiếng với tầm nhìn chiến lược trong lĩnh vực công nghệ. Tập đoàn này không chỉ rót vốn đầu tưvào các startup AI tiềm năng, mà còn chủ động phát triển các dự án AI của riêng mình.

Với Perplexity Pro, người dùng có thể trải nghiệm phiên bản nâng cao của Perplexity với nhiều tính năng vượt trội như lựa chọn LLM mới nhất để tìm kiếm thông tin toàn diện, xử lý dữ liệu hiệu quả hơn, tạo hình ảnh chất lượng cao và AI Profile – cá nhân hóa kết quả tìm kiếm.

Hiện tại, ứng dụng Perplexity Pro trên iOS có giá 3.000 yên/tháng và 30.000 yên/năm. Phiên bản web có giá 20 USD/tháng và 200 USD/năm.
OpenAI Chiêu Mộ Cựu Tư Lệnh an Ninh Mạng MỹNgày 13/6, OpenAI thông báo rằng cựu giám đốc Cơ quan An ninh Quốc gia Mỹ (NSA), tướng Paul Nakasone, sẽ tham gia vào tiểu ban Uỷ ban An toàn AI của Ban giám đốc. Việc bổ nhiệm ông Nakasone, một nhân vật kỳ cựu trong lĩnh vực an ninh quốc gia được xem là nỗ lực của OpenAI nhằm xoa dịu dư luận, đặc biệt là những lo ngại cho rằng công ty đang phát AI quá nhanh chóng mà chưa có biện pháp kiểm soát rủi ro hiệu quả. Tuy nhiên động thái này cũng vấp phải nhiều ý kiến trái chiều. Một số người cho rằng kinh nghiệm của ông Nakasone tại NSA, cơ quan từng vướng vào nhiều bê bối về quyền riêng tư có thể khiến OpenAI đi theo hướng “lấy dữ liệu bằng mọi giá”. Dù vậy, không thể phủ nhận kiến thức và kinh nghiệm an ninh mạng dày dặn trong nhiều thập kỷ trải dài từ Lục quân, Bộ Tư lệnh Không gian mạng và NSA của ông Nakasone. Điều này đặc biệt quan trọng trong bối cảnh OpenAI đang tìm cách cung cấp giải pháp AI cho những lĩnh vực nhạy cảm như quốc phòng, an ninh quốc gia. Trong thông cáo báo chí, OpenAI cho biết ông Nakasone sẽ tham gia vào tiểu ban an toàn và an ninh của ban giám đốc, chịu trách nhiệm “đưa ra các khuyến nghị cho toàn bộ Ban giám đốc về các quyết định an toàn và an ninh quan trọng. Hiện vẫn chưa rõ thực thể mới được ra mắt này sẽ thực hiện những gì và hoạt động ra sao, vì một số thành viên cấp cao đang làm việc về lĩnh vực an toàn (về rủi ro) AI đã rời công ty, và tiểu ban này hiện đang trong giai đoạn đánh giá 90 ngày về các quy trình và biện pháp bảo vệ của công ty. “Chúng tôi tin rằng AI có tiềm năng mang lại những lợi ích đáng kể trong lĩnh vực an ninh mạng cho nhiều tổ chức thường xuyên là mục tiêu của các cuộc tấn công mạng như bệnh viện, trường học và các tổ chức tài chính,” OpenAI cho biết. Việc OpenAI nhắm đến thị trường an ninh mạng là điều dễ hiểu. Theo báo cáo của Cybersecurity Ventures, thiệt hại do tội phạm mạng gây ra trên toàn cầu dự kiến lên tới 10,5 nghìn tỷ USD mỗi năm vào năm 2025. Đây là thị trường màu mỡ cho các công ty công nghệ như OpenAI. Việc bổ nhiệm tướng Paul Nakasone vào ban giám đốc có thể là một bước đi quan trọng của OpenAI, nhằm đảm bảo công ty sẽ tiếp tục phát triển trong sự an toàn và bảo mật, đáp ứng kỳ vọng của khách hàng và cổ đông, đồng thời mở rộng thị trường mới trong lĩnh vực an ninh mạng.

OpenAI Chiêu Mộ Cựu Tư Lệnh an Ninh Mạng Mỹ

Ngày 13/6, OpenAI thông báo rằng cựu giám đốc Cơ quan An ninh Quốc gia Mỹ (NSA), tướng Paul Nakasone, sẽ tham gia vào tiểu ban Uỷ ban An toàn AI của Ban giám đốc.

Việc bổ nhiệm ông Nakasone, một nhân vật kỳ cựu trong lĩnh vực an ninh quốc gia được xem là nỗ lực của OpenAI nhằm xoa dịu dư luận, đặc biệt là những lo ngại cho rằng công ty đang phát AI quá nhanh chóng mà chưa có biện pháp kiểm soát rủi ro hiệu quả.

Tuy nhiên động thái này cũng vấp phải nhiều ý kiến trái chiều. Một số người cho rằng kinh nghiệm của ông Nakasone tại NSA, cơ quan từng vướng vào nhiều bê bối về quyền riêng tư có thể khiến OpenAI đi theo hướng “lấy dữ liệu bằng mọi giá”.

Dù vậy, không thể phủ nhận kiến thức và kinh nghiệm an ninh mạng dày dặn trong nhiều thập kỷ trải dài từ Lục quân, Bộ Tư lệnh Không gian mạng và NSA của ông Nakasone. Điều này đặc biệt quan trọng trong bối cảnh OpenAI đang tìm cách cung cấp giải pháp AI cho những lĩnh vực nhạy cảm như quốc phòng, an ninh quốc gia.

Trong thông cáo báo chí, OpenAI cho biết ông Nakasone sẽ tham gia vào tiểu ban an toàn và an ninh của ban giám đốc, chịu trách nhiệm “đưa ra các khuyến nghị cho toàn bộ Ban giám đốc về các quyết định an toàn và an ninh quan trọng.

Hiện vẫn chưa rõ thực thể mới được ra mắt này sẽ thực hiện những gì và hoạt động ra sao, vì một số thành viên cấp cao đang làm việc về lĩnh vực an toàn (về rủi ro) AI đã rời công ty, và tiểu ban này hiện đang trong giai đoạn đánh giá 90 ngày về các quy trình và biện pháp bảo vệ của công ty.

“Chúng tôi tin rằng AI có tiềm năng mang lại những lợi ích đáng kể trong lĩnh vực an ninh mạng cho nhiều tổ chức thường xuyên là mục tiêu của các cuộc tấn công mạng như bệnh viện, trường học và các tổ chức tài chính,” OpenAI cho biết.

Việc OpenAI nhắm đến thị trường an ninh mạng là điều dễ hiểu. Theo báo cáo của Cybersecurity Ventures, thiệt hại do tội phạm mạng gây ra trên toàn cầu dự kiến lên tới 10,5 nghìn tỷ USD mỗi năm vào năm 2025. Đây là thị trường màu mỡ cho các công ty công nghệ như OpenAI.

Việc bổ nhiệm tướng Paul Nakasone vào ban giám đốc có thể là một bước đi quan trọng của OpenAI, nhằm đảm bảo công ty sẽ tiếp tục phát triển trong sự an toàn và bảo mật, đáp ứng kỳ vọng của khách hàng và cổ đông, đồng thời mở rộng thị trường mới trong lĩnh vực an ninh mạng.
Elon Musk Rút Đơn Kiện OpenAISau hơn ba tháng kiện cáo, Elon Musk đã bất ngờ rút đơn kiện OpenAI, cáo buộc công ty này đi ngược sứ mệnh ban đầu để chạy theo lợi nhuận. Quyết định này được xem là một bước ngoặt, mở ra nhiều khả năng cho tương lai của ngành AI và mối quan hệ giữa hai ông lớn công nghệ. Musk, đồng sáng lập OpenAI, đã rời khỏi ban quản trị công ty vào năm 2018 và bày tỏ sự bất mãn với việc OpenAI trở thành một “chi nhánh kín đáo” của Microsoft. Đơn kiện được đệ trình vào tháng Hai nhằm ngăn cản OpenAI và Microsoft khai thác công nghệ AGI của mình vì lợi nhuận cá nhân. Tuy nhiên, sau phản ứng của OpenAI với việc bày tỏ sự tiếc nuối về sự chia rẽ và nhấn mạnh vào những thành công gần đây của ChatGPT, Musk đã quyết định rút đơn kiện. Sự kiện này được giới chuyên gia đánh giá là một dấu hiệu tích cực cho sự hợp tác trong lĩnh vực AI. Thay vì đối đầu, hai gã khổng lồ công nghệ có thể cùng chung tay thúc đẩy sự phát triển của AI vì lợi ích nhân loại, đặc biệt là trong bối cảnh cuộc đua AI đang ngày càng khốc liệt. Động thái này cũng có thể phản ánh một sự thay đổi chiến lược của Elon Musk, tập trung vào việc phát triển AI cho mục đích nhân đạo thông qua công ty xAI của mình. xAI đã nhận được 6 tỷ USD trong vòng gọi vốn Series B vào tháng Năm, khẳng định tham vọng lớn của Musk trong lĩnh vực AI. Sự kiện này cũng cho thấy tầm quan trọng của ChatGPT, sản phẩm đình đám của OpenAI, đã gây tiếng vang lớn trong cộng đồng công nghệ.

Elon Musk Rút Đơn Kiện OpenAI

Sau hơn ba tháng kiện cáo, Elon Musk đã bất ngờ rút đơn kiện OpenAI, cáo buộc công ty này đi ngược sứ mệnh ban đầu để chạy theo lợi nhuận. Quyết định này được xem là một bước ngoặt, mở ra nhiều khả năng cho tương lai của ngành AI và mối quan hệ giữa hai ông lớn công nghệ.

Musk, đồng sáng lập OpenAI, đã rời khỏi ban quản trị công ty vào năm 2018 và bày tỏ sự bất mãn với việc OpenAI trở thành một “chi nhánh kín đáo” của Microsoft. Đơn kiện được đệ trình vào tháng Hai nhằm ngăn cản OpenAI và Microsoft khai thác công nghệ AGI của mình vì lợi nhuận cá nhân.

Tuy nhiên, sau phản ứng của OpenAI với việc bày tỏ sự tiếc nuối về sự chia rẽ và nhấn mạnh vào những thành công gần đây của ChatGPT, Musk đã quyết định rút đơn kiện.

Sự kiện này được giới chuyên gia đánh giá là một dấu hiệu tích cực cho sự hợp tác trong lĩnh vực AI. Thay vì đối đầu, hai gã khổng lồ công nghệ có thể cùng chung tay thúc đẩy sự phát triển của AI vì lợi ích nhân loại, đặc biệt là trong bối cảnh cuộc đua AI đang ngày càng khốc liệt.

Động thái này cũng có thể phản ánh một sự thay đổi chiến lược của Elon Musk, tập trung vào việc phát triển AI cho mục đích nhân đạo thông qua công ty xAI của mình. xAI đã nhận được 6 tỷ USD trong vòng gọi vốn Series B vào tháng Năm, khẳng định tham vọng lớn của Musk trong lĩnh vực AI.

Sự kiện này cũng cho thấy tầm quan trọng của ChatGPT, sản phẩm đình đám của OpenAI, đã gây tiếng vang lớn trong cộng đồng công nghệ.
Meta Tạm Ngừng Ra Mắt Trợ Lý AI Ở Châu Âu Meta đã thông báo tạm dừng ra mắt và đào tạo trợ lý AI của mình tại Châu Âu theo yêu cầu của Ủy ban Bảo vệ Dữ liệu Ireland (DPC). Yêu cầu này được đưa ra sau khi DPC, cơ quan quản lý quyền riêng tư hàng đầu của Meta tại EU, yêu cầu công ty tạm dừng đào tạo mô hình ngôn ngữ lớn (LLM) sử dụng dữ liệu công khai do người dùng Facebook và Instagram chia sẻ. Meta cho biết quyết định này khiến họ “thất vọng” và coi đó là “bước lùi” đối với sự cạnh tranh và đổi mới AI ở EU. Tuy nhiên, công ty khẳng định họ tuân thủ các quy định của Châu Âu. DPC đã ủng hộ việc tạm dừng này, cho biết họ “hoan nghênh quyết định” và sẽ tiếp tục hợp tác với Meta sau những “sự tham gia sâu rộng” trước đó. Theo tổ chức phi lợi nhuận về quyền riêng tư ở Châu Âu NOYB, yêu cầu tạm dừng hoạt động của Meta là kết quả của các khiếu nại từ chính họ, và các tổ chức khác như Hội đồng Người tiêu dùng Na Uy và một số cơ quan bảo vệ dữ liệu khác. Vấn đề này đã diễn biến trong nhiều tháng. Meta cho biết họ đã thông báo cho các cơ quan bảo vệ dữ liệu Châu Âu về các hoạt động của mình kể từ tháng 3. Tuy nhiên, tình hình trở nên nghiêm trọng hơn khi Meta bắt đầu thông báo cho người dùng về hoạt động đào tạo AI của mình thông qua hơn hai tỷ thông báo và email trong ứng dụng vào ngày 22/5. NOYB đã gửi khiếu nại tới 11 cơ quan bảo vệ dữ liệu vào ngày 6/6. Meta thừa nhận đã tham vấn với DPC vào ngày 10/6 và cho biết họ đã tích hợp phản hồi để đảm bảo hoạt động đào tạo AI của mình tuân thủ luật AI. Meta lưu ý rằng Google và OpenAI cũng đã sử dụng AI để đào tạo dữ liệu người dùng. Công ty dự kiến sẽ tuân thủ luật Quy định bảo vệ dữ liệu chung (GDPR) của EU trên cơ sở pháp lý về “Lợi ích hợp pháp,” một điều khoản linh hoạt mà các công ty AI khác đã dựa vào. Việc tạm dừng này cho thấy sự phức tạp và thách thức trong việc áp dụng công nghệ AI, đặc biệt trong bối cảnh các quy định bảo vệ dữ liệu ngày càng nghiêm ngặt.

Meta Tạm Ngừng Ra Mắt Trợ Lý AI Ở Châu Âu 

Meta đã thông báo tạm dừng ra mắt và đào tạo trợ lý AI của mình tại Châu Âu theo yêu cầu của Ủy ban Bảo vệ Dữ liệu Ireland (DPC).

Yêu cầu này được đưa ra sau khi DPC, cơ quan quản lý quyền riêng tư hàng đầu của Meta tại EU, yêu cầu công ty tạm dừng đào tạo mô hình ngôn ngữ lớn (LLM) sử dụng dữ liệu công khai do người dùng Facebook và Instagram chia sẻ.

Meta cho biết quyết định này khiến họ “thất vọng” và coi đó là “bước lùi” đối với sự cạnh tranh và đổi mới AI ở EU. Tuy nhiên, công ty khẳng định họ tuân thủ các quy định của Châu Âu.

DPC đã ủng hộ việc tạm dừng này, cho biết họ “hoan nghênh quyết định” và sẽ tiếp tục hợp tác với Meta sau những “sự tham gia sâu rộng” trước đó.

Theo tổ chức phi lợi nhuận về quyền riêng tư ở Châu Âu NOYB, yêu cầu tạm dừng hoạt động của Meta là kết quả của các khiếu nại từ chính họ, và các tổ chức khác như Hội đồng Người tiêu dùng Na Uy và một số cơ quan bảo vệ dữ liệu khác.

Vấn đề này đã diễn biến trong nhiều tháng. Meta cho biết họ đã thông báo cho các cơ quan bảo vệ dữ liệu Châu Âu về các hoạt động của mình kể từ tháng 3.

Tuy nhiên, tình hình trở nên nghiêm trọng hơn khi Meta bắt đầu thông báo cho người dùng về hoạt động đào tạo AI của mình thông qua hơn hai tỷ thông báo và email trong ứng dụng vào ngày 22/5. NOYB đã gửi khiếu nại tới 11 cơ quan bảo vệ dữ liệu vào ngày 6/6.

Meta thừa nhận đã tham vấn với DPC vào ngày 10/6 và cho biết họ đã tích hợp phản hồi để đảm bảo hoạt động đào tạo AI của mình tuân thủ luật AI.

Meta lưu ý rằng Google và OpenAI cũng đã sử dụng AI để đào tạo dữ liệu người dùng. Công ty dự kiến sẽ tuân thủ luật Quy định bảo vệ dữ liệu chung (GDPR) của EU trên cơ sở pháp lý về “Lợi ích hợp pháp,” một điều khoản linh hoạt mà các công ty AI khác đã dựa vào.

Việc tạm dừng này cho thấy sự phức tạp và thách thức trong việc áp dụng công nghệ AI, đặc biệt trong bối cảnh các quy định bảo vệ dữ liệu ngày càng nghiêm ngặt.
Luật AI Của Châu Âu Gây Tranh Cãi Về Minh Bạch Dữ LiệuLuật AI mới của Liên minh Châu Âu (EU) sẽ buộc các công ty tiết lộ dữ liệu huấn luyện, tạo nên cuộc tranh cãi lớn về quyền sở hữu trí tuệ. Sự ra đời của ChatGPT đánh dấu cột mốc quan trọng, mở ra kỷ nguyên bùng nổ của AI tạo sinh (Gen AI). Chỉ trong vòng 18 tháng, công nghệ này đã thu hút lượng đầu tư khổng lồ và ứng dụng rộng rãi trong nhiều lĩnh vực. AI tạo sinh là tập hợp các ứng dụng có thể sản xuất nhanh chóng nội dung văn bản, hình ảnh và âm thanh. Tuy nhiên, bên cạnh những lợi ích to lớn, AI tạo sinh cũng đặt ra nhiều vấn đề về mặt pháp lý, đặc biệt là câu chuyện về nguồn gốc dữ liệu huấn luyện, theo Reuters. Nắm bắt được những thách thức này, Liên minh châu Âu (EU) đã tiên phong ban hành Luật AI, dự kiến có hiệu lực trong vòng 2 năm tới. Một trong những điểm đáng chú ý nhất của luật này là yêu cầu các tổ chức triển khai mô hình AI đa năng, điển hình như ChatGPT, phải công khai minh bạch dữ liệu huấn luyện. Cụ thể, họ phải cung cấp “bản tóm tắt chi tiết” về nguồn dữ liệu được sử dụng, bao gồm cả văn bản, hình ảnh và âm thanh. Quy định này được kỳ vọng sẽ phần nào giải quyết được những lo ngại về việc vi phạm bản quyền khi nhiều công ty AI bị cáo buộc sử dụng trái phép sách, phim ảnh và các tác phẩm nghệ thuật khác để huấn luyện AI mà chưa có sự đồng ý của tác giả. Tuy nhiên, động thái này vấp phải sự phản đối mạnh mẽ từ phía các công ty công nghệ. Họ cho rằng việc tiết lộ dữ liệu huấn luyện chẳng khác nào “bật mí công thức bí mật”, gây bất lợi cho họ trong cuộc đua cạnh tranh khốc liệt. Ông Matthieu Riouf, CEO của Photoroom, một công ty chuyên về chỉnh sửa ảnh bằng AI, ví von: “Việc công khai dữ liệu huấn luyện AI cũng giống như việc bắt một đầu bếp danh tiếng tiết lộ công thức nấu ăn bí mật của mình vậy”. Quan điểm này cũng nhận được sự đồng tình từ nhiều ông lớn công nghệ khác như Google, Meta, những đơn vị đang đặt cược tương lai vào AI. Mức độ chi tiết của các báo cáo minh bạch này sẽ có ảnh hưởng lớn đối với các startup AI nhỏ và các công ty công nghệ lớn như Google và Meta, những công ty đã đặt công nghệ này vào trung tâm hoạt động tương lai của họ. Trong năm qua, một số công ty công nghệ nổi tiếng, bao gồm Google, OpenAI và Stability AI, đã phải đối mặt với các vụ kiện từ các tác giả cho rằng nội dung của họ đã bị sử dụng không đúng cách để huấn luyện các mô hình. Mặc dù Tổng thống Mỹ Joe Biden đã ban hành một số lệnh hành pháp tập trung vào các rủi ro an ninh của AI, các câu hỏi về bản quyền vẫn chưa được thử nghiệm đầy đủ. Các yêu cầu buộc các công ty công nghệ phải trả tiền cho những người giữ quyền đã nhận được sự ủng hộ lưỡng đảng trong Quốc hội. Trước sức ép từ dư luận, các ông lớn công nghệ đã rục rịch “xoa dịu” bằng hàng loạt thỏa thuận cấp phép nội dung với các cơ quan truyền thông. Điển hình như OpenAI đã ký kết thỏa thuận với Financial Times và The Atlantic, trong khi Google bắt tay với mạng xã hội Reddit của NewsCorp. Tuy nhiên, những động thái này vẫn chưa đủ để xoa dịu dư luận. OpenAI tiếp tục hứng chịu chỉ trích khi CTO Mira Murati từ chối trả lời câu hỏi về việc liệu công ty có sử dụng video YouTube để huấn luyện Sora – công cụ tạo video AI – hay không. Vụ việc giọng nói AI của nữ diễn viên Scarlett Johansson trong phiên bản ChatGPT mới nhất càng khiến làn sóng phản đối OpenAI dâng cao. Giữa tâm bão tranh cãi, Thomas Wolf, đồng sáng lập Hugging Face, lên tiếng ủng hộ minh bạch dữ liệu, nhưng thừa nhận quan điểm này không nhận được sự đồng thuận trong ngành. Trong khi đó, giới lập pháp châu Âu cũng có những quan điểm trái chiều. Nghị sĩ Dragos Tudorache, một trong những người soạn thảo Luật AI, cho rằng việc công khai dữ liệu huấn luyện là cần thiết để đảm bảo quyền lợi cho các nhà sáng tạo nội dung. “Họ có quyền được biết liệu tác phẩm của mình có bị sử dụng để huấn luyện AI hay không”, ông nhấn mạnh. Cuộc chiến giữa minh bạch dữ liệu và bí mật thương mại trong lĩnh vực AI đang ngày càng trở nên nóng hơn bao giờ hết. Giới chuyên gia dự đoán đây sẽ là một trong những thách thức lớn nhất mà các nhà hoạch định chính sách và doanh nghiệp phải đối mặt trong thời gian tới.

Luật AI Của Châu Âu Gây Tranh Cãi Về Minh Bạch Dữ Liệu

Luật AI mới của Liên minh Châu Âu (EU) sẽ buộc các công ty tiết lộ dữ liệu huấn luyện, tạo nên cuộc tranh cãi lớn về quyền sở hữu trí tuệ.

Sự ra đời của ChatGPT đánh dấu cột mốc quan trọng, mở ra kỷ nguyên bùng nổ của AI tạo sinh (Gen AI). Chỉ trong vòng 18 tháng, công nghệ này đã thu hút lượng đầu tư khổng lồ và ứng dụng rộng rãi trong nhiều lĩnh vực. AI tạo sinh là tập hợp các ứng dụng có thể sản xuất nhanh chóng nội dung văn bản, hình ảnh và âm thanh.

Tuy nhiên, bên cạnh những lợi ích to lớn, AI tạo sinh cũng đặt ra nhiều vấn đề về mặt pháp lý, đặc biệt là câu chuyện về nguồn gốc dữ liệu huấn luyện, theo Reuters.

Nắm bắt được những thách thức này, Liên minh châu Âu (EU) đã tiên phong ban hành Luật AI, dự kiến có hiệu lực trong vòng 2 năm tới. Một trong những điểm đáng chú ý nhất của luật này là yêu cầu các tổ chức triển khai mô hình AI đa năng, điển hình như ChatGPT, phải công khai minh bạch dữ liệu huấn luyện. Cụ thể, họ phải cung cấp “bản tóm tắt chi tiết” về nguồn dữ liệu được sử dụng, bao gồm cả văn bản, hình ảnh và âm thanh.

Quy định này được kỳ vọng sẽ phần nào giải quyết được những lo ngại về việc vi phạm bản quyền khi nhiều công ty AI bị cáo buộc sử dụng trái phép sách, phim ảnh và các tác phẩm nghệ thuật khác để huấn luyện AI mà chưa có sự đồng ý của tác giả.

Tuy nhiên, động thái này vấp phải sự phản đối mạnh mẽ từ phía các công ty công nghệ. Họ cho rằng việc tiết lộ dữ liệu huấn luyện chẳng khác nào “bật mí công thức bí mật”, gây bất lợi cho họ trong cuộc đua cạnh tranh khốc liệt.

Ông Matthieu Riouf, CEO của Photoroom, một công ty chuyên về chỉnh sửa ảnh bằng AI, ví von: “Việc công khai dữ liệu huấn luyện AI cũng giống như việc bắt một đầu bếp danh tiếng tiết lộ công thức nấu ăn bí mật của mình vậy”. Quan điểm này cũng nhận được sự đồng tình từ nhiều ông lớn công nghệ khác như Google, Meta, những đơn vị đang đặt cược tương lai vào AI.

Mức độ chi tiết của các báo cáo minh bạch này sẽ có ảnh hưởng lớn đối với các startup AI nhỏ và các công ty công nghệ lớn như Google và Meta, những công ty đã đặt công nghệ này vào trung tâm hoạt động tương lai của họ.

Trong năm qua, một số công ty công nghệ nổi tiếng, bao gồm Google, OpenAI và Stability AI, đã phải đối mặt với các vụ kiện từ các tác giả cho rằng nội dung của họ đã bị sử dụng không đúng cách để huấn luyện các mô hình. Mặc dù Tổng thống Mỹ Joe Biden đã ban hành một số lệnh hành pháp tập trung vào các rủi ro an ninh của AI, các câu hỏi về bản quyền vẫn chưa được thử nghiệm đầy đủ. Các yêu cầu buộc các công ty công nghệ phải trả tiền cho những người giữ quyền đã nhận được sự ủng hộ lưỡng đảng trong Quốc hội.

Trước sức ép từ dư luận, các ông lớn công nghệ đã rục rịch “xoa dịu” bằng hàng loạt thỏa thuận cấp phép nội dung với các cơ quan truyền thông. Điển hình như OpenAI đã ký kết thỏa thuận với Financial Times và The Atlantic, trong khi Google bắt tay với mạng xã hội Reddit của NewsCorp.

Tuy nhiên, những động thái này vẫn chưa đủ để xoa dịu dư luận. OpenAI tiếp tục hứng chịu chỉ trích khi CTO Mira Murati từ chối trả lời câu hỏi về việc liệu công ty có sử dụng video YouTube để huấn luyện Sora – công cụ tạo video AI – hay không. Vụ việc giọng nói AI của nữ diễn viên Scarlett Johansson trong phiên bản ChatGPT mới nhất càng khiến làn sóng phản đối OpenAI dâng cao.

Giữa tâm bão tranh cãi, Thomas Wolf, đồng sáng lập Hugging Face, lên tiếng ủng hộ minh bạch dữ liệu, nhưng thừa nhận quan điểm này không nhận được sự đồng thuận trong ngành.

Trong khi đó, giới lập pháp châu Âu cũng có những quan điểm trái chiều. Nghị sĩ Dragos Tudorache, một trong những người soạn thảo Luật AI, cho rằng việc công khai dữ liệu huấn luyện là cần thiết để đảm bảo quyền lợi cho các nhà sáng tạo nội dung. “Họ có quyền được biết liệu tác phẩm của mình có bị sử dụng để huấn luyện AI hay không”, ông nhấn mạnh.

Cuộc chiến giữa minh bạch dữ liệu và bí mật thương mại trong lĩnh vực AI đang ngày càng trở nên nóng hơn bao giờ hết. Giới chuyên gia dự đoán đây sẽ là một trong những thách thức lớn nhất mà các nhà hoạch định chính sách và doanh nghiệp phải đối mặt trong thời gian tới.
Mỹ Nhận Thấy Tiềm Năng Của AI Trong Dịch Vụ CôngChính quyền Biden kỳ vọng vào tiềm năng to lớn của trí tuệ nhân tạo (AI) trong việc nâng tầm dịch vụ công, và đang thể hiện những gì có thể làm được với những công cụ này. Vào sáng thứ Năm, Văn phòng Khoa học và Công nghệ của Nhà Trắng (OSTP) đã tổ chức một hội nghị thượng đỉnh về “kỳ vọng AI,” trong đó các cơ quan liên bang đã trình diễn cách sử dụng AI để cung cấp nhiều dịch vụ hơn cho người dân. Phát biểu tại hội nghị, Giám đốc OSTP, tiến sĩ Arati Prabhakar, nhấn mạnh rằng sự phát triển của AI trong chính phủ sẽ cần sự hợp tác từ khu vực tư nhân và các tổ chức học thuật. Cùng chung quan điểm, bà Shalanda Young, Giám đốc Văn phòng Quản lý và Ngân sách, nhận định rằng AI có tiềm năng rất lớn trong việc cải thiện dịch vụ khách hàng của các cơ quan chính phủ, nếu được triển khai hiệu quả. Mo Early, lãnh đạo danh mục các nhà cung cấp dịch vụ có tác động cao tại OMB, cũng cho biết AI có thể mang lại cơ hội mới để định hình lại các dịch vụ chính phủ, giúp mọi người cảm thấy an tâm và tin tưởng rằng dữ liệu và quyền riêng tư của họ được bảo vệ. Bộ trưởng Thương mại Gina Raimondo cho biết Cơ quan Khí tượng và Đại dương Quốc gia Mỹ (NOAA) đang sử dụng AI để tạo ra các mô hình thời tiết nhanh hơn và chính xác hơn, nhờ vào kho lưu trữ dữ liệu khổng lồ của mình. Trong khi đó, Giám đốc Quỹ Khoa học Quốc gia (NSF), ông Sethuraman Panchanathan, tự hào khẳng định những thành tựu AI ngày nay là kết quả của quá trình đầu tư và nghiên cứu bền bỉ suốt 50-60 năm qua. Giáo dục cũng là lĩnh vực được kỳ vọng sẽ có bước chuyển mình mạnh mẽ nhờ AI. Bộ trưởng Giáo dục Miguel Cardona cho rằng AI có thể gây ra sự xáo trộn lớn trong các trường học và đại học, tương tự như sự bùng nổ của internet. Ông nhấn mạnh rằng AI sẽ sớm hiện diện trong gia đình và lớp học, và chúng ta phải chuẩn bị để đáp ứng nhu cầu này. Tiến sĩ Prabhakar cho biết chính quyền Biden đang trình diễn công việc đã và đang được thực hiện tại một số cơ quan nghiên cứu và phát triển liên bang, đồng thời nhấn mạnh tiềm năng của AI trong việc đẩy nhanh nghiên cứu dược phẩm và phê duyệt các loại thuốc mới trong vài tháng thay vì nhiều thập kỷ. Nhà Trắng nhận thấy tiềm năng của AI trong việc nâng cao tiêu chuẩn dịch vụ khách hàng trên toàn chính phủ, giúp người dân tiếp cận dịch vụ quan trọng đúng lúc cần thiết nhất, khi đang kêu gọi sự hợp tác từ các chuyên gia khu vực tư nhân, học thuật và nghiên cứu để phát triển công nghệ này. Không chỉ dừng lại ở những cam kết, chính quyền Biden đã và đang hiện thực hóa tầm nhìn AI bằng những dự án cụ thể. Theo bà Prabhakar, 12 cơ quan nghiên cứu và phát triển liên bang đang triển khai các dự án ứng dụng AI trong nhiều lĩnh vực, từ đẩy nhanh quá trình nghiên cứu và phê duyệt thuốc mới, cá nhân hóa giáo dục đến nâng cao chất lượng dịch vụ công. Để đảm bảo AI được ứng dụng một cách có trách nhiệm và hiệu quả, chính quyền Biden cam kết sẽ hợp tác chặt chẽ với khu vực tư nhân, học giả và các nhà nghiên cứu. Đồng thời, vấn đề đạo đức trong AI cũng được đặt lên hàng đầu, nhằm ngăn chặn nguy cơ phân biệt đối xử và đảm bảo tính công bằng trong quá trình triển khai công nghệ này. Tóm lại, Nhà Trắng đang hướng tới việc sử dụng AI để cải thiện các dịch vụ chính phủ, với sự hợp tác từ nhiều cơ quan và tổ chức. Việc triển khai AI đúng cách không chỉ mang lại lợi ích to lớn mà còn giúp xây dựng niềm tin và sự hài lòng của người dân.

Mỹ Nhận Thấy Tiềm Năng Của AI Trong Dịch Vụ Công

Chính quyền Biden kỳ vọng vào tiềm năng to lớn của trí tuệ nhân tạo (AI) trong việc nâng tầm dịch vụ công, và đang thể hiện những gì có thể làm được với những công cụ này.

Vào sáng thứ Năm, Văn phòng Khoa học và Công nghệ của Nhà Trắng (OSTP) đã tổ chức một hội nghị thượng đỉnh về “kỳ vọng AI,” trong đó các cơ quan liên bang đã trình diễn cách sử dụng AI để cung cấp nhiều dịch vụ hơn cho người dân.

Phát biểu tại hội nghị, Giám đốc OSTP, tiến sĩ Arati Prabhakar, nhấn mạnh rằng sự phát triển của AI trong chính phủ sẽ cần sự hợp tác từ khu vực tư nhân và các tổ chức học thuật. Cùng chung quan điểm, bà Shalanda Young, Giám đốc Văn phòng Quản lý và Ngân sách, nhận định rằng AI có tiềm năng rất lớn trong việc cải thiện dịch vụ khách hàng của các cơ quan chính phủ, nếu được triển khai hiệu quả.

Mo Early, lãnh đạo danh mục các nhà cung cấp dịch vụ có tác động cao tại OMB, cũng cho biết AI có thể mang lại cơ hội mới để định hình lại các dịch vụ chính phủ, giúp mọi người cảm thấy an tâm và tin tưởng rằng dữ liệu và quyền riêng tư của họ được bảo vệ.

Bộ trưởng Thương mại Gina Raimondo cho biết Cơ quan Khí tượng và Đại dương Quốc gia Mỹ (NOAA) đang sử dụng AI để tạo ra các mô hình thời tiết nhanh hơn và chính xác hơn, nhờ vào kho lưu trữ dữ liệu khổng lồ của mình. Trong khi đó, Giám đốc Quỹ Khoa học Quốc gia (NSF), ông Sethuraman Panchanathan, tự hào khẳng định những thành tựu AI ngày nay là kết quả của quá trình đầu tư và nghiên cứu bền bỉ suốt 50-60 năm qua.

Giáo dục cũng là lĩnh vực được kỳ vọng sẽ có bước chuyển mình mạnh mẽ nhờ AI. Bộ trưởng Giáo dục Miguel Cardona cho rằng AI có thể gây ra sự xáo trộn lớn trong các trường học và đại học, tương tự như sự bùng nổ của internet. Ông nhấn mạnh rằng AI sẽ sớm hiện diện trong gia đình và lớp học, và chúng ta phải chuẩn bị để đáp ứng nhu cầu này.

Tiến sĩ Prabhakar cho biết chính quyền Biden đang trình diễn công việc đã và đang được thực hiện tại một số cơ quan nghiên cứu và phát triển liên bang, đồng thời nhấn mạnh tiềm năng của AI trong việc đẩy nhanh nghiên cứu dược phẩm và phê duyệt các loại thuốc mới trong vài tháng thay vì nhiều thập kỷ.

Nhà Trắng nhận thấy tiềm năng của AI trong việc nâng cao tiêu chuẩn dịch vụ khách hàng trên toàn chính phủ, giúp người dân tiếp cận dịch vụ quan trọng đúng lúc cần thiết nhất, khi đang kêu gọi sự hợp tác từ các chuyên gia khu vực tư nhân, học thuật và nghiên cứu để phát triển công nghệ này.

Không chỉ dừng lại ở những cam kết, chính quyền Biden đã và đang hiện thực hóa tầm nhìn AI bằng những dự án cụ thể. Theo bà Prabhakar, 12 cơ quan nghiên cứu và phát triển liên bang đang triển khai các dự án ứng dụng AI trong nhiều lĩnh vực, từ đẩy nhanh quá trình nghiên cứu và phê duyệt thuốc mới, cá nhân hóa giáo dục đến nâng cao chất lượng dịch vụ công.

Để đảm bảo AI được ứng dụng một cách có trách nhiệm và hiệu quả, chính quyền Biden cam kết sẽ hợp tác chặt chẽ với khu vực tư nhân, học giả và các nhà nghiên cứu. Đồng thời, vấn đề đạo đức trong AI cũng được đặt lên hàng đầu, nhằm ngăn chặn nguy cơ phân biệt đối xử và đảm bảo tính công bằng trong quá trình triển khai công nghệ này.

Tóm lại, Nhà Trắng đang hướng tới việc sử dụng AI để cải thiện các dịch vụ chính phủ, với sự hợp tác từ nhiều cơ quan và tổ chức. Việc triển khai AI đúng cách không chỉ mang lại lợi ích to lớn mà còn giúp xây dựng niềm tin và sự hài lòng của người dân.
AI Tạo Ra Thách Thức Mới Cho Ngành Truyền Thông Và Giải TríSự bùng nổ của trí tuệ nhân tạo tạo sinh (GenAI) mang đến nhiều cơ hội nhưng cũng đặt ra nhiều rủi ro chưa từng có cho ngành truyền thông, phim ảnh, truyền hình và giải trí. Sự xuất hiện của công nghệ tạo nội dung tự động này khiến các chuyên gia bảo hiểm truyền thông phải đối mặt với một câu hỏi nan giải: liệu họ có bảo hiểm các yêu cầu bồi thường cho nội dung được tạo ra bằng AI tạo sinh hay không? Ros Breese, Giám đốc bảo hiểm – truyền thông, điện ảnh và truyền hình tại Tokio Marine HCC International, cho biết AI tạo sinh đã tạo ra nhiều cuộc thảo luận sôi nổi trong ngành bảo hiểm truyền thông. Công nghệ này mang đến một loạt rủi ro mới khác biệt hoàn toàn với các phương pháp sáng tạo nội dung truyền thống. Sự thận trọng với công nghệ AI không chỉ là thái độ của ngành bảo hiểm truyền thông, mà còn bao quát cả ngành truyền thông và giải trí, đặc biệt là khi đối mặt với các vụ kiện pháp lý nổi bật. Chẳng hạn như vụ kiện của tờ New York Times chống lại OpenAI, chủ sở hữu ChatGPT về việc sử dụng tài liệu lưu trữ trong các công cụ AI tạo sinh. Tờ báo đã khẳng định bản quyền của họ bị vi phạm để huấn luyện các mô hình AI, và đòi bồi thường thiệt hại lên đến hàng tỷ USD. Vụ kiện này cho thấy sự thiếu rõ ràng về pháp lý liên quan đến việc sử dụng AI tạo sinh trong việc tạo nội dung. Vấn đề lớn nhất là việc truy xuất quyền sở hữu nội dung gốc trong tài liệu AI tạo sinh. Hiện tại, chưa có khung pháp lý cụ thể nào về vấn đề này, khiến các công ty truyền thông và các nhà sản xuất phim phải thận trọng trong việc ứng dụng công nghệ mới này. Khi AI tạo sinh trở nên phổ biến hơn, ngành bảo hiểm sẽ cần phải điều chỉnh cách tiếp cận của mình đối với các rủi ro mà nó gây ra. Để giảm thiểu rủi ro, Breese khuyến nghị các công ty nên phát triển các giao thức để truy tìm nguồn gốc của nội dung và thiết lập mối liên hệ trách nhiệm hai chiều giữa khách hàng và các công cụ AI tạo sinh. “Tôi nghĩ rằng chúng ta có thể sẽ xem xét nó giống với nội dung khác và hợp tác với các công ty bảo hiểm để giảm thiểu các yêu cầu bồi thường. Nếu chúng ta biết AI tạo sinh được sử dụng cho mục đích gì và những chủ sở hữu nội dung gốc, điều ấy sẽ tạo ra sự đảm bảo trong mối liên hệ giữa người sử dụng với công cụ AI tạo sinh,” cô cho biết. “Chúng ta đang trên tiến trình này.“ Tính minh bạch về mặt luật pháp và các vụ kiện quan trọng như vụ kiện của New York Times cũng đóng vai trò quan trọng trong việc định hình các chiến lược bảo hiểm trong tương lai. Bên cạnh những thách thức về mặt công nghệ, chính bản thân bối cảnh tiêu thụ truyền thông cũng đang thay đổi, chịu ảnh hưởng nặng nề bởi đại dịch COVID-19. Hiện nay đang có xu hướng rõ rệt là chuyển từ nội dung sản xuất truyền thống sang các định dạng ngắn gọn, dễ tiêu hóa hơn như podcast. Breese cho biết: “Chúng tôi đang thấy rất nhiều nội dung podcast hơn bao giờ hết, đặc biệt trong thể loại tội phạm có thật. Có một sự quan tâm lớn đến các bộ phim tài liệu sử dụng tư liệu lưu trữ, thay vì các bộ phim truyền hình bom tấn lớn.” Vị giám đốc nói thêm, “nếu bạn nhìn vào các dịch vụ phát trực tuyến hiện nay, có một danh mục phim tài liệu khổng lồ, điều mà chúng ta sẽ không thấy cách đây năm hay mười năm trước. Chúng ta đang thấy một xu hướng chuyển đổi rõ rệt từ phim truyền hình hư cấu sang nội dung thực tế.” Xu hướng này đòi hỏi một cách tiếp cận khác đối với quản lý rủi ro. Ví dụ, các nhà làm phim tài liệu sẽ phải đối mặt với đủ loại vấn đề về quyền với những cá nhân xuất hiện trong tác phẩm của họ, bao gồm cả trong các cảnh lưu trữ. Theo cô Breese, bản thân chuyện này đã là một mỏ mìn tiềm ẩn. Sự phức tạp trong việc giải quyết tư liệu lưu trữ và việc sử dụng các biện pháp bảo vệ như sử dụng hợp lý và đối xử công bằng càng làm phức tạp quá trình sản xuất. Những thách thức này cho thấy sự cần thiết của các giải pháp bảo hiểm chuyên biệt phù hợp với bối cảnh phức tạp của sản xuất phim tài liệu và nội dung có thật. Breese khuyên các nhà môi giới làm việc với khách hàng trong lĩnh vực truyền thông và điện ảnh nên theo dõi các rủi ro đang phát triển và nhu cầu bảo hiểm và quản lý rủi ro đặc thù của khách hàng. “Mối quan hệ và cuộc trò chuyện càng cởi mở giữa tất cả các bên trong chuỗi bảo hiểm thì càng có lợi,” cô nói.

AI Tạo Ra Thách Thức Mới Cho Ngành Truyền Thông Và Giải Trí

Sự bùng nổ của trí tuệ nhân tạo tạo sinh (GenAI) mang đến nhiều cơ hội nhưng cũng đặt ra nhiều rủi ro chưa từng có cho ngành truyền thông, phim ảnh, truyền hình và giải trí.

Sự xuất hiện của công nghệ tạo nội dung tự động này khiến các chuyên gia bảo hiểm truyền thông phải đối mặt với một câu hỏi nan giải: liệu họ có bảo hiểm các yêu cầu bồi thường cho nội dung được tạo ra bằng AI tạo sinh hay không?

Ros Breese, Giám đốc bảo hiểm – truyền thông, điện ảnh và truyền hình tại Tokio Marine HCC International, cho biết AI tạo sinh đã tạo ra nhiều cuộc thảo luận sôi nổi trong ngành bảo hiểm truyền thông. Công nghệ này mang đến một loạt rủi ro mới khác biệt hoàn toàn với các phương pháp sáng tạo nội dung truyền thống.

Sự thận trọng với công nghệ AI không chỉ là thái độ của ngành bảo hiểm truyền thông, mà còn bao quát cả ngành truyền thông và giải trí, đặc biệt là khi đối mặt với các vụ kiện pháp lý nổi bật.

Chẳng hạn như vụ kiện của tờ New York Times chống lại OpenAI, chủ sở hữu ChatGPT về việc sử dụng tài liệu lưu trữ trong các công cụ AI tạo sinh. Tờ báo đã khẳng định bản quyền của họ bị vi phạm để huấn luyện các mô hình AI, và đòi bồi thường thiệt hại lên đến hàng tỷ USD.

Vụ kiện này cho thấy sự thiếu rõ ràng về pháp lý liên quan đến việc sử dụng AI tạo sinh trong việc tạo nội dung. Vấn đề lớn nhất là việc truy xuất quyền sở hữu nội dung gốc trong tài liệu AI tạo sinh. Hiện tại, chưa có khung pháp lý cụ thể nào về vấn đề này, khiến các công ty truyền thông và các nhà sản xuất phim phải thận trọng trong việc ứng dụng công nghệ mới này.

Khi AI tạo sinh trở nên phổ biến hơn, ngành bảo hiểm sẽ cần phải điều chỉnh cách tiếp cận của mình đối với các rủi ro mà nó gây ra.

Để giảm thiểu rủi ro, Breese khuyến nghị các công ty nên phát triển các giao thức để truy tìm nguồn gốc của nội dung và thiết lập mối liên hệ trách nhiệm hai chiều giữa khách hàng và các công cụ AI tạo sinh.

“Tôi nghĩ rằng chúng ta có thể sẽ xem xét nó giống với nội dung khác và hợp tác với các công ty bảo hiểm để giảm thiểu các yêu cầu bồi thường. Nếu chúng ta biết AI tạo sinh được sử dụng cho mục đích gì và những chủ sở hữu nội dung gốc, điều ấy sẽ tạo ra sự đảm bảo trong mối liên hệ giữa người sử dụng với công cụ AI tạo sinh,” cô cho biết. “Chúng ta đang trên tiến trình này.“

Tính minh bạch về mặt luật pháp và các vụ kiện quan trọng như vụ kiện của New York Times cũng đóng vai trò quan trọng trong việc định hình các chiến lược bảo hiểm trong tương lai.

Bên cạnh những thách thức về mặt công nghệ, chính bản thân bối cảnh tiêu thụ truyền thông cũng đang thay đổi, chịu ảnh hưởng nặng nề bởi đại dịch COVID-19. Hiện nay đang có xu hướng rõ rệt là chuyển từ nội dung sản xuất truyền thống sang các định dạng ngắn gọn, dễ tiêu hóa hơn như podcast.

Breese cho biết: “Chúng tôi đang thấy rất nhiều nội dung podcast hơn bao giờ hết, đặc biệt trong thể loại tội phạm có thật. Có một sự quan tâm lớn đến các bộ phim tài liệu sử dụng tư liệu lưu trữ, thay vì các bộ phim truyền hình bom tấn lớn.” Vị giám đốc nói thêm, “nếu bạn nhìn vào các dịch vụ phát trực tuyến hiện nay, có một danh mục phim tài liệu khổng lồ, điều mà chúng ta sẽ không thấy cách đây năm hay mười năm trước. Chúng ta đang thấy một xu hướng chuyển đổi rõ rệt từ phim truyền hình hư cấu sang nội dung thực tế.”

Xu hướng này đòi hỏi một cách tiếp cận khác đối với quản lý rủi ro. Ví dụ, các nhà làm phim tài liệu sẽ phải đối mặt với đủ loại vấn đề về quyền với những cá nhân xuất hiện trong tác phẩm của họ, bao gồm cả trong các cảnh lưu trữ. Theo cô Breese, bản thân chuyện này đã là một mỏ mìn tiềm ẩn.

Sự phức tạp trong việc giải quyết tư liệu lưu trữ và việc sử dụng các biện pháp bảo vệ như sử dụng hợp lý và đối xử công bằng càng làm phức tạp quá trình sản xuất. Những thách thức này cho thấy sự cần thiết của các giải pháp bảo hiểm chuyên biệt phù hợp với bối cảnh phức tạp của sản xuất phim tài liệu và nội dung có thật.

Breese khuyên các nhà môi giới làm việc với khách hàng trong lĩnh vực truyền thông và điện ảnh nên theo dõi các rủi ro đang phát triển và nhu cầu bảo hiểm và quản lý rủi ro đặc thù của khách hàng. “Mối quan hệ và cuộc trò chuyện càng cởi mở giữa tất cả các bên trong chuỗi bảo hiểm thì càng có lợi,” cô nói.
Quan Chức Anh Cảnh Báo Chứng Nghiện Giao Dịch Tiền Mã Hoá Ở Giới TrẻGiám đốc điều hành Dịch vụ Y tế Quốc gia Vương quốc Anh (NHS), Amanda Pritchard, đã cảnh báo rằng ngày càng nhiều nam thanh niên trẻ tuổi cần phải điều trị sau khi nghiện giao dịch tiền mã hoá, và kêu gọi hành động chống lại “các trang web tiền mã hoá không được quản lý.” Bà Pritchard bày tỏ lo ngại sâu sắc về vấn đề này trong bài phát biểu tại hội nghị ConfedExpo của các nhà quản lý NHS ở Manchester vào ngày 12/6. Bà cho biết NHS đã phải mở thêm phòng khám chuyên khoa về nghiện cờ bạc thứ 15 trong năm nay để đáp ứng nhu cầu ngày càng tăng của xã hội. Theo bà Pritchard, các phương thức dụ dỗ người dùng tham gia giao dịch tiền mã hoá ngày càng tinh vi. Nhiều bạn trẻ dễ bị thu hút bởi những lời hứa hẹn về giàu có nhanh chóng từ thị trường tiền mã hoá, nhưng lại không lường trước được những rủi ro tiềm ẩn. Bà Pritchard chia sẻ, chính bản thân đã được nghe các nhân viên y tế tại phòng khám nghiện cờ bạc quốc gia nói về sự gia tăng số lượng người nghiện giao dịch tiền mã hoá. Đồng thời nhấn mạnh rằng các phòng khám chuyên khoa về cờ bạc của NHS đang phải “thu dọn mảnh vỡ” sau khi bệnh nhân nghiện kiếm tiền từ thị trường đầy biến động. “Ngày càng nhiều cơ hội nảy sinh đối với những người trẻ tuổi để trở nên nghiện cờ bạc – bao gồm cả thị trường tiền mã hoá không được quản lý”, bà nói. Amanda Pritchard trên sân khấu tại NHS ConfedExpo cảnh báo về chứng nghiện giao dịch tiền mã hoá. Nguồn: YouTube Bà Pritchard cũng nhắc đến việc chính phủ Anh đã ban hành luật để quản lý tiền mã hoá theo cùng quy định với các dịch vụ tài chính khác vào tháng 6 năm ngoái. Tuy nhiên, Bộ Tài chính lại bác bỏ đề xuất của các nhà lập pháp về việc quản lý giao dịch tiền mã hoá bán lẻ tương tự như cờ bạc vào tháng 7/2023. Thay vào đó, họ muốn quản lý nó như một dịch vụ tài chính. Theo bà Pritchard, việc quản lý thị trường tiền mã hoá là vô cùng cần thiết để bảo vệ người dùng, đặc biệt là giới trẻ khỏi những rủi ro tiềm ẩn của thị trường này. Bà kêu gọi các nhà lập pháp Anh cần hành động quyết liệt để kiểm soát tình hình và ngăn chặn nạn nghiện giao dịch Bitcoin ở giới trẻ. Theo BBC hồi đầu năm ngoái, một quốc gia Châu Âu khác là Thụy Sĩ cũng đã thành lập Trung tâm cai nghiện có tên “The Balance”, nhằm điều trị nhiều chứng nghiện khác nhau như rượu, ma túy & sức khỏe hành vi, và chứng nghiện giao dịch tiền mã hóa. Được biết một khách hàng của trung tâm đã liên hệ để điều trị chứng nghiện giao dịch tiền mã hoá sau khi rót khoảng 200.000 USD vào các giao dịch mỗi tuần. Ngoài The Balance, Bệnh viện Castle Craig tại Scotland cũng đã điều trị cho khoảng 100 người nghiện giao dịch tiền mã hóa có nồng độ adrenaline trong máu cao kể từ năm 2018. Ở châu Á, một trung tâm chăm sóc sức khỏe có tên Diamond Rehabilitation tại Thái Lan cũng đã bổ sung các dịch vụ dành riêng cho việc cai nghiện và điều trị chứng nghiện tiền mã hóa.

Quan Chức Anh Cảnh Báo Chứng Nghiện Giao Dịch Tiền Mã Hoá Ở Giới Trẻ

Giám đốc điều hành Dịch vụ Y tế Quốc gia Vương quốc Anh (NHS), Amanda Pritchard, đã cảnh báo rằng ngày càng nhiều nam thanh niên trẻ tuổi cần phải điều trị sau khi nghiện giao dịch tiền mã hoá, và kêu gọi hành động chống lại “các trang web tiền mã hoá không được quản lý.”

Bà Pritchard bày tỏ lo ngại sâu sắc về vấn đề này trong bài phát biểu tại hội nghị ConfedExpo của các nhà quản lý NHS ở Manchester vào ngày 12/6. Bà cho biết NHS đã phải mở thêm phòng khám chuyên khoa về nghiện cờ bạc thứ 15 trong năm nay để đáp ứng nhu cầu ngày càng tăng của xã hội.

Theo bà Pritchard, các phương thức dụ dỗ người dùng tham gia giao dịch tiền mã hoá ngày càng tinh vi. Nhiều bạn trẻ dễ bị thu hút bởi những lời hứa hẹn về giàu có nhanh chóng từ thị trường tiền mã hoá, nhưng lại không lường trước được những rủi ro tiềm ẩn.

Bà Pritchard chia sẻ, chính bản thân đã được nghe các nhân viên y tế tại phòng khám nghiện cờ bạc quốc gia nói về sự gia tăng số lượng người nghiện giao dịch tiền mã hoá. Đồng thời nhấn mạnh rằng các phòng khám chuyên khoa về cờ bạc của NHS đang phải “thu dọn mảnh vỡ” sau khi bệnh nhân nghiện kiếm tiền từ thị trường đầy biến động.

“Ngày càng nhiều cơ hội nảy sinh đối với những người trẻ tuổi để trở nên nghiện cờ bạc – bao gồm cả thị trường tiền mã hoá không được quản lý”, bà nói.

Amanda Pritchard trên sân khấu tại NHS ConfedExpo cảnh báo về chứng nghiện giao dịch tiền mã hoá. Nguồn: YouTube

Bà Pritchard cũng nhắc đến việc chính phủ Anh đã ban hành luật để quản lý tiền mã hoá theo cùng quy định với các dịch vụ tài chính khác vào tháng 6 năm ngoái. Tuy nhiên, Bộ Tài chính lại bác bỏ đề xuất của các nhà lập pháp về việc quản lý giao dịch tiền mã hoá bán lẻ tương tự như cờ bạc vào tháng 7/2023. Thay vào đó, họ muốn quản lý nó như một dịch vụ tài chính.

Theo bà Pritchard, việc quản lý thị trường tiền mã hoá là vô cùng cần thiết để bảo vệ người dùng, đặc biệt là giới trẻ khỏi những rủi ro tiềm ẩn của thị trường này. Bà kêu gọi các nhà lập pháp Anh cần hành động quyết liệt để kiểm soát tình hình và ngăn chặn nạn nghiện giao dịch Bitcoin ở giới trẻ.

Theo BBC hồi đầu năm ngoái, một quốc gia Châu Âu khác là Thụy Sĩ cũng đã thành lập Trung tâm cai nghiện có tên “The Balance”, nhằm điều trị nhiều chứng nghiện khác nhau như rượu, ma túy & sức khỏe hành vi, và chứng nghiện giao dịch tiền mã hóa. Được biết một khách hàng của trung tâm đã liên hệ để điều trị chứng nghiện giao dịch tiền mã hoá sau khi rót khoảng 200.000 USD vào các giao dịch mỗi tuần.

Ngoài The Balance, Bệnh viện Castle Craig tại Scotland cũng đã điều trị cho khoảng 100 người nghiện giao dịch tiền mã hóa có nồng độ adrenaline trong máu cao kể từ năm 2018.

Ở châu Á, một trung tâm chăm sóc sức khỏe có tên Diamond Rehabilitation tại Thái Lan cũng đã bổ sung các dịch vụ dành riêng cho việc cai nghiện và điều trị chứng nghiện tiền mã hóa.
Terraform Labs Và Do Kwon Bị Phạt 4,5 Tỷ USDTòa án quận Nam New York đã đưa ra phán quyết cuối cùng trong vụ kiện đình đám của Ủy ban Chứng khoán và Giao dịch Mỹ (SEC) chống lại Terraform Labs và đồng sáng lập Do Kwon hôm 12/6. Theo đó, Terraform Labs và Do Kwon bị kết tội vi phạm nhiều quy định về chứng khoán và phải nộp tổng số tiền phạt gần 4,5 tỷ USD, bao gồm 3,6 tỷ USD bồi thường thiệt hại, 467 triệu USD tiền lãi trước khi xét xử và 420 triệu USD tiền phạt dân sự. Do Kwon cũng phải chịu trách nhiệm chung và riêng lẻ đối với 110 triệu USD bồi thường thiệt hại và 14,3 triệu USD tiền lãi trước khi xét xử. Ngoài ra, cựu CEO Terraform Labs phải chuyển giao nhiều tài sản, bao gồm cổ phần sở hữu trong token PYTH và các tài sản khác cho quỹ phá sản của Terraform. Những tài sản này sẽ được sử dụng để thanh toán các khoản phạt tiền và được phân phối cho các nhà đầu tư bị thiệt hại. Theo Coindesk, Do Kwon và Terraform Labs đã đồng ý với thỏa thuận dàn xếp nộp phạt từ ngày 6/6. Ngoài khoản phạt 4,5 tỷ USD, Do Kwon còn phải đối mặt với các biện pháp trừng phạt bổ sung. SEC có quyền thu hồi khoản phạt bằng mọi cách thức được phép, bao gồm cả việc kiện Do Kwon ra tòa nếu anh ta không tuân thủ lệnh chuyển giao tài sản trong vòng 30 ngày. Do Kwon cũng bị cấm vĩnh viễn giữ chức vụ giám đốc điều hành hoặc giám đốc của bất kỳ công ty phát hành nào có lớp chứng khoán đã đăng ký hoặc nghĩa vụ báo cáo. Phán quyết từ toà án quận Nam New York Phán quyết cũng cấm Terraform Labs và Do Kwon vi phạm các quy định chống gian lận, giao dịch chứng khoán chưa đăng ký, giao dịch chứng khoán tài sản số hoặc xúi giục người khác giao dịch chứng khoán tài sản số trong tương lai. Phán quyết cho phép Terraform Labs xử lý tài sản số trong quá trình phá sản với sự cho phép của tòa án. Tuy nhiên, công ty cũng phải tiêu hủy khóa ví và đốt token theo yêu cầu. Terraform Labs cũng có thể cho phép bên thứ ba rút tiền, bỏ staking và hủy bỏ vị thế trên nền tảng của mình. Vụ kiện của SEC nhằm vào Terraform Labs và Do Kwon bắt đầu từ tháng 2/2023, cáo buộc công ty đã lừa đảo các nhà đầu tư tiền mã hoá, bao gồm cả việc sử dụng stablecoin Terra USD (UST) đã sụp đổ. Phán quyết này đánh dấu một thắng lợi cho SEC, đồng thời gửi đi thông điệp rõ ràng về tầm quan trọng của việc tuân thủ các quy định đối với ngành công nghiệp tiền mã hoá.

Terraform Labs Và Do Kwon Bị Phạt 4,5 Tỷ USD

Tòa án quận Nam New York đã đưa ra phán quyết cuối cùng trong vụ kiện đình đám của Ủy ban Chứng khoán và Giao dịch Mỹ (SEC) chống lại Terraform Labs và đồng sáng lập Do Kwon hôm 12/6. Theo đó, Terraform Labs và Do Kwon bị kết tội vi phạm nhiều quy định về chứng khoán và phải nộp tổng số tiền phạt gần 4,5 tỷ USD, bao gồm 3,6 tỷ USD bồi thường thiệt hại, 467 triệu USD tiền lãi trước khi xét xử và 420 triệu USD tiền phạt dân sự.

Do Kwon cũng phải chịu trách nhiệm chung và riêng lẻ đối với 110 triệu USD bồi thường thiệt hại và 14,3 triệu USD tiền lãi trước khi xét xử. Ngoài ra, cựu CEO Terraform Labs phải chuyển giao nhiều tài sản, bao gồm cổ phần sở hữu trong token PYTH và các tài sản khác cho quỹ phá sản của Terraform. Những tài sản này sẽ được sử dụng để thanh toán các khoản phạt tiền và được phân phối cho các nhà đầu tư bị thiệt hại.

Theo Coindesk, Do Kwon và Terraform Labs đã đồng ý với thỏa thuận dàn xếp nộp phạt từ ngày 6/6.

Ngoài khoản phạt 4,5 tỷ USD, Do Kwon còn phải đối mặt với các biện pháp trừng phạt bổ sung. SEC có quyền thu hồi khoản phạt bằng mọi cách thức được phép, bao gồm cả việc kiện Do Kwon ra tòa nếu anh ta không tuân thủ lệnh chuyển giao tài sản trong vòng 30 ngày. Do Kwon cũng bị cấm vĩnh viễn giữ chức vụ giám đốc điều hành hoặc giám đốc của bất kỳ công ty phát hành nào có lớp chứng khoán đã đăng ký hoặc nghĩa vụ báo cáo.

Phán quyết từ toà án quận Nam New York

Phán quyết cũng cấm Terraform Labs và Do Kwon vi phạm các quy định chống gian lận, giao dịch chứng khoán chưa đăng ký, giao dịch chứng khoán tài sản số hoặc xúi giục người khác giao dịch chứng khoán tài sản số trong tương lai.

Phán quyết cho phép Terraform Labs xử lý tài sản số trong quá trình phá sản với sự cho phép của tòa án. Tuy nhiên, công ty cũng phải tiêu hủy khóa ví và đốt token theo yêu cầu. Terraform Labs cũng có thể cho phép bên thứ ba rút tiền, bỏ staking và hủy bỏ vị thế trên nền tảng của mình.

Vụ kiện của SEC nhằm vào Terraform Labs và Do Kwon bắt đầu từ tháng 2/2023, cáo buộc công ty đã lừa đảo các nhà đầu tư tiền mã hoá, bao gồm cả việc sử dụng stablecoin Terra USD (UST) đã sụp đổ. Phán quyết này đánh dấu một thắng lợi cho SEC, đồng thời gửi đi thông điệp rõ ràng về tầm quan trọng của việc tuân thủ các quy định đối với ngành công nghiệp tiền mã hoá.
Quân Đội Mỹ Phát Triển Công Cụ AI Chuyên BiệtNgày 10/6, Lực lượng Không gian Mỹ (USSF) và Không quân Mỹ (USAF) đã công bố một công cụ AI tạo sinh mới với tên gọi NIPRGPT (Non-classified Internet Protocol Generative Pre-training Transformer). Công cụ này hứa hẹn sẽ cải thiện khả năng tiếp cận thông tin và đánh giá nhu cầu của lực lượng. NIPRGPT được thiết kế để hỗ trợ nhân viên thử nghiệm các công nghệ AI trong các nhiệm vụ hàng ngày. Những ứng dụng tiềm năng của công cụ này bao gồm tóm tắt báo cáo, hỗ trợ IT và lập trình, giúp giảm tải công việc thủ công và tăng cường hiệu quả hoạt động. Theo Alexis Bonnell, Giám đốc thông tin và Giám đốc năng lực số tại Phòng Thí nghiệm Nghiên cứu Không quân (AFRL), mục tiêu chính của NIPRGPT là làm cho dữ liệu trở nên dễ tiếp cận và tùy biến hơn trong các dịch vụ của lực lượng. Bonnell nhấn mạnh rằng việc xác định liệu AI tạo sinh có thể hỗ trợ các nhiệm vụ này hay không là một phần quan trọng của quá trình thử nghiệm. Ảnh minh hoạ Trước đó, Bộ Quốc phòng Mỹ đã và đang khám phá cách sử dụng các công cụ AI tạo sinh như ChatGPT để làm các công việc hàng ngày như tìm kiếm tài liệu và trả lời câu hỏi trở nên hiệu quả hơn. Năm 2023, Hải quân đã triển khai một chương trình AI đối thoại mang tên “Amelia” để giúp các thủy thủ giải quyết sự cố và cung cấp hỗ trợ kỹ thuật. Collen Roller, nhà khoa học máy tính cao cấp tại AFRL, cho biết nhóm của ông đã nỗ lực nghiên cứu cách USSF và USAF có thể sử dụng công nghệ này cho các nhiệm vụ hành chính và cả trong các hoạt động chiến thuật. “Lĩnh vực này thay đổi rất nhanh, chúng tôi phải có khả năng thích nghi với những điều mới xuất hiện,” ông nói. “Trên quan điểm nghiên cứu và phát triển, điều này rất trọng yếu nếu chúng tôi có thể đánh giá những công nghệ mới và vạch ra phương hướng áp dụng cụ thể.” AFRL phát triển NIPRGPT bằng cách sử dụng các mô hình AU có sẵn công khai, và Bonnell cho biết dịch vụ này chưa cam kết với một phương pháp hay nhà cung cấp cụ thể nào khi xây dựng trên cơ sở đó. Khi các quân nhân bắt đầu sử dụng hệ thống, AFRL sẽ hợp tác với các đối tác thương mại để kiểm tra và tích hợp các công cụ của họ, xác định xem chúng có hữu ích cho các dịch vụ hay không. “Chúng tôi hy vọng rằng không chỉ khơi dậy sự tò mò và thử nghiệm từ người dùng, mà còn cung cấp cách để kiểm tra các mô hình của các nhà cung cấp,” bà nói.“Chúng tôi kỳ vọng rằng một số mô hình sẽ xuất sắc ở một số trường hợp sử dụng và không tốt ở những trường hợp khác.” Công cụ NIPRGPT không chỉ giúp các công ty thử nghiệm các công cụ và mô hình khác nhau mà còn giúp hai cơ quan USSF, USAF xác định cách tiếp cận tốt nhất để mua các năng lực này. Bonnell nhấn mạnh rằng chiến lược đúng sẽ phụ thuộc vào cách các dịch vụ sử dụng NIPRGPT và liệu có đủ nhu cầu hay không. “Công cụ này giúp chúng tôi điều mong muốn đạt được cuối cùng là gì. Và nếu xuất hiện các công cụ thương mại xuất hiện và vượt qua quy trình hoặc hệ thống an ninh vốn có, chúng tôi sẽ mua chúng với mức giá hợp lý.” Bonnell chia sẻ.

Quân Đội Mỹ Phát Triển Công Cụ AI Chuyên Biệt

Ngày 10/6, Lực lượng Không gian Mỹ (USSF) và Không quân Mỹ (USAF) đã công bố một công cụ AI tạo sinh mới với tên gọi NIPRGPT (Non-classified Internet Protocol Generative Pre-training Transformer). Công cụ này hứa hẹn sẽ cải thiện khả năng tiếp cận thông tin và đánh giá nhu cầu của lực lượng.

NIPRGPT được thiết kế để hỗ trợ nhân viên thử nghiệm các công nghệ AI trong các nhiệm vụ hàng ngày. Những ứng dụng tiềm năng của công cụ này bao gồm tóm tắt báo cáo, hỗ trợ IT và lập trình, giúp giảm tải công việc thủ công và tăng cường hiệu quả hoạt động.

Theo Alexis Bonnell, Giám đốc thông tin và Giám đốc năng lực số tại Phòng Thí nghiệm Nghiên cứu Không quân (AFRL), mục tiêu chính của NIPRGPT là làm cho dữ liệu trở nên dễ tiếp cận và tùy biến hơn trong các dịch vụ của lực lượng. Bonnell nhấn mạnh rằng việc xác định liệu AI tạo sinh có thể hỗ trợ các nhiệm vụ này hay không là một phần quan trọng của quá trình thử nghiệm.

Ảnh minh hoạ

Trước đó, Bộ Quốc phòng Mỹ đã và đang khám phá cách sử dụng các công cụ AI tạo sinh như ChatGPT để làm các công việc hàng ngày như tìm kiếm tài liệu và trả lời câu hỏi trở nên hiệu quả hơn. Năm 2023, Hải quân đã triển khai một chương trình AI đối thoại mang tên “Amelia” để giúp các thủy thủ giải quyết sự cố và cung cấp hỗ trợ kỹ thuật.

Collen Roller, nhà khoa học máy tính cao cấp tại AFRL, cho biết nhóm của ông đã nỗ lực nghiên cứu cách USSF và USAF có thể sử dụng công nghệ này cho các nhiệm vụ hành chính và cả trong các hoạt động chiến thuật. “Lĩnh vực này thay đổi rất nhanh, chúng tôi phải có khả năng thích nghi với những điều mới xuất hiện,” ông nói. “Trên quan điểm nghiên cứu và phát triển, điều này rất trọng yếu nếu chúng tôi có thể đánh giá những công nghệ mới và vạch ra phương hướng áp dụng cụ thể.”

AFRL phát triển NIPRGPT bằng cách sử dụng các mô hình AU có sẵn công khai, và Bonnell cho biết dịch vụ này chưa cam kết với một phương pháp hay nhà cung cấp cụ thể nào khi xây dựng trên cơ sở đó. Khi các quân nhân bắt đầu sử dụng hệ thống, AFRL sẽ hợp tác với các đối tác thương mại để kiểm tra và tích hợp các công cụ của họ, xác định xem chúng có hữu ích cho các dịch vụ hay không.

“Chúng tôi hy vọng rằng không chỉ khơi dậy sự tò mò và thử nghiệm từ người dùng, mà còn cung cấp cách để kiểm tra các mô hình của các nhà cung cấp,” bà nói.“Chúng tôi kỳ vọng rằng một số mô hình sẽ xuất sắc ở một số trường hợp sử dụng và không tốt ở những trường hợp khác.”

Công cụ NIPRGPT không chỉ giúp các công ty thử nghiệm các công cụ và mô hình khác nhau mà còn giúp hai cơ quan USSF, USAF xác định cách tiếp cận tốt nhất để mua các năng lực này. Bonnell nhấn mạnh rằng chiến lược đúng sẽ phụ thuộc vào cách các dịch vụ sử dụng NIPRGPT và liệu có đủ nhu cầu hay không.

“Công cụ này giúp chúng tôi điều mong muốn đạt được cuối cùng là gì. Và nếu xuất hiện các công cụ thương mại xuất hiện và vượt qua quy trình hoặc hệ thống an ninh vốn có, chúng tôi sẽ mua chúng với mức giá hợp lý.” Bonnell chia sẻ.
Elon Musk Dọa Cấm Apple Nếu Tích Hợp ChatGPTElon Musk đã gây xôn xao khi đe dọa cấm sẽ cấm các thiết bị Apple khỏi các công ty của mình nếu tính năng ChatGPT được tích hợp vào iOS 18 như Apple công bố. Tại buổi giới thiệu tại WWDC 2024, Apple đã công bố tích hợp mới cho phép người dùng truy cập ChatGPT toàn hệ thống thông qua công cụ soạn thảo. Người dùng có thể yêu cầu ChatGPT viết truyện cho trẻ em hoặc tạo hình ảnh để bổ sung cho bài viết. Những tính năng này cho phép người dùng truy cập ChatGPT miễn phí mà không cần tạo tài khoản. Điều này dự báo sẽ mang lại lượng lớn yêu cầu từ người dùng Apple cho OpenAI. Phó Chủ tịch cấp cao phụ trách Kỹ thuật Phần mềm của Apple, Craig Federighi đã nhấn mạnh, “người dùng hoàn toàn kiểm soát việc sử dụng ChatGPT và sẽ được hỏi ý kiến trước khi bất kỳ thông tin nào của bạn được chia sẻ”. Các tính năng này chỉ có trên các mẫu iPhone Pro 15 và thiết bị sử dụng chip M1 hoặc mới hơn. Tuy nhiên, tỷ phú Elon Musk đã công khai chỉ trích sự hợp tác này. Trên X, ông cho rằng Apple đang đẩy người dùng vào nguy cơ bị xâm phạm quyền riêng tư khi “tuồn” dữ liệu cho OpenAI. “Thật vô lý khi Apple không đủ thông minh để tự tạo ra AI của riêng mình, nhưng lại có thể đảm bảo OpenAI sẽ bảo vệ sự an toàn và quyền riêng tư của bạn!”, Musk đồng thời dọa sẽ cấm thiết bị Apple tại các công ty của mình nếu Tim Cook không chấm dứt hành động gián điệp đáng sợ này. Mặc dù Apple khẳng định người dùng có toàn quyền kiểm soát việc sử dụng ChatGPT và thông tin cá nhân, nhưng Musk cho rằng người dùng không đủ hiểu biết về vấn đề quyền riêng tư. Ông tin rằng nếu người dùng có thể tự do lựa chọn AI bot thay thế, như Claude của Anthropic hay Grok của xAI (công ty AI do Musk sáng lập), thì Apple sẽ không dám hành động như vậy. Thực tế, Apple cũng đã ám chỉ rằng Google Gemini có thể được tích hợp vào trong tương lai. Cả Apple và OpenAI đều đính chính rằng dữ liệu người dùng sẽ chỉ được chia sẻ khi có sự đồng ý rõ ràng và các tương tác này được thiết kế để an toàn. OpenAI lưu ý trong một bài đăng blog mới rằng “các yêu cầu không được lưu trữ bởi OpenAI và địa chỉ IP của người dùng sẽ bị ẩn.” Người dùng cũng có thể chọn kết nối tài khoản ChatGPT của họ để truy cập các tính năng trả phí, nhưng đây là tính năng tùy chọn. Hình ảnh, văn bản hoặc truy vấn tìm kiếm được gửi đến ChatGPT được gửi mà không có định danh và sẽ bị xóa sau khi kết quả được tạo ra và gửi đến người dùng. Ngay cả khi Apple và ChatGPT nói dối và âm mưu thu thập dữ liệu người dùng, dữ liệu họ nhận được chỉ là những gì người dùng chủ động chọn gửi đi. Cần làm rõ là không có lý do nào để lo sợ việc ChatGPT có thể được truy cập bởi Siri hoặc Công cụ Writing Tools. Điều này không khác biệt đáng kể so với việc cài đặt ứng dụng ChatGPT trên iPhone. Tuy nhiên tình hình hiện tại cũng đặt ra nhiều câu hỏi về quyền riêng tư và an ninh khi các công ty công nghệ lớn tiếp tục tích hợp các công nghệ AI mới vào sản phẩm của họ.

Elon Musk Dọa Cấm Apple Nếu Tích Hợp ChatGPT

Elon Musk đã gây xôn xao khi đe dọa cấm sẽ cấm các thiết bị Apple khỏi các công ty của mình nếu tính năng ChatGPT được tích hợp vào iOS 18 như Apple công bố.

Tại buổi giới thiệu tại WWDC 2024, Apple đã công bố tích hợp mới cho phép người dùng truy cập ChatGPT toàn hệ thống thông qua công cụ soạn thảo. Người dùng có thể yêu cầu ChatGPT viết truyện cho trẻ em hoặc tạo hình ảnh để bổ sung cho bài viết. Những tính năng này cho phép người dùng truy cập ChatGPT miễn phí mà không cần tạo tài khoản. Điều này dự báo sẽ mang lại lượng lớn yêu cầu từ người dùng Apple cho OpenAI.

Phó Chủ tịch cấp cao phụ trách Kỹ thuật Phần mềm của Apple, Craig Federighi đã nhấn mạnh, “người dùng hoàn toàn kiểm soát việc sử dụng ChatGPT và sẽ được hỏi ý kiến trước khi bất kỳ thông tin nào của bạn được chia sẻ”. Các tính năng này chỉ có trên các mẫu iPhone Pro 15 và thiết bị sử dụng chip M1 hoặc mới hơn.

Tuy nhiên, tỷ phú Elon Musk đã công khai chỉ trích sự hợp tác này. Trên X, ông cho rằng Apple đang đẩy người dùng vào nguy cơ bị xâm phạm quyền riêng tư khi “tuồn” dữ liệu cho OpenAI.

“Thật vô lý khi Apple không đủ thông minh để tự tạo ra AI của riêng mình, nhưng lại có thể đảm bảo OpenAI sẽ bảo vệ sự an toàn và quyền riêng tư của bạn!”, Musk đồng thời dọa sẽ cấm thiết bị Apple tại các công ty của mình nếu Tim Cook không chấm dứt hành động gián điệp đáng sợ này.

Mặc dù Apple khẳng định người dùng có toàn quyền kiểm soát việc sử dụng ChatGPT và thông tin cá nhân, nhưng Musk cho rằng người dùng không đủ hiểu biết về vấn đề quyền riêng tư. Ông tin rằng nếu người dùng có thể tự do lựa chọn AI bot thay thế, như Claude của Anthropic hay Grok của xAI (công ty AI do Musk sáng lập), thì Apple sẽ không dám hành động như vậy.

Thực tế, Apple cũng đã ám chỉ rằng Google Gemini có thể được tích hợp vào trong tương lai.

Cả Apple và OpenAI đều đính chính rằng dữ liệu người dùng sẽ chỉ được chia sẻ khi có sự đồng ý rõ ràng và các tương tác này được thiết kế để an toàn. OpenAI lưu ý trong một bài đăng blog mới rằng “các yêu cầu không được lưu trữ bởi OpenAI và địa chỉ IP của người dùng sẽ bị ẩn.” Người dùng cũng có thể chọn kết nối tài khoản ChatGPT của họ để truy cập các tính năng trả phí, nhưng đây là tính năng tùy chọn.

Hình ảnh, văn bản hoặc truy vấn tìm kiếm được gửi đến ChatGPT được gửi mà không có định danh và sẽ bị xóa sau khi kết quả được tạo ra và gửi đến người dùng. Ngay cả khi Apple và ChatGPT nói dối và âm mưu thu thập dữ liệu người dùng, dữ liệu họ nhận được chỉ là những gì người dùng chủ động chọn gửi đi.

Cần làm rõ là không có lý do nào để lo sợ việc ChatGPT có thể được truy cập bởi Siri hoặc Công cụ Writing Tools. Điều này không khác biệt đáng kể so với việc cài đặt ứng dụng ChatGPT trên iPhone. Tuy nhiên tình hình hiện tại cũng đặt ra nhiều câu hỏi về quyền riêng tư và an ninh khi các công ty công nghệ lớn tiếp tục tích hợp các công nghệ AI mới vào sản phẩm của họ.
AI Là Chìa Khóa Để Đạt Được AGI Trong Tương LaiTrong bối cảnh trí tuệ nhân tạo (AI) phát triển vũ bão, nghiên cứu của Google DeepMind đề xuất những yếu tố quan trọng để đạt được siêu trí tuệ nhân tạo (ASI). Những năm gần đây, các mô hình nền tảng đã đạt được tiến bộ vượt bậc và được sử dụng rộng rãi trong nhiều ứng dụng. Tuy nhiên, việc tạo ra các hệ thống trí tuệ nhân tạo (AI) mở đầu, có khả năng tự cải thiện và liên tục tạo ra thông tin mới, vẫn còn là thách thức lớn. Bài báo cáo của Edward Hughes và các đồng tác giả chỉ ra tính chất mở (open-ended) có tác động thế nào tới việc phát triển lên ASI, và làm sao đạt được tính chất ấy trong các hệ thống AI hiện nay. Định nghĩa chính thức về tính chất mở được đưa ra dựa trên hai khía cạnh chính là sự mới mẻ và khả năng học hỏi. Một hệ thống được coi là có tính chất mở nếu nó liên tục tạo ra các dữ liệu mới mẻ có giá trị học hỏi nhằm cải thiện hiểu biết và kỹ năng của đối tượng quan sát. Bài báo cung cấp nhiều ví dụ cụ thể về các hệ thống AI hiện tại để minh họa cho khái niệm này. AlphaGo là một ví dụ điển hình về hệ thống có tính chất mở trong phạm vi hẹp. AlphaGo đã vượt qua trình độ của các người chơi cờ vây hàng đầu thế giới bằng cách phát triển những chiến lược mới mẻ, khó đoán trước. Tuy nhiên, tính chất mở của AlphaGo chỉ giới hạn trong phạm vi trò chơi cờ vây. Một ví dụ khác là hệ thống AdA, một tác nhân học tập trong môi trường 3D XLand2 với 25 tỷ biến thể nhiệm vụ. AdA có khả năng tích lũy các kỹ năng phức tạp và đa dạng, nhưng tính mới mẻ của nó có xu hướng giảm dần sau một thời gian đào tạo. Điều này cho thấy rằng để duy trì tính chất mở, cần có một môi trường phong phú hơn và tác nhân mạnh mẽ hơn. Bài báo cũng thảo luận về các hệ thống tiến hóa như POET (Paired open-ended trailblazer), nơi các tác nhân và môi trường cùng tiến hóa. POET minh họa hiện tượng “stepping stone” (bước đệm), nơi các tác nhân có thể giải quyết các môi trường rất thách thức thông qua sự tiến hóa dần dần. Tuy nhiên, các hệ thống này cũng gặp giới hạn khi môi trường không đủ phức tạp để duy trì tính chất mở. Ngoài ra, bài báo còn nêu rõ rằng các mô hình nền tảng hiện tại không đáp ứng đủ tiêu chí của tính chất mở khi chỉ được huấn luyện trên các tập dữ liệu cố định. Các mô hình này có thể cho thấy tính chất mở trong các lĩnh vực rộng lớn, nhưng khi thu hẹp phạm vi, chúng lộ rõ các hạn chế về khả năng tạo ra các giải pháp mới và chính xác. Các tác giả đề xuất bốn hướng nghiên cứu chính để kết hợp tính chất mở với các mô hình nền tảng: học tăng cường (RL), tự cải thiện, tạo nhiệm vụ và các thuật toán tiến hóa. Học tăng cường đã đạt được nhiều thành công trong các lĩnh vực hẹp, và các mô hình như Voyager đã cho thấy tiềm năng tự cải thiện bằng cách xây dựng một thư viện kỹ năng từ các nhiệm vụ liên tục được cải tiến. Các thuật toán tiến hóa cũng cung cấp một con đường hứa hẹn để tạo ra các hệ thống mở, với khả năng thực hiện các đột biến có ý nghĩa thông qua văn bản. Một phần quan trọng của bài báo là thảo luận về các vấn đề an toàn và trách nhiệm khi phát triển các hệ thống mở. Tính chất mở mang lại nhiều rủi ro an toàn, bao gồm sự hiểu sai mục tiêu và lạm dụng thông số kỹ thuật. Việc đảm bảo rằng các hệ thống mở có thể được lý giải và điều khiển trong tay con người là rất quan trọng. Điều này đòi hỏi các hệ thống phải có khả năng giải thích và tương tác với con người một cách rõ ràng và dễ hiểu. Trong báo cáo, các tác giả khẳng định rằng các mô hình nền tảng hiện tại đã đạt được nhiều tiến bộ đáng kể, nhưng để tiến tới ASI, cần phải phát triển các hệ thống có tính chất mở. Những hệ thống này có thể mang lại nhiều lợi ích to lớn cho xã hội, bao gồm việc đẩy nhanh các đột phá khoa học và công nghệ, nâng cao sáng tạo của con người và mở rộng kiến thức tổng quát trên nhiều lĩnh vực. Bài báo của Google DeepMind đã mở ra một hướng đi mới trong nghiên cứu AI, nhấn mạnh tầm quan trọng của tính chất mở trong việc đạt được trí tuệ siêu phàm nhân tạo. Việc phát triển các hệ thống này một cách có trách nhiệm sẽ giúp đảm bảo rằng chúng mang lại lợi ích tối đa cho xã hội, đồng thời giảm thiểu các rủi ro tiềm tàng.

AI Là Chìa Khóa Để Đạt Được AGI Trong Tương Lai

Trong bối cảnh trí tuệ nhân tạo (AI) phát triển vũ bão, nghiên cứu của Google DeepMind đề xuất những yếu tố quan trọng để đạt được siêu trí tuệ nhân tạo (ASI).

Những năm gần đây, các mô hình nền tảng đã đạt được tiến bộ vượt bậc và được sử dụng rộng rãi trong nhiều ứng dụng. Tuy nhiên, việc tạo ra các hệ thống trí tuệ nhân tạo (AI) mở đầu, có khả năng tự cải thiện và liên tục tạo ra thông tin mới, vẫn còn là thách thức lớn. Bài báo cáo của Edward Hughes và các đồng tác giả chỉ ra tính chất mở (open-ended) có tác động thế nào tới việc phát triển lên ASI, và làm sao đạt được tính chất ấy trong các hệ thống AI hiện nay.

Định nghĩa chính thức về tính chất mở được đưa ra dựa trên hai khía cạnh chính là sự mới mẻ và khả năng học hỏi. Một hệ thống được coi là có tính chất mở nếu nó liên tục tạo ra các dữ liệu mới mẻ có giá trị học hỏi nhằm cải thiện hiểu biết và kỹ năng của đối tượng quan sát.

Bài báo cung cấp nhiều ví dụ cụ thể về các hệ thống AI hiện tại để minh họa cho khái niệm này. AlphaGo là một ví dụ điển hình về hệ thống có tính chất mở trong phạm vi hẹp. AlphaGo đã vượt qua trình độ của các người chơi cờ vây hàng đầu thế giới bằng cách phát triển những chiến lược mới mẻ, khó đoán trước. Tuy nhiên, tính chất mở của AlphaGo chỉ giới hạn trong phạm vi trò chơi cờ vây.

Một ví dụ khác là hệ thống AdA, một tác nhân học tập trong môi trường 3D XLand2 với 25 tỷ biến thể nhiệm vụ. AdA có khả năng tích lũy các kỹ năng phức tạp và đa dạng, nhưng tính mới mẻ của nó có xu hướng giảm dần sau một thời gian đào tạo. Điều này cho thấy rằng để duy trì tính chất mở, cần có một môi trường phong phú hơn và tác nhân mạnh mẽ hơn.

Bài báo cũng thảo luận về các hệ thống tiến hóa như POET (Paired open-ended trailblazer), nơi các tác nhân và môi trường cùng tiến hóa. POET minh họa hiện tượng “stepping stone” (bước đệm), nơi các tác nhân có thể giải quyết các môi trường rất thách thức thông qua sự tiến hóa dần dần. Tuy nhiên, các hệ thống này cũng gặp giới hạn khi môi trường không đủ phức tạp để duy trì tính chất mở.

Ngoài ra, bài báo còn nêu rõ rằng các mô hình nền tảng hiện tại không đáp ứng đủ tiêu chí của tính chất mở khi chỉ được huấn luyện trên các tập dữ liệu cố định. Các mô hình này có thể cho thấy tính chất mở trong các lĩnh vực rộng lớn, nhưng khi thu hẹp phạm vi, chúng lộ rõ các hạn chế về khả năng tạo ra các giải pháp mới và chính xác.

Các tác giả đề xuất bốn hướng nghiên cứu chính để kết hợp tính chất mở với các mô hình nền tảng: học tăng cường (RL), tự cải thiện, tạo nhiệm vụ và các thuật toán tiến hóa. Học tăng cường đã đạt được nhiều thành công trong các lĩnh vực hẹp, và các mô hình như Voyager đã cho thấy tiềm năng tự cải thiện bằng cách xây dựng một thư viện kỹ năng từ các nhiệm vụ liên tục được cải tiến. Các thuật toán tiến hóa cũng cung cấp một con đường hứa hẹn để tạo ra các hệ thống mở, với khả năng thực hiện các đột biến có ý nghĩa thông qua văn bản.

Một phần quan trọng của bài báo là thảo luận về các vấn đề an toàn và trách nhiệm khi phát triển các hệ thống mở. Tính chất mở mang lại nhiều rủi ro an toàn, bao gồm sự hiểu sai mục tiêu và lạm dụng thông số kỹ thuật. Việc đảm bảo rằng các hệ thống mở có thể được lý giải và điều khiển trong tay con người là rất quan trọng. Điều này đòi hỏi các hệ thống phải có khả năng giải thích và tương tác với con người một cách rõ ràng và dễ hiểu.

Trong báo cáo, các tác giả khẳng định rằng các mô hình nền tảng hiện tại đã đạt được nhiều tiến bộ đáng kể, nhưng để tiến tới ASI, cần phải phát triển các hệ thống có tính chất mở. Những hệ thống này có thể mang lại nhiều lợi ích to lớn cho xã hội, bao gồm việc đẩy nhanh các đột phá khoa học và công nghệ, nâng cao sáng tạo của con người và mở rộng kiến thức tổng quát trên nhiều lĩnh vực.

Bài báo của Google DeepMind đã mở ra một hướng đi mới trong nghiên cứu AI, nhấn mạnh tầm quan trọng của tính chất mở trong việc đạt được trí tuệ siêu phàm nhân tạo. Việc phát triển các hệ thống này một cách có trách nhiệm sẽ giúp đảm bảo rằng chúng mang lại lợi ích tối đa cho xã hội, đồng thời giảm thiểu các rủi ro tiềm tàng.
ChatGPT: Cuộc Cách Mạng Của Trí Tuệ Nhân TạoĐược phát triển bởi OpenAI, ChatGPT đã trở thành một hiện tượng toàn cầu với khả năng xử lý ngôn ngữ tự nhiên ấn tượng. Từ GPT-1 với 117 triệu tham số đến GPT-4o với hơn 1 nghìn tỷ tham số, ChatGPT đã trải qua hành trình phát triển mạnh mẽ, tạo ra những bước đột phá trong nhiều lĩnh vực. Lịch sử phát triển: từ bước khởi đầu đến đột phá vĩ đại Ý tưởng về máy móc có thể suy nghĩ như con người đã xuất hiện từ những năm 1950. Tuy nhiên, phải đến những năm gần đây, với sự bùng nổ của công nghệ và dữ liệu lớn, trí tuệ nhân tạo (AI) mới thực sự phát triển mạnh mẽ. Năm 2018, OpenAI giới thiệu GPT-1, phiên bản đầu tiên của Generative Pre-trained Transformer. Với 117 triệu tham số, GPT-1 đã đạt được một bước đột phá trong lĩnh vực xử lý ngôn ngữ tự nhiên (NLP). Nó có khả năng học từ một lượng dữ liệu văn bản khổng lồ, tạo ra văn bản tự nhiên và mạch lạc. Đến năm 2019, OpenAI tiếp tục cho ra mắt GPT-2 với 1,5 tỷ tham số, gấp nhiều lần so với GPT-1. GPT-2 sở hữu khả năng xử lý dữ liệu và tạo văn bản phức tạp hơn, thể hiện sức mạnh vượt trội. OpenAI đã thận trọng trong việc công bố mã nguồn của GPT-2 do lo ngại về việc công nghệ này có thể bị lạm dụng. Một năm sau, OpenAI đã giới thiệu GPT-3, một bước tiến ngoạn mục với 175 tỷ tham số. GPT-3 trở thành một trong những mô hình AI lớn nhất và mạnh nhất từng được phát triển. Nó có khả năng tạo ra các văn bản vô cùng tự nhiên và thuyết phục, từ việc viết tiểu luận, trả lời câu hỏi đến sáng tác thơ, mở ra tiềm năng ứng dụng rộng lớn. Năm 2023, GPT-4 ra đời với 1 nghìn tỷ tham số, đánh dấu một sự đột phá mới. GPT-4 không chỉ mạnh mẽ hơn mà còn có khả năng hiểu biết ngữ cảnh tốt hơn, giảm thiểu sai sót và cung cấp câu trả lời chính xác hơn. GPT-4 còn tích hợp nhiều ngôn ngữ và kiến thức chuyên sâu, nâng cao trải nghiệm người dùng.  Ngày 13 tháng 5 năm 2024, OpenAI giới thiệu GPT-4o, một phiên bản đặc biệt được tối ưu hóa để tương tác với con người một cách tự nhiên nhất. GPT-4o có hơn 1 nghìn tỷ tham số, mạnh mẽ hơn các phiên bản trước đó. GPT-4o được tích hợp vào nhiều ứng dụng thực tế như chatbot, trợ lý ảo và hệ thống tư vấn. Với khả năng học sâu và hiểu biết ngữ cảnh tinh vi, GPT-4o đã trở thành một công cụ không thể thiếu trong nhiều lĩnh vực. Tương lai hứa hẹn: ChatGPT và sự tiến bộ không ngừng Công nghệ nền tảng của ChatGPT là Transformer, một mô hình học sâu (deep learning) chuyên xử lý ngôn ngữ tự nhiên. Transformer được giới thiệu lần đầu vào năm 2017 bởi Google Brain và đã trở thành công nghệ cốt lõi cho nhiều mô hình AI hiện đại. Transformer cho phép mô hình học hỏi từ dữ liệu văn bản hiệu quả và tạo ra văn bản mới một cách tự nhiên và mạch lạc.  Tính đến năm 2024, giá trị thị trường của OpenAI, công ty phát triển ChatGPT, được ước tính lên tới hàng chục tỷ đô la. ChatGPT nhanh chóng trở nên phổ biến nhờ khả năng xử lý ngôn ngữ tự nhiên mạnh mẽ và ứng dụng rộng rãi trong nhiều lĩnh vực. Việc hợp tác với các công ty lớn như Microsoft để tích hợp ChatGPT vào các sản phẩm như Microsoft Office và Azure đã góp phần đáng kể vào sự phổ biến này. OpenAI cung cấp ChatGPT dưới hai hình thức: miễn phí và trả phí (premium). Người dùng miễn phí được truy cập vào các tính năng cơ bản của ChatGPT, có thể sử dụng cho các tác vụ đơn giản như trả lời câu hỏi, viết nội dung cơ bản và trợ giúp với các tác vụ hàng ngày. Người dùng trả phí (ChatGPT Plus) với giá $20/tháng nhận được những lợi ích bổ sung như: truy cập nhanh hơn, ưu tiên khi sử dụng trong các giờ cao điểm, truy cập vào các tính năng và cập nhật mới nhất. Ngoài xử lý ngôn ngữ tự nhiên, OpenAI cũng đã phát triển các mô hình AI có khả năng tạo hình ảnh từ văn bản, như DALL-E. Khả năng này cho phép người dùng tạo ra các hình ảnh sáng tạo và phức tạp dựa trên mô tả bằng văn bản, mở ra nhiều ứng dụng trong thiết kế, quảng cáo và nghệ thuật.  Từ việc hỗ trợ khách hàng, dạy học đến sáng tác nội dung, ChatGPT đã chứng tỏ khả năng ứng dụng rộng rãi và tiềm năng trong nhiều lĩnh vực.  Sự phát triển của ChatGPT không dừng lại ở đây. OpenAI và các công ty khác đang tiếp tục nghiên cứu và phát triển các phiên bản nâng cấp với khả năng và độ chính xác cao hơn. Các ứng dụng mới của ChatGPT sẽ tiếp tục được khám phá, từ chăm sóc sức khỏe, tư vấn pháp lý đến hỗ trợ công việc hàng ngày. ChatGPT là một trong những thành tựu nổi bật của trí tuệ nhân tạo trong thập kỷ qua. Với sự tiến bộ không ngừng của công nghệ, ChatGPT sẽ tiếp tục phát triển và mang lại nhiều lợi ích hơn nữa cho xã hội. Tuy nhiên, cần có những biện pháp quản lý và đạo đức rõ ràng để đảm bảo rằng công nghệ này được sử dụng đúng mục đích và mang lại lợi ích tốt nhất cho con người.

ChatGPT: Cuộc Cách Mạng Của Trí Tuệ Nhân Tạo

Được phát triển bởi OpenAI, ChatGPT đã trở thành một hiện tượng toàn cầu với khả năng xử lý ngôn ngữ tự nhiên ấn tượng. Từ GPT-1 với 117 triệu tham số đến GPT-4o với hơn 1 nghìn tỷ tham số, ChatGPT đã trải qua hành trình phát triển mạnh mẽ, tạo ra những bước đột phá trong nhiều lĩnh vực.

Lịch sử phát triển: từ bước khởi đầu đến đột phá vĩ đại

Ý tưởng về máy móc có thể suy nghĩ như con người đã xuất hiện từ những năm 1950. Tuy nhiên, phải đến những năm gần đây, với sự bùng nổ của công nghệ và dữ liệu lớn, trí tuệ nhân tạo (AI) mới thực sự phát triển mạnh mẽ.

Năm 2018, OpenAI giới thiệu GPT-1, phiên bản đầu tiên của Generative Pre-trained Transformer. Với 117 triệu tham số, GPT-1 đã đạt được một bước đột phá trong lĩnh vực xử lý ngôn ngữ tự nhiên (NLP). Nó có khả năng học từ một lượng dữ liệu văn bản khổng lồ, tạo ra văn bản tự nhiên và mạch lạc.

Đến năm 2019, OpenAI tiếp tục cho ra mắt GPT-2 với 1,5 tỷ tham số, gấp nhiều lần so với GPT-1. GPT-2 sở hữu khả năng xử lý dữ liệu và tạo văn bản phức tạp hơn, thể hiện sức mạnh vượt trội. OpenAI đã thận trọng trong việc công bố mã nguồn của GPT-2 do lo ngại về việc công nghệ này có thể bị lạm dụng.

Một năm sau, OpenAI đã giới thiệu GPT-3, một bước tiến ngoạn mục với 175 tỷ tham số. GPT-3 trở thành một trong những mô hình AI lớn nhất và mạnh nhất từng được phát triển. Nó có khả năng tạo ra các văn bản vô cùng tự nhiên và thuyết phục, từ việc viết tiểu luận, trả lời câu hỏi đến sáng tác thơ, mở ra tiềm năng ứng dụng rộng lớn.

Năm 2023, GPT-4 ra đời với 1 nghìn tỷ tham số, đánh dấu một sự đột phá mới. GPT-4 không chỉ mạnh mẽ hơn mà còn có khả năng hiểu biết ngữ cảnh tốt hơn, giảm thiểu sai sót và cung cấp câu trả lời chính xác hơn. GPT-4 còn tích hợp nhiều ngôn ngữ và kiến thức chuyên sâu, nâng cao trải nghiệm người dùng. 

Ngày 13 tháng 5 năm 2024, OpenAI giới thiệu GPT-4o, một phiên bản đặc biệt được tối ưu hóa để tương tác với con người một cách tự nhiên nhất. GPT-4o có hơn 1 nghìn tỷ tham số, mạnh mẽ hơn các phiên bản trước đó. GPT-4o được tích hợp vào nhiều ứng dụng thực tế như chatbot, trợ lý ảo và hệ thống tư vấn. Với khả năng học sâu và hiểu biết ngữ cảnh tinh vi, GPT-4o đã trở thành một công cụ không thể thiếu trong nhiều lĩnh vực.

Tương lai hứa hẹn: ChatGPT và sự tiến bộ không ngừng

Công nghệ nền tảng của ChatGPT là Transformer, một mô hình học sâu (deep learning) chuyên xử lý ngôn ngữ tự nhiên. Transformer được giới thiệu lần đầu vào năm 2017 bởi Google Brain và đã trở thành công nghệ cốt lõi cho nhiều mô hình AI hiện đại. Transformer cho phép mô hình học hỏi từ dữ liệu văn bản hiệu quả và tạo ra văn bản mới một cách tự nhiên và mạch lạc. 

Tính đến năm 2024, giá trị thị trường của OpenAI, công ty phát triển ChatGPT, được ước tính lên tới hàng chục tỷ đô la. ChatGPT nhanh chóng trở nên phổ biến nhờ khả năng xử lý ngôn ngữ tự nhiên mạnh mẽ và ứng dụng rộng rãi trong nhiều lĩnh vực. Việc hợp tác với các công ty lớn như Microsoft để tích hợp ChatGPT vào các sản phẩm như Microsoft Office và Azure đã góp phần đáng kể vào sự phổ biến này.

OpenAI cung cấp ChatGPT dưới hai hình thức: miễn phí và trả phí (premium). Người dùng miễn phí được truy cập vào các tính năng cơ bản của ChatGPT, có thể sử dụng cho các tác vụ đơn giản như trả lời câu hỏi, viết nội dung cơ bản và trợ giúp với các tác vụ hàng ngày. Người dùng trả phí (ChatGPT Plus) với giá $20/tháng nhận được những lợi ích bổ sung như: truy cập nhanh hơn, ưu tiên khi sử dụng trong các giờ cao điểm, truy cập vào các tính năng và cập nhật mới nhất.

Ngoài xử lý ngôn ngữ tự nhiên, OpenAI cũng đã phát triển các mô hình AI có khả năng tạo hình ảnh từ văn bản, như DALL-E. Khả năng này cho phép người dùng tạo ra các hình ảnh sáng tạo và phức tạp dựa trên mô tả bằng văn bản, mở ra nhiều ứng dụng trong thiết kế, quảng cáo và nghệ thuật.  Từ việc hỗ trợ khách hàng, dạy học đến sáng tác nội dung, ChatGPT đã chứng tỏ khả năng ứng dụng rộng rãi và tiềm năng trong nhiều lĩnh vực. 

Sự phát triển của ChatGPT không dừng lại ở đây. OpenAI và các công ty khác đang tiếp tục nghiên cứu và phát triển các phiên bản nâng cấp với khả năng và độ chính xác cao hơn. Các ứng dụng mới của ChatGPT sẽ tiếp tục được khám phá, từ chăm sóc sức khỏe, tư vấn pháp lý đến hỗ trợ công việc hàng ngày.

ChatGPT là một trong những thành tựu nổi bật của trí tuệ nhân tạo trong thập kỷ qua. Với sự tiến bộ không ngừng của công nghệ, ChatGPT sẽ tiếp tục phát triển và mang lại nhiều lợi ích hơn nữa cho xã hội. Tuy nhiên, cần có những biện pháp quản lý và đạo đức rõ ràng để đảm bảo rằng công nghệ này được sử dụng đúng mục đích và mang lại lợi ích tốt nhất cho con người.
Fidelity Token Hóa Cổ Phiếu Trên Blockchain Của JPMorganFidelity International, công ty quản lý quỹ có trụ sở tại Luân Đôn, đã token hóa cổ phiếu trong một quỹ thị trường tiền tệ (MMF) trên mạng blockchain riêng tư Onyx Digital Assets của JPMorgan, theo Coindesk hôm 10/6. Bước đi này nhằm nâng cao hiệu quả trong việc cung cấp các yêu cầu ký quỹ, đồng thời giảm chi phí giao dịch và rủi ro hoạt động, Fidelity International cho biết. Việc token hóa cổ phiếu trong quỹ thị trường tiền tệ diễn ra gần như ngay lập tức thông qua kết nối giữa đại lý chuyển nhượng của quỹ (doanh nghiệp chuyển nhượng của JPMorgan) và Tokenized Collateral Network (TCN), một ứng dụng nằm giữa người nhận tài sản đảm bảo và người cung cấp tài sản đảm bảo trên blockchain Onyx. Token hóa tài sản tài chính truyền thống đã trở thành ưu tiên hàng đầu của các ngân hàng và JPMorgan đã nghiên cứu lĩnh vực này trong nhiều năm. Bản chất của token hóa là tạo ra trên blockchain một công cụ đầu tư ảo đại diện cho tài sản thực tế như bất động sản, kim loại quý và đồ sưu tập. Cổ phiếu và trái phiếu cũng có thể được token hóa. Fidelity International cũng có lịch sử lâu đời với tài sản kỹ thuật số và đã tham gia dự án token hóa với ngân hàng Thụy Sĩ Sygnum vào năm 2019. Tháng 10 năm ngoái, JPMorgan đã thực hiện giao dịch thanh toán tài sản đảm bảo dựa trên blockchain đầu tiên liên quan đến cổ phiếu được token hóa trong quỹ thị trường tiền tệ của BlackRock. Cổ phiếu được chuyển giao cho Barclays để làm tài sản đảm bảo trong giao dịch phái sinh OTC. BlackRock đã tiếp tục ủng hộ token hóa thông qua dự án BUIDL hướng đến công chúng của mình, với sự hợp tác của công ty dịch vụ token hóa Securitize. Stephen Whyman, Giám đốc thị trường vốn nợ của Fidelity International, cho biết trong một cuộc phỏng vấn qua email: rằng “Token hóa cổ phiếu quỹ thị trường tiền tệ của chúng tôi để sử dụng làm tài sản đảm bảo là bước đầu tiên quan trọng và tự nhiên trong việc mở rộng việc áp dụng công nghệ này.” “Lợi ích cho khách hàng và hệ thống tài chính rộng lớn là rõ ràng; đặc biệt là hiệu quả được cải thiện trong việc cung cấp các yêu cầu ký quỹ và giảm chi phí giao dịch và rủi ro hoạt động,” ông nhấn mạnh.

Fidelity Token Hóa Cổ Phiếu Trên Blockchain Của JPMorgan

Fidelity International, công ty quản lý quỹ có trụ sở tại Luân Đôn, đã token hóa cổ phiếu trong một quỹ thị trường tiền tệ (MMF) trên mạng blockchain riêng tư Onyx Digital Assets của JPMorgan, theo Coindesk hôm 10/6.

Bước đi này nhằm nâng cao hiệu quả trong việc cung cấp các yêu cầu ký quỹ, đồng thời giảm chi phí giao dịch và rủi ro hoạt động, Fidelity International cho biết.

Việc token hóa cổ phiếu trong quỹ thị trường tiền tệ diễn ra gần như ngay lập tức thông qua kết nối giữa đại lý chuyển nhượng của quỹ (doanh nghiệp chuyển nhượng của JPMorgan) và Tokenized Collateral Network (TCN), một ứng dụng nằm giữa người nhận tài sản đảm bảo và người cung cấp tài sản đảm bảo trên blockchain Onyx.

Token hóa tài sản tài chính truyền thống đã trở thành ưu tiên hàng đầu của các ngân hàng và JPMorgan đã nghiên cứu lĩnh vực này trong nhiều năm. Bản chất của token hóa là tạo ra trên blockchain một công cụ đầu tư ảo đại diện cho tài sản thực tế như bất động sản, kim loại quý và đồ sưu tập. Cổ phiếu và trái phiếu cũng có thể được token hóa.

Fidelity International cũng có lịch sử lâu đời với tài sản kỹ thuật số và đã tham gia dự án token hóa với ngân hàng Thụy Sĩ Sygnum vào năm 2019.

Tháng 10 năm ngoái, JPMorgan đã thực hiện giao dịch thanh toán tài sản đảm bảo dựa trên blockchain đầu tiên liên quan đến cổ phiếu được token hóa trong quỹ thị trường tiền tệ của BlackRock. Cổ phiếu được chuyển giao cho Barclays để làm tài sản đảm bảo trong giao dịch phái sinh OTC. BlackRock đã tiếp tục ủng hộ token hóa thông qua dự án BUIDL hướng đến công chúng của mình, với sự hợp tác của công ty dịch vụ token hóa Securitize.

Stephen Whyman, Giám đốc thị trường vốn nợ của Fidelity International, cho biết trong một cuộc phỏng vấn qua email: rằng “Token hóa cổ phiếu quỹ thị trường tiền tệ của chúng tôi để sử dụng làm tài sản đảm bảo là bước đầu tiên quan trọng và tự nhiên trong việc mở rộng việc áp dụng công nghệ này.”

“Lợi ích cho khách hàng và hệ thống tài chính rộng lớn là rõ ràng; đặc biệt là hiệu quả được cải thiện trong việc cung cấp các yêu cầu ký quỹ và giảm chi phí giao dịch và rủi ro hoạt động,” ông nhấn mạnh.
AI Và Tội Phạm Tiền Mã Hoá: Mối Nguy Hiểm MớiAI có thể trở thành công cụ hữu ích cho tội phạm trong hệ sinh thái tiền mã hoá, và việc hiểu rõ các xu hướng tội phạm mới là rất quan trọng để bảo vệ ngành công nghiệp này. Với sự phát triển nhanh chóng của trí tuệ nhân tạo (AI), đã có nhiều sáng kiến đổi mới mang lại lợi ích lớn trong nhiều ngành công nghiệp, đặc biệt là lĩnh vực tiền mã hoá. Tuy nhiên, như bất kỳ công nghệ mới nào, AI cũng mang theo nguy cơ bị lợi dụng vào các mục đích xấu. Theo báo cáo do Elliptic thực hiện, tổ chức này đã xác định năm loại tội phạm mới nổi trong hệ sinh thái tiền mã hoá được hỗ trợ bởi AI. AI tạo dựng lừa đảo deepfake trong tiền mã hoá AI đang được sử dụng để tạo ra các chiêu lừa đảo trong tiền mã hoá. Cụ thể, các video deepfake giả mạo người nổi tiếng hoặc các lãnh đạo doanh nghiệp đang quảng bá các dự án đầu tư tiền mã hoá, tạo ra ấn tượng rằng dự án này có sự hỗ trợ chính thức. Ví dụ như các video giả mạo CEO của Ripple, Brad Garlinghouse, đã xuất hiện để lừa đảo người dùng tham gia vào các trò lừa đảo tặng tiền mã hoá. Các chiêu lừa đảo này thường sử dụng hình ảnh, video và giọng nói được tạo ra bởi AI để làm cho các trang web lừa đảo trông thuyết phục hơn. Một ví dụ điển hình là vụ tấn công Twitter vào tháng 7/2020, khi các tài khoản của nhiều người nổi tiếng bị hack để đăng các liên kết lừa đảo tặng Bitcoin. Trong nhiều trường hợp, những kẻ lừa đảo còn sử dụng tài khoản quản trị viên trên các kênh Discord của các dự án tiền mã hoá để đăng các liên kết lừa đảo, đánh cắp tiền mã hoá hoặc các token không thể thay thế (NFT). Tạo token AI lừa đảo hoặc các kế hoạch thao túng thị trường Một số lượng lớn token lừa đảo đã được tạo ra với các từ khóa liên quan đến AI như “GPT”, “CryptoGPT”, và “GPT Coin”. Những token này thường được quảng bá trên các diễn đàn giao dịch nghiệp dư, tạo ra sự hứng thú giả tạo và cuối cùng là lừa đảo người dùng bằng cách bán token và biến mất với số tiền thu được. Các chiêu lừa đảo này bao gồm “exit scams” (lừa đảo rút lui) và “pump and dump” (thao túng thị trường). Theo báo cáo của Elliptic, trên nhiều blockchain, việc tạo ra một token là rất dễ dàng, và những kẻ lừa đảo đã lợi dụng điều này để tạo ra các token liên quan đến AI nhằm tạo ra sự hứng thú giả tạo. Các token này thường được quảng bá trong các diễn đàn giao dịch nghiệp dư, nơi mà những kẻ lừa đảo tuyên bố có sự liên kết chính thức với các công ty AI hợp pháp như ChatGPT hoặc các công ty AI khác. Những chiêu lừa đảo này không chỉ dừng lại ở việc tạo ra token, mà còn bao gồm các nền tảng đầu tư giả mạo, các bot giao dịch AI giả mạo và các chiêu lừa đảo thoát hiểm (exit scams). Một ví dụ điển hình là vụ lừa đảo bot giao dịch AI trị giá 6 triệu USD mang tên “iEarn”, trong đó những kẻ lừa đảo tạo ra một nền tảng giao dịch AI giả mạo và sau đó biến mất với số tiền đầu tư của nạn nhân. Những kẻ lừa đảo này thường tái xuất hiện dưới các tên gọi và trang web khác nhau, tiếp tục lừa đảo các nạn nhân mới. Một ví dụ nổi bật khác là Mirror Trading International (MTI), một mô hình Ponzi đã thu về hơn 1,7 tỷ USD tiền mã hoá từ các nạn nhân trên toàn thế giới. Sử dụng các mô hình ngôn ngữ lớn để thực hiện các cuộc tấn công mạng Công cụ AI như ChatGPT có khả năng kiểm tra và phát hiện lỗ hổng trong mã code, do đó có thể bị khai thác bởi hacker để tìm ra và tấn công các hợp đồng thông minh của các giao thức tài chính phi tập trung (DeFi). Một số công cụ AI “phi đạo đức” đã được quảng bá trên các diễn đàn web đen với khả năng tự động hoá các email lừa đảo, viết mã độc và tìm lỗ hổng. Ví dụ, các hacker có thể sử dụng AI để kiểm tra mã nguồn mở của nhiều giao thức DeFi trong một khoảng thời gian ngắn để tìm ra các lỗ hổng bảo mật. Một số công cụ AI “phi đạo đức” như WormGPT, DarkBard, FraudGPT và HackerGPT đã được quảng bá trên các diễn đàn web đen với khả năng tự động hoá các hoạt động tội phạm mạng như gửi email lừa đảo, viết mã độc và tìm lỗ hổng bảo mật. Các công cụ này thường được bán với giá từ 70 đến 1.700 USD. Một ví dụ cụ thể là WormGPT, một công cụ AI được thiết kế để tạo ra các email lừa đảo, mã độc và tìm lỗ hổng bảo mật. WormGPT được quảng bá trên các diễn đàn web đen với khả năng tự động hoá các hoạt động tội phạm mạng, bao gồm gửi email lừa đảo và viết mã độc. Một trong những khách hàng của WormGPT đã sử dụng nó để giả mạo ngân hàng và thu thập mã OTP từ các nạn nhân. Triển khai các trò lừa đảo tiền mã hóa và thông tin sai lệch quy mô lớn AI có thể tạo ra và lan truyền các trang web lừa đảo một cách nhanh chóng và dễ dàng. Dịch vụ như NovaDrainer cung cấp các trang web lừa đảo cho các chi nhánh và chia sẻ lợi nhuận, đã nhận được hơn 2.400 loại token từ hơn 10.000 ví tiền khác nhau, có khả năng là từ các nạn nhân bị lừa đảo. Ngoài ra, AI cũng được sử dụng để tự động tạo ra các bài đăng trên mạng xã hội, giúp lan truyền thông tin sai lệch về các dự án tiền mã hoá. Một ví dụ cụ thể là dịch vụ NovaDrainer, một nền tảng cung cấp dịch vụ lừa đảo dưới dạng một dịch vụ cho các chi nhánh và chia sẻ lợi nhuận. NovaDrainer tuyên bố sử dụng AI để xử lý các giao dịch và tạo ra các thiết kế trang web mới, tối ưu hóa cho SEO và thẻ meta. Dịch vụ này đã nhận được hơn 2.400 loại token từ hơn 10.000 ví tiền khác nhau, có khả năng là từ các nạn nhân bị lừa đảo. Ngoài ra, các bot mạng xã hội cũng được sử dụng để lan truyền thông tin sai lệch về các dự án tiền mã hoá. Một ví dụ điển hình là mạng lưới bot FOX8, một mạng lưới bot trên Twitter đã sử dụng ChatGPT để tạo ra các bài đăng và phản hồi tự động. Mạng lưới bot này bao gồm hơn 1.100 tài khoản và đã lan truyền các thông tin sai lệch về tiền mã hoá, với hashtag #crypto xuất hiện hơn 3.000 lần trong các bài đăng của mạng lưới này. Mở rộng thị trường bất hợp pháp Trên các thị trường web đen, đã xuất hiện các dịch vụ AI tạo ra hình ảnh nude giả mạo của các người nổi tiếng và cung cấp các công cụ AI để tạo ra hình ảnh này với chi phí thấp. Các dịch vụ tạo tài liệu giả mạo như “OnlyFake Document Generator” sử dụng AI để tạo ra các giấy tờ tùy thân giả nhằm vượt qua các kiểm tra KYC tại các sàn giao dịch tiền mã hoá. Ngoài ra, các công cụ AI còn được sử dụng để lọc và phân tích dữ liệu bị đánh cắp từ các cuộc tấn công mạng. Một ví dụ điển hình là OnlyFake Document Generator, một dịch vụ tạo tài liệu giả mạo sử dụng AI để tạo ra các giấy tờ tùy thân giả nhằm vượt qua các kiểm tra KYC tại các sàn giao dịch tiền mã hoá. Dịch vụ này cung cấp các gói dịch vụ từ 15 USD (tạo ra một tài liệu giả) đến 1.500 USD (tạo ra 1.000 tài liệu giả). Chỉ trong một tháng, dịch vụ này đã bán được đủ giấy phép để tạo ra khoảng 4.935 tài liệu giả. Các dịch vụ tạo hình ảnh nude giả mạo của các người nổi tiếng cũng đã xuất hiện trên các thị trường web đen. Một ví dụ là một dịch vụ AI tạo ra hình ảnh khoả thân giả mạo của ít nhất 13 người nổi tiếng trong ngành giải trí Hồng Kông, được bán với giá 2 USD. Ngoài ra, các dịch vụ AI khác còn cung cấp khả năng tạo ra hình ảnh nude từ các hình ảnh do người dùng tải lên với chi phí thấp, thường dưới 1 USD mỗi hình ảnh. Hệ lụy và biện pháp phòng ngừa Sự kết hợp giữa AI và các hoạt động bất hợp pháp trên dark web đặt ra thách thức lớn cho các cơ quan thực thi pháp luật và chuyên gia an ninh mạng. Việc phát hiện và ngăn chặn các hoạt động này đòi hỏi sự hiểu biết sâu rộng về công nghệ AI và các phương pháp tội phạm mới. Để đối phó với các mối đe dọa tội phạm được hỗ trợ bởi AI trong hệ sinh thái tiền mã hoá, cần thiết lập các biện pháp phòng ngừa toàn diện. Một trong những phương pháp tiếp cận này là DECODE, bao gồm các yếu tố sau: 1. Detection (Phát hiện): Sử dụng công nghệ AI để phát hiện sớm các hoạt động bất thường và các dấu hiệu của hành vi lừa đảo. Các hệ thống giám sát tự động có thể quét các giao dịch và các hoạt động trên chuỗi khối để tìm kiếm các mẫu hành vi đáng ngờ. 2. Education (Giáo dục): Tăng cường nhận thức và giáo dục cho người dùng và các bên liên quan về các rủi ro liên quan đến tội phạm AI trong tiền mã hoá. Các chiến dịch truyền thông và đào tạo nên được triển khai để giúp người dùng nhận biết các dấu hiệu lừa đảo và các biện pháp bảo vệ cá nhân. 3. Collaboration (Hợp tác): Thúc đẩy sự hợp tác giữa các cơ quan thực thi pháp luật, các công ty công nghệ và các tổ chức tài chính để chia sẻ thông tin và phối hợp trong việc đối phó với tội phạm AI. Sự hợp tác quốc tế cũng là yếu tố quan trọng trong việc đối phó với các mối đe dọa xuyên quốc gia. 4. Oversight (Giám sát): Thiết lập các cơ chế giám sát và quy định để đảm bảo rằng các công ty và các tổ chức tuân thủ các tiêu chuẩn bảo mật và phòng ngừa tội phạm. Các cơ quan quản lý nên thường xuyên cập nhật các quy định để phản ánh các xu hướng tội phạm mới. 5. Defense (Phòng thủ): Áp dụng các biện pháp bảo mật tiên tiến, bao gồm mã hóa, xác thực hai yếu tố và các giải pháp bảo mật khác để bảo vệ hệ thống khỏi các cuộc tấn công. Các biện pháp này cần được cập nhật liên tục để đối phó với các mối đe dọa mới. 6. Evaluation (Đánh giá): Thực hiện các cuộc kiểm tra và đánh giá thường xuyên về các biện pháp phòng ngừa tội phạm và các hệ thống bảo mật để đảm bảo tính hiệu quả. Các đánh giá này nên bao gồm cả việc thử nghiệm các hệ thống chống lại các cuộc tấn công giả lập để phát hiện và khắc phục các điểm yếu. Kết luận AI đang mở ra những cơ hội mới cho cả lợi ích và rủi ro trong hệ sinh thái tiền mã hóa. Việc hiểu rõ và quản lý các rủi ro liên quan là rất quan trọng để bảo vệ người dùng và duy trì an ninh mạng. Những nỗ lực phối hợp và các biện pháp phòng ngừa hiệu quả sẽ giúp giảm thiểu tác động của các hoạt động tội phạm này và bảo vệ sự phát triển bền vững của công nghệ AI và tiền mã hóa. Báo cáo của Elliptic không chỉ cung cấp cái nhìn sâu sắc về các xu hướng tội phạm liên quan đến AI mà còn đề xuất các chiến lược cụ thể để đối phó với những thách thức này. Việc tiếp tục nghiên cứu và nâng cao nhận thức về các mối đe dọa tiềm ẩn là bước quan trọng trong việc đảm bảo một môi trường kỹ thuật số an toàn và đáng tin cậy. Khi công nghệ tiếp tục tiến bộ, việc duy trì sự cân bằng giữa đổi mới và an ninh sẽ là một thách thức không nhỏ. Các bên liên quan trong ngành công nghiệp tiền mã hóa và công nghệ thông tin cần phải hợp tác chặt chẽ để phát triển các giải pháp an ninh tiên tiến, đồng thời nâng cao nhận thức và kỹ năng để đối phó với các mối đe dọa mới. Sự phát triển bền vững và an toàn của công nghệ AI và tiền mã hóa không chỉ phụ thuộc vào các biện pháp kỹ thuật mà còn cần đến sự hợp tác toàn cầu và sự cam kết của tất cả các bên liên quan.

AI Và Tội Phạm Tiền Mã Hoá: Mối Nguy Hiểm Mới

AI có thể trở thành công cụ hữu ích cho tội phạm trong hệ sinh thái tiền mã hoá, và việc hiểu rõ các xu hướng tội phạm mới là rất quan trọng để bảo vệ ngành công nghiệp này.

Với sự phát triển nhanh chóng của trí tuệ nhân tạo (AI), đã có nhiều sáng kiến đổi mới mang lại lợi ích lớn trong nhiều ngành công nghiệp, đặc biệt là lĩnh vực tiền mã hoá. Tuy nhiên, như bất kỳ công nghệ mới nào, AI cũng mang theo nguy cơ bị lợi dụng vào các mục đích xấu. Theo báo cáo do Elliptic thực hiện, tổ chức này đã xác định năm loại tội phạm mới nổi trong hệ sinh thái tiền mã hoá được hỗ trợ bởi AI.

AI tạo dựng lừa đảo deepfake trong tiền mã hoá

AI đang được sử dụng để tạo ra các chiêu lừa đảo trong tiền mã hoá. Cụ thể, các video deepfake giả mạo người nổi tiếng hoặc các lãnh đạo doanh nghiệp đang quảng bá các dự án đầu tư tiền mã hoá, tạo ra ấn tượng rằng dự án này có sự hỗ trợ chính thức. Ví dụ như các video giả mạo CEO của Ripple, Brad Garlinghouse, đã xuất hiện để lừa đảo người dùng tham gia vào các trò lừa đảo tặng tiền mã hoá.

Các chiêu lừa đảo này thường sử dụng hình ảnh, video và giọng nói được tạo ra bởi AI để làm cho các trang web lừa đảo trông thuyết phục hơn. Một ví dụ điển hình là vụ tấn công Twitter vào tháng 7/2020, khi các tài khoản của nhiều người nổi tiếng bị hack để đăng các liên kết lừa đảo tặng Bitcoin. Trong nhiều trường hợp, những kẻ lừa đảo còn sử dụng tài khoản quản trị viên trên các kênh Discord của các dự án tiền mã hoá để đăng các liên kết lừa đảo, đánh cắp tiền mã hoá hoặc các token không thể thay thế (NFT).

Tạo token AI lừa đảo hoặc các kế hoạch thao túng thị trường

Một số lượng lớn token lừa đảo đã được tạo ra với các từ khóa liên quan đến AI như “GPT”, “CryptoGPT”, và “GPT Coin”. Những token này thường được quảng bá trên các diễn đàn giao dịch nghiệp dư, tạo ra sự hứng thú giả tạo và cuối cùng là lừa đảo người dùng bằng cách bán token và biến mất với số tiền thu được. Các chiêu lừa đảo này bao gồm “exit scams” (lừa đảo rút lui) và “pump and dump” (thao túng thị trường).

Theo báo cáo của Elliptic, trên nhiều blockchain, việc tạo ra một token là rất dễ dàng, và những kẻ lừa đảo đã lợi dụng điều này để tạo ra các token liên quan đến AI nhằm tạo ra sự hứng thú giả tạo. Các token này thường được quảng bá trong các diễn đàn giao dịch nghiệp dư, nơi mà những kẻ lừa đảo tuyên bố có sự liên kết chính thức với các công ty AI hợp pháp như ChatGPT hoặc các công ty AI khác. Những chiêu lừa đảo này không chỉ dừng lại ở việc tạo ra token, mà còn bao gồm các nền tảng đầu tư giả mạo, các bot giao dịch AI giả mạo và các chiêu lừa đảo thoát hiểm (exit scams).

Một ví dụ điển hình là vụ lừa đảo bot giao dịch AI trị giá 6 triệu USD mang tên “iEarn”, trong đó những kẻ lừa đảo tạo ra một nền tảng giao dịch AI giả mạo và sau đó biến mất với số tiền đầu tư của nạn nhân. Những kẻ lừa đảo này thường tái xuất hiện dưới các tên gọi và trang web khác nhau, tiếp tục lừa đảo các nạn nhân mới. Một ví dụ nổi bật khác là Mirror Trading International (MTI), một mô hình Ponzi đã thu về hơn 1,7 tỷ USD tiền mã hoá từ các nạn nhân trên toàn thế giới.

Sử dụng các mô hình ngôn ngữ lớn để thực hiện các cuộc tấn công mạng

Công cụ AI như ChatGPT có khả năng kiểm tra và phát hiện lỗ hổng trong mã code, do đó có thể bị khai thác bởi hacker để tìm ra và tấn công các hợp đồng thông minh của các giao thức tài chính phi tập trung (DeFi). Một số công cụ AI “phi đạo đức” đã được quảng bá trên các diễn đàn web đen với khả năng tự động hoá các email lừa đảo, viết mã độc và tìm lỗ hổng.

Ví dụ, các hacker có thể sử dụng AI để kiểm tra mã nguồn mở của nhiều giao thức DeFi trong một khoảng thời gian ngắn để tìm ra các lỗ hổng bảo mật. Một số công cụ AI “phi đạo đức” như WormGPT, DarkBard, FraudGPT và HackerGPT đã được quảng bá trên các diễn đàn web đen với khả năng tự động hoá các hoạt động tội phạm mạng như gửi email lừa đảo, viết mã độc và tìm lỗ hổng bảo mật. Các công cụ này thường được bán với giá từ 70 đến 1.700 USD.

Một ví dụ cụ thể là WormGPT, một công cụ AI được thiết kế để tạo ra các email lừa đảo, mã độc và tìm lỗ hổng bảo mật. WormGPT được quảng bá trên các diễn đàn web đen với khả năng tự động hoá các hoạt động tội phạm mạng, bao gồm gửi email lừa đảo và viết mã độc. Một trong những khách hàng của WormGPT đã sử dụng nó để giả mạo ngân hàng và thu thập mã OTP từ các nạn nhân.

Triển khai các trò lừa đảo tiền mã hóa và thông tin sai lệch quy mô lớn

AI có thể tạo ra và lan truyền các trang web lừa đảo một cách nhanh chóng và dễ dàng. Dịch vụ như NovaDrainer cung cấp các trang web lừa đảo cho các chi nhánh và chia sẻ lợi nhuận, đã nhận được hơn 2.400 loại token từ hơn 10.000 ví tiền khác nhau, có khả năng là từ các nạn nhân bị lừa đảo. Ngoài ra, AI cũng được sử dụng để tự động tạo ra các bài đăng trên mạng xã hội, giúp lan truyền thông tin sai lệch về các dự án tiền mã hoá.

Một ví dụ cụ thể là dịch vụ NovaDrainer, một nền tảng cung cấp dịch vụ lừa đảo dưới dạng một dịch vụ cho các chi nhánh và chia sẻ lợi nhuận. NovaDrainer tuyên bố sử dụng AI để xử lý các giao dịch và tạo ra các thiết kế trang web mới, tối ưu hóa cho SEO và thẻ meta. Dịch vụ này đã nhận được hơn 2.400 loại token từ hơn 10.000 ví tiền khác nhau, có khả năng là từ các nạn nhân bị lừa đảo.

Ngoài ra, các bot mạng xã hội cũng được sử dụng để lan truyền thông tin sai lệch về các dự án tiền mã hoá. Một ví dụ điển hình là mạng lưới bot FOX8, một mạng lưới bot trên Twitter đã sử dụng ChatGPT để tạo ra các bài đăng và phản hồi tự động. Mạng lưới bot này bao gồm hơn 1.100 tài khoản và đã lan truyền các thông tin sai lệch về tiền mã hoá, với hashtag #crypto xuất hiện hơn 3.000 lần trong các bài đăng của mạng lưới này.

Mở rộng thị trường bất hợp pháp

Trên các thị trường web đen, đã xuất hiện các dịch vụ AI tạo ra hình ảnh nude giả mạo của các người nổi tiếng và cung cấp các công cụ AI để tạo ra hình ảnh này với chi phí thấp. Các dịch vụ tạo tài liệu giả mạo như “OnlyFake Document Generator” sử dụng AI để tạo ra các giấy tờ tùy thân giả nhằm vượt qua các kiểm tra KYC tại các sàn giao dịch tiền mã hoá. Ngoài ra, các công cụ AI còn được sử dụng để lọc và phân tích dữ liệu bị đánh cắp từ các cuộc tấn công mạng.

Một ví dụ điển hình là OnlyFake Document Generator, một dịch vụ tạo tài liệu giả mạo sử dụng AI để tạo ra các giấy tờ tùy thân giả nhằm vượt qua các kiểm tra KYC tại các sàn giao dịch tiền mã hoá. Dịch vụ này cung cấp các gói dịch vụ từ 15 USD (tạo ra một tài liệu giả) đến 1.500 USD (tạo ra 1.000 tài liệu giả). Chỉ trong một tháng, dịch vụ này đã bán được đủ giấy phép để tạo ra khoảng 4.935 tài liệu giả.

Các dịch vụ tạo hình ảnh nude giả mạo của các người nổi tiếng cũng đã xuất hiện trên các thị trường web đen. Một ví dụ là một dịch vụ AI tạo ra hình ảnh khoả thân giả mạo của ít nhất 13 người nổi tiếng trong ngành giải trí Hồng Kông, được bán với giá 2 USD. Ngoài ra, các dịch vụ AI khác còn cung cấp khả năng tạo ra hình ảnh nude từ các hình ảnh do người dùng tải lên với chi phí thấp, thường dưới 1 USD mỗi hình ảnh.

Hệ lụy và biện pháp phòng ngừa

Sự kết hợp giữa AI và các hoạt động bất hợp pháp trên dark web đặt ra thách thức lớn cho các cơ quan thực thi pháp luật và chuyên gia an ninh mạng. Việc phát hiện và ngăn chặn các hoạt động này đòi hỏi sự hiểu biết sâu rộng về công nghệ AI và các phương pháp tội phạm mới.

Để đối phó với các mối đe dọa tội phạm được hỗ trợ bởi AI trong hệ sinh thái tiền mã hoá, cần thiết lập các biện pháp phòng ngừa toàn diện. Một trong những phương pháp tiếp cận này là DECODE, bao gồm các yếu tố sau:

1. Detection (Phát hiện): Sử dụng công nghệ AI để phát hiện sớm các hoạt động bất thường và các dấu hiệu của hành vi lừa đảo. Các hệ thống giám sát tự động có thể quét các giao dịch và các hoạt động trên chuỗi khối để tìm kiếm các mẫu hành vi đáng ngờ.

2. Education (Giáo dục): Tăng cường nhận thức và giáo dục cho người dùng và các bên liên quan về các rủi ro liên quan đến tội phạm AI trong tiền mã hoá. Các chiến dịch truyền thông và đào tạo nên được triển khai để giúp người dùng nhận biết các dấu hiệu lừa đảo và các biện pháp bảo vệ cá nhân.

3. Collaboration (Hợp tác): Thúc đẩy sự hợp tác giữa các cơ quan thực thi pháp luật, các công ty công nghệ và các tổ chức tài chính để chia sẻ thông tin và phối hợp trong việc đối phó với tội phạm AI. Sự hợp tác quốc tế cũng là yếu tố quan trọng trong việc đối phó với các mối đe dọa xuyên quốc gia.

4. Oversight (Giám sát): Thiết lập các cơ chế giám sát và quy định để đảm bảo rằng các công ty và các tổ chức tuân thủ các tiêu chuẩn bảo mật và phòng ngừa tội phạm. Các cơ quan quản lý nên thường xuyên cập nhật các quy định để phản ánh các xu hướng tội phạm mới.

5. Defense (Phòng thủ): Áp dụng các biện pháp bảo mật tiên tiến, bao gồm mã hóa, xác thực hai yếu tố và các giải pháp bảo mật khác để bảo vệ hệ thống khỏi các cuộc tấn công. Các biện pháp này cần được cập nhật liên tục để đối phó với các mối đe dọa mới.

6. Evaluation (Đánh giá): Thực hiện các cuộc kiểm tra và đánh giá thường xuyên về các biện pháp phòng ngừa tội phạm và các hệ thống bảo mật để đảm bảo tính hiệu quả. Các đánh giá này nên bao gồm cả việc thử nghiệm các hệ thống chống lại các cuộc tấn công giả lập để phát hiện và khắc phục các điểm yếu.

Kết luận

AI đang mở ra những cơ hội mới cho cả lợi ích và rủi ro trong hệ sinh thái tiền mã hóa. Việc hiểu rõ và quản lý các rủi ro liên quan là rất quan trọng để bảo vệ người dùng và duy trì an ninh mạng. Những nỗ lực phối hợp và các biện pháp phòng ngừa hiệu quả sẽ giúp giảm thiểu tác động của các hoạt động tội phạm này và bảo vệ sự phát triển bền vững của công nghệ AI và tiền mã hóa.

Báo cáo của Elliptic không chỉ cung cấp cái nhìn sâu sắc về các xu hướng tội phạm liên quan đến AI mà còn đề xuất các chiến lược cụ thể để đối phó với những thách thức này. Việc tiếp tục nghiên cứu và nâng cao nhận thức về các mối đe dọa tiềm ẩn là bước quan trọng trong việc đảm bảo một môi trường kỹ thuật số an toàn và đáng tin cậy.

Khi công nghệ tiếp tục tiến bộ, việc duy trì sự cân bằng giữa đổi mới và an ninh sẽ là một thách thức không nhỏ. Các bên liên quan trong ngành công nghiệp tiền mã hóa và công nghệ thông tin cần phải hợp tác chặt chẽ để phát triển các giải pháp an ninh tiên tiến, đồng thời nâng cao nhận thức và kỹ năng để đối phó với các mối đe dọa mới. Sự phát triển bền vững và an toàn của công nghệ AI và tiền mã hóa không chỉ phụ thuộc vào các biện pháp kỹ thuật mà còn cần đến sự hợp tác toàn cầu và sự cam kết của tất cả các bên liên quan.
Apple ra mắt Apple Intelligence, tích hợp ChatGPTApple vừa công bố hệ thống trí tuệ cá nhân Apple Intelligence cùng với việc hợp tác với OpenAI để tích hợp ChatGPT vào hệ sinh thái của mình. Theo thông cáo báo chí hôm 11/6, hệ thống mới này kết hợp các mô hình tạo sinh mạnh mẽ với ngữ cảnh cá nhân, thiết lập một tiêu chuẩn mới về quyền riêng tư trong AI. Đối với các ứng dụng dựa trên văn bản, tính năng này có khả năng hiệu chỉnh và tóm tắt văn bản, tóm tắt email và chuỗi tin nhắn, cũng như ưu tiên thông báo. Trong khi trên các ứng dụng điện thoại và ghi chú, sẽ có thể cho phép ghi âm, phiên âm và tóm tắt âm thanh. Apple Intelligence cũng sẽ bao gồm các tính năng tạo hình ảnh thông qua Image Playground. Hệ thống này còn cho phép hỗ trợ tìm kiếm văn bản trong ảnh, chỉnh sửa ảnh cơ bản và sắp xếp ảnh thành các câu chuyện. Trợ lý ảo Siri của Apple sẽ hiểu ngôn ngữ tốt hơn và cung cấp nhiều tính năng khác như hoạt động trong các ứng dụng của Apple và bên thứ ba. Apple đã công bố các sáng kiến ​​AI mới tại WWDC 2024, đặc biệt là sự tích hợp của ChatGPT Đặc biệt, Apple cũng thông báo sẽ tích hợp ChatGPT của OpenAI vào iOS 18, iPadOS 18 và macOS Sequoia, cho phép người dùng truy cập mà không cần chuyển đổi công cụ.  Siri có thể sử dụng ChatGPT cho các truy vấn phức tạp và người dùng có thể tạo nội dung cũng như hình ảnh bằng khả năng của ChatGPT trực tiếp trong các công cụ viết của Apple.  Apple cho biết người dùng sẽ có thể truy cập ChatGPT miễn phí và không cần tạo tài khoản. Người đăng ký có thể kết nối với tài khoản trả phí của họ. Greg Brockman, Chủ tịch kiêm đồng sáng lập OpenAI, đã xác nhận quan hệ đối tác với Apple trong một bài đăng trên X. Các tính năng của Apple Intelligence và ChatGPT dự kiến ​​sẽ được triển khai trong những tháng tới, một số tính năng có thể được tung ra vào cuối năm 2025.

Apple ra mắt Apple Intelligence, tích hợp ChatGPT

Apple vừa công bố hệ thống trí tuệ cá nhân Apple Intelligence cùng với việc hợp tác với OpenAI để tích hợp ChatGPT vào hệ sinh thái của mình.

Theo thông cáo báo chí hôm 11/6, hệ thống mới này kết hợp các mô hình tạo sinh mạnh mẽ với ngữ cảnh cá nhân, thiết lập một tiêu chuẩn mới về quyền riêng tư trong AI.

Đối với các ứng dụng dựa trên văn bản, tính năng này có khả năng hiệu chỉnh và tóm tắt văn bản, tóm tắt email và chuỗi tin nhắn, cũng như ưu tiên thông báo. Trong khi trên các ứng dụng điện thoại và ghi chú, sẽ có thể cho phép ghi âm, phiên âm và tóm tắt âm thanh. Apple Intelligence cũng sẽ bao gồm các tính năng tạo hình ảnh thông qua Image Playground.

Hệ thống này còn cho phép hỗ trợ tìm kiếm văn bản trong ảnh, chỉnh sửa ảnh cơ bản và sắp xếp ảnh thành các câu chuyện. Trợ lý ảo Siri của Apple sẽ hiểu ngôn ngữ tốt hơn và cung cấp nhiều tính năng khác như hoạt động trong các ứng dụng của Apple và bên thứ ba.

Apple đã công bố các sáng kiến ​​AI mới tại WWDC 2024, đặc biệt là sự tích hợp của ChatGPT

Đặc biệt, Apple cũng thông báo sẽ tích hợp ChatGPT của OpenAI vào iOS 18, iPadOS 18 và macOS Sequoia, cho phép người dùng truy cập mà không cần chuyển đổi công cụ. 

Siri có thể sử dụng ChatGPT cho các truy vấn phức tạp và người dùng có thể tạo nội dung cũng như hình ảnh bằng khả năng của ChatGPT trực tiếp trong các công cụ viết của Apple. 

Apple cho biết người dùng sẽ có thể truy cập ChatGPT miễn phí và không cần tạo tài khoản. Người đăng ký có thể kết nối với tài khoản trả phí của họ.

Greg Brockman, Chủ tịch kiêm đồng sáng lập OpenAI, đã xác nhận quan hệ đối tác với Apple trong một bài đăng trên X.

Các tính năng của Apple Intelligence và ChatGPT dự kiến ​​sẽ được triển khai trong những tháng tới, một số tính năng có thể được tung ra vào cuối năm 2025.
Hàn Quốc Hướng Dẫn Quản Lý NFT Từ 19/7Hàn Quốc sẽ điều chỉnh một số NFT như tiền mã hoá để bảo đảm sự minh bạch và an toàn cho người dùng theo quy định mới của FSC. Hàn Quốc vừa ban hành hướng dẫn mới từ Ủy ban Dịch vụ Tài chính (FSC) về việc điều chỉnh các NFT (Non-Fungible Token). Quy định mới này sẽ áp dụng cho những NFT mất đi tính chất độc nhất, trở nên có thể trao đổi, phân chia và sử dụng như tiền mã hoá. Theo đó, nếu một NFT được tạo ra hàng loạt và được sử dụng làm phương tiện thanh toán, nó sẽ bị liệt vào danh sách như tiền mã hoá. Điều này nhằm đảm bảo các hoạt động liên quan đến NFT đều minh bạch và bảo vệ quyền lợi người dùng. Trái lại, những NFT có giá trị kinh tế thấp hoặc không thể chuyển nhượng sẽ vẫn được coi là NFT thông thường, chẳng hạn như vé NFT cho các sự kiện. Một đại diện của FSC cho biết, việc phân loại này sẽ được thực hiện cụ thể từng trường hợp. Quy định này cũng đề xuất rằng một NFT có thể được xem như chứng khoán nếu nó đáp ứng các tiêu chí theo Luật Thị trường Vốn của Hàn Quốc. Khung pháp lý mới về tiền mã hoá tại Hàn Quốc Các hướng dẫn này được ban hành ngay trước khi Luật Bảo vệ Người dùng Tài sản Ảo chính thức có hiệu lực vào ngày 19/7. Luật này nhằm loại bỏ các hành vi bất hợp pháp như sử dụng thông tin nội bộ để đầu tư tiền mã hoá, thao túng giá thị trường và giao dịch gian lận. Đồng thời, luật yêu cầu các nhà cung cấp dịch vụ tiền mã hoá bảo vệ phần lớn tiền gửi của khách hàng trong ví lạnh và tham gia các chương trình bảo hiểm để bồi thường trong trường hợp vi phạm đến an toàn bảo mật. Sau khi Luật Bảo vệ Người dùng Tài sản Ảo được triển khai, các NFT thường được giao dịch với mục đích ‘sưu tầm’ sẽ được loại trừ khỏi phạm vi của tài sản ảo. Đối với các NFT không rõ ràng, việc áp dụng luật phụ thuộc vào bản chất của NFT, được xác định theo thứ tự ‘chứng khoán → tài sản ảo’. Trước tiên, phải xác định liệu NFT có phải là chứng khoán hay không, sau đó bản chất của nó được xác định để xem nó có thuộc tài sản ảo hay không. Việc xác định liệu NFT có thuộc tài sản ảo hay không dựa trên các tiêu chí sau: 1) Phát hành lớn hoặc loạt phát hành quy mô lớn, có tính thay thế cao; 2) Có thể chia nhỏ, làm suy yếu đáng kể tính độc đáo; 3) Phương thức thanh toán trực tiếp hoặc gián tiếp cho hàng hóa hoặc dịch vụ cụ thể; 4) Các sàn giao dịch tài sản ảo có thể được tiến hành giữa các cá nhân không xác định, hoặc có thể thanh toán cho các hàng hóa hoặc dịch vụ liên quan đến tài sản ảo khác. Khung pháp lý mới này là một phần trong nỗ lực của Hàn Quốc nhằm tạo ra một môi trường tiền mã hoá an toàn và minh bạch. Phần tiếp theo của quy định này hiện đang được phát triển, sẽ tập trung vào việc tiêu chuẩn hóa phát hành mã thông báo và công bố thông tin cho nhà đầu tư để hướng tới một thị trường tiền mã hoá lành mạnh và bền vững.

Hàn Quốc Hướng Dẫn Quản Lý NFT Từ 19/7

Hàn Quốc sẽ điều chỉnh một số NFT như tiền mã hoá để bảo đảm sự minh bạch và an toàn cho người dùng theo quy định mới của FSC.

Hàn Quốc vừa ban hành hướng dẫn mới từ Ủy ban Dịch vụ Tài chính (FSC) về việc điều chỉnh các NFT (Non-Fungible Token). Quy định mới này sẽ áp dụng cho những NFT mất đi tính chất độc nhất, trở nên có thể trao đổi, phân chia và sử dụng như tiền mã hoá.

Theo đó, nếu một NFT được tạo ra hàng loạt và được sử dụng làm phương tiện thanh toán, nó sẽ bị liệt vào danh sách như tiền mã hoá. Điều này nhằm đảm bảo các hoạt động liên quan đến NFT đều minh bạch và bảo vệ quyền lợi người dùng. Trái lại, những NFT có giá trị kinh tế thấp hoặc không thể chuyển nhượng sẽ vẫn được coi là NFT thông thường, chẳng hạn như vé NFT cho các sự kiện.

Một đại diện của FSC cho biết, việc phân loại này sẽ được thực hiện cụ thể từng trường hợp. Quy định này cũng đề xuất rằng một NFT có thể được xem như chứng khoán nếu nó đáp ứng các tiêu chí theo Luật Thị trường Vốn của Hàn Quốc.

Khung pháp lý mới về tiền mã hoá tại Hàn Quốc

Các hướng dẫn này được ban hành ngay trước khi Luật Bảo vệ Người dùng Tài sản Ảo chính thức có hiệu lực vào ngày 19/7. Luật này nhằm loại bỏ các hành vi bất hợp pháp như sử dụng thông tin nội bộ để đầu tư tiền mã hoá, thao túng giá thị trường và giao dịch gian lận. Đồng thời, luật yêu cầu các nhà cung cấp dịch vụ tiền mã hoá bảo vệ phần lớn tiền gửi của khách hàng trong ví lạnh và tham gia các chương trình bảo hiểm để bồi thường trong trường hợp vi phạm đến an toàn bảo mật.

Sau khi Luật Bảo vệ Người dùng Tài sản Ảo được triển khai, các NFT thường được giao dịch với mục đích ‘sưu tầm’ sẽ được loại trừ khỏi phạm vi của tài sản ảo. Đối với các NFT không rõ ràng, việc áp dụng luật phụ thuộc vào bản chất của NFT, được xác định theo thứ tự ‘chứng khoán → tài sản ảo’. Trước tiên, phải xác định liệu NFT có phải là chứng khoán hay không, sau đó bản chất của nó được xác định để xem nó có thuộc tài sản ảo hay không.

Việc xác định liệu NFT có thuộc tài sản ảo hay không dựa trên các tiêu chí sau:

1) Phát hành lớn hoặc loạt phát hành quy mô lớn, có tính thay thế cao;

2) Có thể chia nhỏ, làm suy yếu đáng kể tính độc đáo;

3) Phương thức thanh toán trực tiếp hoặc gián tiếp cho hàng hóa hoặc dịch vụ cụ thể;

4) Các sàn giao dịch tài sản ảo có thể được tiến hành giữa các cá nhân không xác định, hoặc có thể thanh toán cho các hàng hóa hoặc dịch vụ liên quan đến tài sản ảo khác.

Khung pháp lý mới này là một phần trong nỗ lực của Hàn Quốc nhằm tạo ra một môi trường tiền mã hoá an toàn và minh bạch. Phần tiếp theo của quy định này hiện đang được phát triển, sẽ tập trung vào việc tiêu chuẩn hóa phát hành mã thông báo và công bố thông tin cho nhà đầu tư để hướng tới một thị trường tiền mã hoá lành mạnh và bền vững.
Tiền Mã Hoá: Tìm Hiểu Cơ Bản Và Giải Thích Dễ HiểuTiền mã hoá, nổi bật với Bitcoin, đã thay đổi cách chúng ta nhìn nhận về tài chính toàn cầu, mang lại sự minh bạch và tiện lợi chưa từng có. Đây là những điều cơ bản bạn cần biết. Tiền mã hoá là gì? Tiền mã hoá là một dạng tiền kỹ thuật số hoặc ảo được bảo mật bằng mật mã. Đặc điểm nổi bật của tiền mã hoá là tính phi tập trung, nghĩa là nó không bị kiểm soát bởi bất kỳ chính phủ hay tổ chức tài chính nào. Điều này mang lại sự minh bạch và an toàn cao, làm cho tiền mã hoá trở thành một phương tiện thanh toán và đầu tư hấp dẫn. Lịch sử ra đời và sự phát triển của Bitcoin, tiền mã hoá đầu tiên Bitcoin, đồng tiền mã hoá đầu tiên và nổi tiếng nhất, được giới thiệu vào năm 2008 bởi một cá nhân hoặc nhóm người sử dụng bí danh Satoshi Nakamoto. Ý tưởng đằng sau Bitcoin là tạo ra một hệ thống tiền tệ phi tập trung, cho phép giao dịch trực tiếp giữa các bên mà không cần thông qua ngân hàng hay tổ chức tài chính trung gian.  Từ khi ra đời, Bitcoin đã trải qua nhiều thăng trầm nhưng vẫn giữ vị trí dẫn đầu trong thế giới tiền mã hoá. Được xem là “vua của tiền mã hoá”, Bitcoin không chỉ là một phương tiện thanh toán mà còn được coi là một loại tài sản đầu tư có tiềm năng lớn. Mặc dù đối mặt với sự biến động lớn trong giá cả và các thách thức về bảo mật, sức hút của Bitcoin vẫn không mờ nhạt, thu hút sự quan tâm của cả các nhà đầu tư chuyên nghiệp và cá nhân. Bitcoin được xem là “vua của tiền mã hoá”. Cách thức hoạt động của tiền mã hoá Tiền mã hoá hoạt động dựa trên công nghệ blockchain, một hệ thống lưu trữ dữ liệu phân tán trên nhiều máy tính. Mỗi giao dịch được ghi lại trong một khối (block), và mỗi khối này được liên kết với khối trước đó, tạo thành một chuỗi khối (blockchain). Điều này đảm bảo rằng mọi giao dịch được lưu trữ và không thể thay đổi, mang lại tính minh bạch và an toàn cao cho người dùng.  Công nghệ blockchain không chỉ áp dụng cho tiền mã hoá mà còn có thể được sử dụng trong nhiều lĩnh vực khác như quản lý chuỗi cung ứng, bầu cử điện tử, và quản lý dữ liệu y tế. Sự phổ biến của blockchain không chỉ giới hạn trong lĩnh vực tiền mã hoá mà còn mở ra nhiều cơ hội mới cho các ngành công nghiệp khác, nhờ vào tính bảo mật và tính minh bạch của nó. Điều này giúp tăng cường sự tin cậy trong việc lưu trữ và trao đổi thông tin, từ giao dịch tài chính đến quản lý dữ liệu y tế, đồng thời giúp giảm thiểu sự phụ thuộc vào các bên trung gian và tăng cường tính hiệu quả của các quy trình và dịch vụ. Công nghệ blockchain là nền tảng của Bitcoin. Các loại tiền mã hoá phổ biến Ngoài Bitcoin, có một loạt các loại tiền mã hoá khác như Ethereum, Ripple (XRP), Litecoin, và nhiều loại khác. Mỗi loại tiền mã hoá này đều có những đặc điểm và ứng dụng riêng biệt, phục vụ cho các mục đích khác nhau trong hệ sinh thái tài chính kỹ thuật số. Ethereum không chỉ là một loại tiền mã hoá mà còn là một nền tảng để xây dựng các ứng dụng phi tập trung (Decentralized Applications – DApps) và hợp đồng thông minh. Ripple (XRP), mặt khác, được thiết kế để cung cấp giải pháp chuyển tiền quốc tế nhanh chóng và giá rẻ cho các tổ chức tài chính. Các loại tiền mã hoá khác nhau này đóng vai trò quan trọng trong việc đa dạng hóa và phát triển của tiền mã hoá và hệ sinh thái blockchain. Ngoài Bitcoin, có những đồng tiền mã hoá khác như Ethereum, Ripple (XRP), Litecoin, và nhiều loại khác. Ứng dụng của tiền mã hoá trong cuộc sống Tiền mã hoá đang được sử dụng rộng rãi trong nhiều mục đích khác nhau. Một trong những ứng dụng phổ biến nhất của tiền mã hoá là thanh toán hàng hóa và dịch vụ. Ngày càng nhiều doanh nghiệp đã chấp nhận thanh toán bằng tiền mã hoá, từ các cửa hàng trực tuyến đến các nhà hàng và khách sạn. Việc này mang lại sự thuận tiện và linh hoạt cho người tiêu dùng, đồng thời mở ra cơ hội tiềm năng cho doanh nghiệp để mở rộng phạm vi thanh toán. El Salvador là quốc gia đầu tiền chấp nhận Bitcoin là phương tiện hợp pháp. Ngoài ra, tiền mã hoá cũng được sử dụng như một phương tiện đầu tư. Nhiều người coi tiền mã hoá là một tài sản đầu tư có tiềm năng tăng giá trị theo thời gian. Mặc dù có rủi ro cao và biến động giá cả lớn, nhưng với hy vọng vào tiềm năng tăng trưởng, nhiều nhà đầu tư vẫn chọn lựa đầu tư vào tiền mã hoá. Tiền mã hoá cũng được sử dụng rộng rãi trong việc chuyển tiền quốc tế. Khả năng chuyển tiền nhanh chóng và với chi phí thấp hơn so với các phương pháp truyền thống là một trong những ưu điểm lớn của tiền mã hoá. Điều này làm cho việc chuyển tiền quốc tế trở nên đơn giản và tiết kiệm, đặc biệt là trong các giao dịch liên quốc gia. Đối với người tiêu dùng, tiền mã hoá cung cấp sự thuận tiện trong việc thực hiện các giao dịch trực tuyến mà không cần thông qua bất kỳ bên trung gian nào. Điều này giúp tiết kiệm thời gian và chi phí cho người dùng. Đồng thời, với tính minh bạch và an toàn cao, các nhà đầu tư cũng nhận thấy tiềm năng lớn từ việc đầu tư vào tiền mã hoá, đặc biệt là trong bối cảnh tăng trưởng nhanh chóng của thị trường tiền mã hoá trong những năm gần đây. Các yếu tố ảnh hưởng đến giá trị tiền mã hoá Giá trị của tiền mã hoá bị ảnh hưởng bởi một số yếu tố quan trọng. Trước hết, cung và cầu trên thị trường đóng vai trò quan trọng trong xác định giá trị của tiền mã hoá, tương tự như các loại hàng hóa khác. Sự thay đổi trong cung và cầu có thể gây ra biến động lớn trong giá của tiền mã hoá. Cung và cầu trên thị trường đóng vai trò quan trọng trong xác định giá trị của tiền mã hoá. Ngoài ra, các quy định mới từ phía chính phủ cũng có thể ảnh hưởng đến giá trị của tiền mã hoá. Bất kỳ biện pháp nào về quản lý hoặc hạn chế tiền mã hoá có thể tạo ra sự không chắc chắn trong thị trường và ảnh hưởng đến niềm tin của nhà đầu tư và người dùng. Sự chấp nhận của công chúng cũng đóng một vai trò quan trọng trong việc xác định giá trị của tiền mã hoá. Khi có ngày càng nhiều người và doanh nghiệp chấp nhận và sử dụng tiền mã hoá, sức mạnh và giá trị của nó có xu hướng tăng lên. Điều này tạo ra một vòng lặp tích cực, khi sự chấp nhận ngày càng tăng, giá trị của tiền mã hoá cũng có thể tăng theo. Các rủi ro và thách thức Mặc dù tiền mã hoá mang lại nhiều ưu điểm, nhưng cũng đối mặt với nhiều rủi ro và thách thức đáng lưu ý. Trước hết, tính biến động cao là một trong những rủi ro lớn nhất. Giá trị của tiền mã hoá có thể biến động mạnh, tạo ra rủi ro lớn cho các nhà đầu tư. Sự biến động này có thể phụ thuộc vào nhiều yếu tố, từ thị trường chung đến các tin tức và sự kiện đặc biệt liên quan đến mỗi loại tiền mã hoá. Bảo mật cũng là một vấn đề đáng quan ngại. Mặc dù công nghệ blockchain được coi là an toàn, nhưng các sàn giao dịch và ví tiền mã hoá vẫn có thể bị hack. Các vụ vi phạm bảo mật có thể dẫn đến mất mát tiền mã hoá đáng kể và gây ra thiệt hại cho người dùng. Các sàn giao dịch và ví tiền mã hoá vẫn có thể bị hack. Sự không rõ ràng trong quy định pháp lý cũng tạo ra một thách thức đối với tiền mã hoá. Sự không chắc chắn về cách các quốc gia và chính phủ sẽ quy định và xử lý tiền mã hoá có thể ảnh hưởng đến sự phát triển và chấp nhận của nó. Sự không đồng nhất trong quy định pháp lý có thể tạo ra rủi ro và làm giảm niềm tin của nhà đầu tư và người dùng. Lời kết Tiền mã hoá đã và đang thay đổi cách chúng ta nhìn nhận về tiền tệ và tài chính, mở ra những cơ hội mới và tiềm năng đáng kể. Mặc dù còn nhiều thách thức phía trước, nhưng với những ưu điểm vượt trội như tính minh bạch, tính bảo mật cao và khả năng chuyển tiền nhanh chóng, tiền mã hoá hứa hẹn sẽ tiếp tục phát triển và đóng vai trò quan trọng trong tương lai. Việc hiểu rõ về tiền mã hoá sẽ giúp bạn tận dụng tối đa các cơ hội mà nó mang lại, đồng thời giảm thiểu các rủi ro tiềm ẩn.  Bằng cách nắm bắt và áp dụng kiến thức về tiền mã hoá vào thực tiễn, bạn có thể tham gia vào thị trường này một cách tự tin và hiệu quả hơn, từ việc đầu tư đến việc sử dụng tiền mã hoá trong cuộc sống hàng ngày. Trong khi đó, việc tiếp tục nghiên cứu và theo dõi sự phát triển của thị trường tiền mã hoá cũng là yếu tố quan trọng để bạn có thể đưa ra các quyết định thông minh và mang lại lợi ích tối đa từ việc tham gia vào cuộc cách mạng tài chính này.

Tiền Mã Hoá: Tìm Hiểu Cơ Bản Và Giải Thích Dễ Hiểu

Tiền mã hoá, nổi bật với Bitcoin, đã thay đổi cách chúng ta nhìn nhận về tài chính toàn cầu, mang lại sự minh bạch và tiện lợi chưa từng có. Đây là những điều cơ bản bạn cần biết.

Tiền mã hoá là gì?

Tiền mã hoá là một dạng tiền kỹ thuật số hoặc ảo được bảo mật bằng mật mã. Đặc điểm nổi bật của tiền mã hoá là tính phi tập trung, nghĩa là nó không bị kiểm soát bởi bất kỳ chính phủ hay tổ chức tài chính nào. Điều này mang lại sự minh bạch và an toàn cao, làm cho tiền mã hoá trở thành một phương tiện thanh toán và đầu tư hấp dẫn.

Lịch sử ra đời và sự phát triển của Bitcoin, tiền mã hoá đầu tiên

Bitcoin, đồng tiền mã hoá đầu tiên và nổi tiếng nhất, được giới thiệu vào năm 2008 bởi một cá nhân hoặc nhóm người sử dụng bí danh Satoshi Nakamoto. Ý tưởng đằng sau Bitcoin là tạo ra một hệ thống tiền tệ phi tập trung, cho phép giao dịch trực tiếp giữa các bên mà không cần thông qua ngân hàng hay tổ chức tài chính trung gian. 

Từ khi ra đời, Bitcoin đã trải qua nhiều thăng trầm nhưng vẫn giữ vị trí dẫn đầu trong thế giới tiền mã hoá. Được xem là “vua của tiền mã hoá”, Bitcoin không chỉ là một phương tiện thanh toán mà còn được coi là một loại tài sản đầu tư có tiềm năng lớn. Mặc dù đối mặt với sự biến động lớn trong giá cả và các thách thức về bảo mật, sức hút của Bitcoin vẫn không mờ nhạt, thu hút sự quan tâm của cả các nhà đầu tư chuyên nghiệp và cá nhân.

Bitcoin được xem là “vua của tiền mã hoá”. Cách thức hoạt động của tiền mã hoá

Tiền mã hoá hoạt động dựa trên công nghệ blockchain, một hệ thống lưu trữ dữ liệu phân tán trên nhiều máy tính. Mỗi giao dịch được ghi lại trong một khối (block), và mỗi khối này được liên kết với khối trước đó, tạo thành một chuỗi khối (blockchain). Điều này đảm bảo rằng mọi giao dịch được lưu trữ và không thể thay đổi, mang lại tính minh bạch và an toàn cao cho người dùng. 

Công nghệ blockchain không chỉ áp dụng cho tiền mã hoá mà còn có thể được sử dụng trong nhiều lĩnh vực khác như quản lý chuỗi cung ứng, bầu cử điện tử, và quản lý dữ liệu y tế. Sự phổ biến của blockchain không chỉ giới hạn trong lĩnh vực tiền mã hoá mà còn mở ra nhiều cơ hội mới cho các ngành công nghiệp khác, nhờ vào tính bảo mật và tính minh bạch của nó. Điều này giúp tăng cường sự tin cậy trong việc lưu trữ và trao đổi thông tin, từ giao dịch tài chính đến quản lý dữ liệu y tế, đồng thời giúp giảm thiểu sự phụ thuộc vào các bên trung gian và tăng cường tính hiệu quả của các quy trình và dịch vụ.

Công nghệ blockchain là nền tảng của Bitcoin. Các loại tiền mã hoá phổ biến

Ngoài Bitcoin, có một loạt các loại tiền mã hoá khác như Ethereum, Ripple (XRP), Litecoin, và nhiều loại khác. Mỗi loại tiền mã hoá này đều có những đặc điểm và ứng dụng riêng biệt, phục vụ cho các mục đích khác nhau trong hệ sinh thái tài chính kỹ thuật số.

Ethereum không chỉ là một loại tiền mã hoá mà còn là một nền tảng để xây dựng các ứng dụng phi tập trung (Decentralized Applications – DApps) và hợp đồng thông minh. Ripple (XRP), mặt khác, được thiết kế để cung cấp giải pháp chuyển tiền quốc tế nhanh chóng và giá rẻ cho các tổ chức tài chính. Các loại tiền mã hoá khác nhau này đóng vai trò quan trọng trong việc đa dạng hóa và phát triển của tiền mã hoá và hệ sinh thái blockchain.

Ngoài Bitcoin, có những đồng tiền mã hoá khác như Ethereum, Ripple (XRP), Litecoin, và nhiều loại khác. Ứng dụng của tiền mã hoá trong cuộc sống

Tiền mã hoá đang được sử dụng rộng rãi trong nhiều mục đích khác nhau. Một trong những ứng dụng phổ biến nhất của tiền mã hoá là thanh toán hàng hóa và dịch vụ. Ngày càng nhiều doanh nghiệp đã chấp nhận thanh toán bằng tiền mã hoá, từ các cửa hàng trực tuyến đến các nhà hàng và khách sạn. Việc này mang lại sự thuận tiện và linh hoạt cho người tiêu dùng, đồng thời mở ra cơ hội tiềm năng cho doanh nghiệp để mở rộng phạm vi thanh toán.

El Salvador là quốc gia đầu tiền chấp nhận Bitcoin là phương tiện hợp pháp.

Ngoài ra, tiền mã hoá cũng được sử dụng như một phương tiện đầu tư. Nhiều người coi tiền mã hoá là một tài sản đầu tư có tiềm năng tăng giá trị theo thời gian. Mặc dù có rủi ro cao và biến động giá cả lớn, nhưng với hy vọng vào tiềm năng tăng trưởng, nhiều nhà đầu tư vẫn chọn lựa đầu tư vào tiền mã hoá.

Tiền mã hoá cũng được sử dụng rộng rãi trong việc chuyển tiền quốc tế. Khả năng chuyển tiền nhanh chóng và với chi phí thấp hơn so với các phương pháp truyền thống là một trong những ưu điểm lớn của tiền mã hoá. Điều này làm cho việc chuyển tiền quốc tế trở nên đơn giản và tiết kiệm, đặc biệt là trong các giao dịch liên quốc gia.

Đối với người tiêu dùng, tiền mã hoá cung cấp sự thuận tiện trong việc thực hiện các giao dịch trực tuyến mà không cần thông qua bất kỳ bên trung gian nào. Điều này giúp tiết kiệm thời gian và chi phí cho người dùng. Đồng thời, với tính minh bạch và an toàn cao, các nhà đầu tư cũng nhận thấy tiềm năng lớn từ việc đầu tư vào tiền mã hoá, đặc biệt là trong bối cảnh tăng trưởng nhanh chóng của thị trường tiền mã hoá trong những năm gần đây.

Các yếu tố ảnh hưởng đến giá trị tiền mã hoá

Giá trị của tiền mã hoá bị ảnh hưởng bởi một số yếu tố quan trọng. Trước hết, cung và cầu trên thị trường đóng vai trò quan trọng trong xác định giá trị của tiền mã hoá, tương tự như các loại hàng hóa khác. Sự thay đổi trong cung và cầu có thể gây ra biến động lớn trong giá của tiền mã hoá.

Cung và cầu trên thị trường đóng vai trò quan trọng trong xác định giá trị của tiền mã hoá.

Ngoài ra, các quy định mới từ phía chính phủ cũng có thể ảnh hưởng đến giá trị của tiền mã hoá. Bất kỳ biện pháp nào về quản lý hoặc hạn chế tiền mã hoá có thể tạo ra sự không chắc chắn trong thị trường và ảnh hưởng đến niềm tin của nhà đầu tư và người dùng.

Sự chấp nhận của công chúng cũng đóng một vai trò quan trọng trong việc xác định giá trị của tiền mã hoá. Khi có ngày càng nhiều người và doanh nghiệp chấp nhận và sử dụng tiền mã hoá, sức mạnh và giá trị của nó có xu hướng tăng lên. Điều này tạo ra một vòng lặp tích cực, khi sự chấp nhận ngày càng tăng, giá trị của tiền mã hoá cũng có thể tăng theo.

Các rủi ro và thách thức

Mặc dù tiền mã hoá mang lại nhiều ưu điểm, nhưng cũng đối mặt với nhiều rủi ro và thách thức đáng lưu ý. Trước hết, tính biến động cao là một trong những rủi ro lớn nhất. Giá trị của tiền mã hoá có thể biến động mạnh, tạo ra rủi ro lớn cho các nhà đầu tư. Sự biến động này có thể phụ thuộc vào nhiều yếu tố, từ thị trường chung đến các tin tức và sự kiện đặc biệt liên quan đến mỗi loại tiền mã hoá.

Bảo mật cũng là một vấn đề đáng quan ngại. Mặc dù công nghệ blockchain được coi là an toàn, nhưng các sàn giao dịch và ví tiền mã hoá vẫn có thể bị hack. Các vụ vi phạm bảo mật có thể dẫn đến mất mát tiền mã hoá đáng kể và gây ra thiệt hại cho người dùng.

Các sàn giao dịch và ví tiền mã hoá vẫn có thể bị hack.

Sự không rõ ràng trong quy định pháp lý cũng tạo ra một thách thức đối với tiền mã hoá. Sự không chắc chắn về cách các quốc gia và chính phủ sẽ quy định và xử lý tiền mã hoá có thể ảnh hưởng đến sự phát triển và chấp nhận của nó. Sự không đồng nhất trong quy định pháp lý có thể tạo ra rủi ro và làm giảm niềm tin của nhà đầu tư và người dùng.

Lời kết

Tiền mã hoá đã và đang thay đổi cách chúng ta nhìn nhận về tiền tệ và tài chính, mở ra những cơ hội mới và tiềm năng đáng kể. Mặc dù còn nhiều thách thức phía trước, nhưng với những ưu điểm vượt trội như tính minh bạch, tính bảo mật cao và khả năng chuyển tiền nhanh chóng, tiền mã hoá hứa hẹn sẽ tiếp tục phát triển và đóng vai trò quan trọng trong tương lai. Việc hiểu rõ về tiền mã hoá sẽ giúp bạn tận dụng tối đa các cơ hội mà nó mang lại, đồng thời giảm thiểu các rủi ro tiềm ẩn. 

Bằng cách nắm bắt và áp dụng kiến thức về tiền mã hoá vào thực tiễn, bạn có thể tham gia vào thị trường này một cách tự tin và hiệu quả hơn, từ việc đầu tư đến việc sử dụng tiền mã hoá trong cuộc sống hàng ngày. Trong khi đó, việc tiếp tục nghiên cứu và theo dõi sự phát triển của thị trường tiền mã hoá cũng là yếu tố quan trọng để bạn có thể đưa ra các quyết định thông minh và mang lại lợi ích tối đa từ việc tham gia vào cuộc cách mạng tài chính này.
Последние новости криптовалют
⚡️ Участвуйте в последних обсуждениях в криптомире
💬 Общайтесь с любимыми авторами
👍 Изучайте темы, которые вам интересны
Эл. почта/номер телефона

Последние новости

--
Подробнее
Структура веб-страницы
Cookie Preferences
Правила и условия платформы