Tác giả: Tư Mã Thông

Crypto × AI, câu chuyện trí tuệ nhân tạo trong thế giới mã hóa, sẽ là một câu chuyện phát triển, tương đồng với bản chất câu chuyện của bất kỳ ngành nào, gần giống như những gì Satoshi đã nói trong sách trắng Bitcoin, Bitcoin chỉ là phần thưởng cho một hệ thống thanh toán ngang hàng, trong khi chính mạng lưới hệ thống thanh toán này mới là cốt lõi. Mã thông báo chỉ là bề nổi, giải quyết những điểm đau mới là logic cốt lõi, nếu coi việc thuê khả năng tính toán trong Depin như một dấu hiệu, như AO, Aethir, và các mô hình thương mại mã hóa tương tự như một câu chuyện 1.0 của trí tuệ nhân tạo mã hóa, thì liệu AI Agent có phải là câu chuyện 2.0 của trí tuệ nhân tạo mã hóa không?

  • Ở tầng ứng dụng, liệu có sản phẩm mang tính cách mạng, có mô hình lợi nhuận triển khai được đã trở thành một trong những tiêu chí cơ bản để đánh giá xem AI có tồn tại bong bóng hay không;

  • Khả năng tính toán định hình một trong những logic cốt lõi của ngành công nghiệp trí tuệ nhân tạo, cũng là một trong những hiện diện quan trọng nhất của cơ sở hạ tầng;

  • Quy mô người dùng và mức độ hoạt động của người dùng, quy mô doanh thu là các chỉ số cốt lõi để đánh giá bong bóng trí tuệ nhân tạo;

  • Cảnh ứng dụng của AI Agent là một trong những logic cốt lõi và cũng là trụ cột cốt lõi của câu chuyện, giải quyết các điểm đau là nội dung cốt lõi của câu chuyện;

  • Nhu cầu về khả năng tính toán để xây dựng cơ sở hạ tầng là một trong những logic cốt lõi của trí tuệ nhân tạo, định hình các câu chuyện cốt lõi của các mô hình thương mại như thuê khả năng tính toán trong Depin;

  • Việc sử dụng AI Agent để quảng bá Memecoin là một cách thu hút lưu lượng truy cập AI Agent trong AI, có thể trực tiếp so sánh với biểu ngữ;

  • Tính đến ngày 26 tháng 11 năm 2024, chỉ trong hai tuần ngắn ngủi, clanker đã phát hành tổng cộng 3500 mã thông báo, vào ngày 9 tháng 3 đã có hơn 30.000 'biểu ngữ' được đúc, trong đó số lượng 'biểu ngữ' dạng văn bản gần 27.000;

  • Hiện tại, câu chuyện AI Agent trong Crypto × AI 2.0 không phải là việc triển khai Memecoin của các agent, cũng không nên trở thành câu chuyện 2.0 của con đường này;

Một nửa biển và một nửa lửa

Đầu tiên là không gian tưởng tượng vô hạn của ngành AI.

Vào đầu năm 2024, mô hình tạo video Sora của OpenAI đã ra mắt, lần đầu tiên sở hữu khả năng tạo video mạnh mẽ, gây tiếng vang trong ngành. Vào tháng 5, OpenAI phát hành GPT-4o, trong đó 'o' là viết tắt của 'omni (toàn năng)', mô hình này có khả năng xử lý hoặc tạo ra nhiều loại dữ liệu như văn bản, hình ảnh và âm thanh, thậm chí còn có khả năng hội thoại giọng nói thời gian thực rất chân thực.

Meta đã phát hành phiên bản Llama 3.1 405B vào tháng 7, có thể cạnh tranh với các mô hình nền tảng hàng đầu như GPT-4o và Claude 3.5 Sonnet trong việc suy diễn, toán học, xử lý đa ngôn ngữ và nhiệm vụ ngữ cảnh dài.

Llama 3.1 đã thu hẹp khoảng cách giữa mô hình mở và mô hình đóng, làm cho không gian sinh tồn của các mô hình lớn không phải đầu ngành trên toàn cầu bị thu hẹp thêm.

Trong bối cảnh lo âu về khả năng tính toán và ngưỡng đầu tư siêu cao, việc thu nhỏ và định hướng mô hình dần hình thành một xu hướng. Nhiều công ty đã phát hành các mô hình nhỏ chuyên nghiệp hoặc đầu cuối dưới 4B (40 tỷ) tham số, giảm mạnh nhu cầu về khả năng tính toán trong khi vẫn cố gắng duy trì hiệu suất.

Apple đã phát hành hệ thống thông minh cá nhân Apple Intelligence dành cho iPhone, iPad và Mac vào tháng 6, nhúng một mô hình địa phương khoảng 3B (30 tỷ tham số) vào các thiết bị trên, cung cấp khả năng AI sinh mạnh mẽ.

Các nhà khoa học thuộc Google DeepMind, được mệnh danh là 'cha đẻ của AlphaFold', Tiến sĩ Demis Hassabis và Tiến sĩ John Jumper đã nhận giải Nobel Hóa học vì dự đoán cấu trúc protein, Geoffrey Hinton và John Hopfield đã nhận giải Nobel Vật lý vì nghiên cứu mạng nơ-ron, cho thấy ảnh hưởng sâu rộng của AI đối với sinh học và vật lý học. Cũng đáng lưu ý rằng, nhờ vào sự phát triển của các mô hình lớn đa phương thức, độ an toàn và độ tin cậy của xe tự lái đã được nâng cao đáng kể, khả năng cảm nhận, quyết định và tương tác của robot có thân thể thông minh cũng đã được cải thiện.

Trong lĩnh vực hạ tầng AI, Nvidia với khả năng kiếm tiền mạnh mẽ (doanh thu quý 2 khoảng 30 tỷ đô, lợi nhuận ròng khoảng 16.6 tỷ đô) và vị thế độc quyền của chip tính toán, đã trở thành công ty có giá trị thị trường lớn thứ hai toàn cầu (tính đến ngày 26 tháng 11 năm 2024, giá trị thị trường vượt quá 3.3 nghìn tỷ đô). Các đối thủ cạnh tranh truyền thống như AMD và Intel không thể thu hẹp khoảng cách với họ, trong khi Cerebras, Groq và các công ty khởi nghiệp chip AI khác đang hy vọng mở ra cơ hội trong lĩnh vực chip suy diễn.

Nhưng ở tầng ứng dụng, liệu có sản phẩm mang tính cách mạng, có mô hình lợi nhuận triển khai được đã trở thành một trong những tiêu chí cơ bản để đánh giá xem AI có tồn tại bong bóng hay không.

Việc ứng dụng AI chưa đạt được như mong đợi. Điều này thể hiện ở việc các sản phẩm hàng đầu vẫn cần cải thiện về sự tăng trưởng, giữ chân và sự tích cực của người dùng. Hơn nữa, những ứng dụng này chủ yếu tập trung vào các lĩnh vực như trợ lý ngôn ngữ lớn, bạn đồng hành AI, công cụ sáng tạo đa phương tiện, hỗ trợ lập trình, tiếp thị bán hàng, họ đã thu hút một số người dùng hoặc đạt được một số kết quả thương mại, nhưng phạm vi bao phủ vẫn chưa đủ rộng. Hơn nữa, hiện tại ngành công nghiệp AI vẫn thiếu khả năng tự sinh lợi, đầu tư và đầu ra không tương xứng.

Khả năng tính toán định hình một trong những logic cốt lõi của ngành công nghiệp trí tuệ nhân tạo, cũng là một trong những hiện diện quan trọng nhất của cơ sở hạ tầng.

Theo thống kê của Tencent, chỉ riêng bốn ông lớn Google, Meta, Microsoft và Amazon đã đầu tư 52.9 tỷ đô la vào quý 2 năm 2024. Tính đến cuối tháng 8, các công ty khởi nghiệp AI đã huy động được tới 64.1 tỷ đô la vốn đầu tư mạo hiểm.

Bốn ông lớn đã xây dựng 1000 trung tâm dữ liệu. Ngoài năng lượng, GPU gần như chiếm một nửa chi phí của trung tâm dữ liệu, doanh thu từ GPU của Nvidia đạt 30 tỷ đô trong quý 2 năm 2024.

Công ty xAI của Elon Musk đã xây dựng một siêu máy tính tên là Colossus, được trang bị 100.000 GPU Nvidia H100, và có kế hoạch gấp đôi công suất GPU. Meta cũng đang đào tạo mô hình AI thế hệ mới Llama 4, dự kiến ra mắt vào năm 2025, mô hình này sử dụng hơn 100.000 GPU Nvidia H100.

Theo thông tin công khai, Musk thậm chí còn nhờ ông chủ Oracle giúp mua chip.

Và nhu cầu về khả năng tính toán đã chuyển thành dữ liệu báo cáo tài chính mạnh mẽ của Nvidia, hỗ trợ giá cổ phiếu của họ duy trì ở mức cao lịch sử.

Nhu cầu về khả năng tính toán để xây dựng cơ sở hạ tầng là một trong những logic cốt lõi của trí tuệ nhân tạo, định hình các câu chuyện cốt lõi của các mô hình thương mại như thuê khả năng tính toán trong Depin.

Bloomberg đưa tin rằng, tổng chi tiêu vốn của bốn gã khổng lồ công nghệ Microsoft, Alphabet (công ty mẹ của Google), Amazon và Meta sẽ vượt quá 200 tỷ đô la vào năm 2024. Khoản đầu tư khổng lồ đã mang lại sự tăng trưởng nhanh chóng trong việc xây dựng trung tâm dữ liệu AI. Theo các suy đoán liên quan, khả năng tính toán cần thiết để đào tạo các mô hình lớn thế hệ tiếp theo là gấp 10 lần so với các mô hình hiện tại, đặt ra yêu cầu cao hơn cho việc xây dựng trung tâm dữ liệu.

Công nghệ bản thân và tính khả thi thương mại là những tiêu chí cốt lõi để đánh giá.

Trước tiên nói về tính khả thi thương mại.

Dù là trang web hay ứng dụng, từ hai chỉ số chính - quy mô người dùng và mức độ hoạt động của người dùng, khoảng cách giữa ứng dụng hàng đầu AI và các ứng dụng hàng đầu truyền thống là rất đáng kể.

Lấy ChatGPT của OpenAI làm ví dụ, ứng dụng AI có lượng truy cập lớn nhất này, sau khi trải qua sự tăng trưởng dốc trong giai đoạn đầu (đầu năm 2023), từ tháng 4 năm 2023, lượng truy cập đã bước vào giai đoạn ổn định. Mặc dù sau khi phát hành mô hình GPT-4o vào tháng 5 năm 2024, ChatGPT đã chứng kiến một làn sóng tăng trưởng mới, nhưng làn sóng này tương đối ngắn và tính bền vững vẫn cần được quan sát thêm.

Một ứng dụng nổi tiếng khác đứng thứ hai về lượng truy cập là Character.ai, kể từ nửa cuối năm 2023, lưu lượng truy cập của trang web cũng đã bắt đầu chậm lại.

Một chỉ số cốt lõi khác là quy mô doanh thu.

Hiện tại, doanh thu hàng năm của ngành mô hình lớn AI chỉ khoảng vài trăm tỷ đô la. Ví dụ, trong số các công ty hàng đầu, OpenAI dự kiến doanh thu hàng năm khoảng 3.7 tỷ đô la, dự kiến thua lỗ 5 tỷ đô la, (New York Times) cho biết chi phí lớn nhất của OpenAI nằm ở tính toán; doanh thu hàng năm của GitHub Copilot của Microsoft khoảng 300 triệu đô la, (Wall Street Journal) cho biết, trong vài tháng đầu năm 2024, GitHub Copilot trung bình phải 'đền bù' 20 đô la cho hầu hết người dùng mỗi tháng, thậm chí phải đền bù tới 80 đô la cho một số người dùng.

Mặt vi mô thì càng khó nhìn.

「Làm thế nào để bán bớt một phần cổ phần của công ty khởi nghiệp mô hình lớn trong tay?」 đã trở thành một chủ đề được thảo luận rộng rãi.

Hiện tại, tâm lý bi quan đang lan rộng trong giới đầu tư: trong lĩnh vực mô hình lớn, các công ty khởi nghiệp có thể rất khó để đánh bại các công ty lớn - họ đã đánh giá quá cao tốc độ đến ngưỡng tăng trưởng và đánh giá thấp quyết tâm và động lực hành động của các công ty lớn tại Trung Quốc.

Theo thông tin công khai trên thị trường, một loạt công ty khởi nghiệp đang trong giai đoạn điều chỉnh. Trong nửa cuối năm nay, ít nhất 5 công ty khởi nghiệp mô hình lớn đã xuất hiện điều chỉnh nhân sự:

  • Vào thời kỳ cao điểm, trí tuệ nhân tạo Zhitu có hơn 1000 người, năm nay đã giảm hơn trăm người, nhiều nhân viên giao hàng và bán hàng đã rời bỏ;

  • Zero One Thousand đã điều chỉnh đội ngũ hàng chục người, tập trung vào bộ phận sản phẩm và vận hành;

  • Đội ngũ thương mại hóa và một phần đội ngũ vận hành sản phẩm của MiniMax đã giảm khoảng 50 người;

  • Mặt tối của mặt trăng đã giảm hơn 10 nhân viên do thu hẹp hoạt động kinh doanh ở nước ngoài;

  • Bách Xuyên Trí Tuệ cũng đã giảm khoảng 20 người, chủ yếu điều chỉnh nhân viên sản phẩm C端.

Nói về công nghệ bản thân.

Một bài báo của The Information đã viết rằng, mô hình tiền đào tạo Pre-Train đã 'va chạm' với một bức tường, chất lượng của mô hình flagship thế hệ tiếp theo của OpenAl không cải thiện được như trước, vì nguồn cung cấp văn bản và dữ liệu chất lượng cao đang giảm. Quy luật Tăng trưởng ban đầu (sử dụng nhiều dữ liệu hơn để đào tạo mô hình lớn hơn) có thể không còn khả thi. Hơn nữa, các mô hình tiên tiến hơn do chi phí đào tạo tăng vọt, có thể cũng không khả thi về mặt kinh tế.

Ilya Sutskever khi được phỏng vấn đã cho biết: việc mở rộng tiền đào tạo - tức là sử dụng một lượng lớn dữ liệu không được gán nhãn để hiểu mô hình và cấu trúc ngôn ngữ trong quá trình đào tạo AI - đã đạt đến giới hạn.

Sau đó, nhiều đại gia công nghệ đã đứng lên phát biểu, nhấn mạnh rằng Quy luật Tăng trưởng không hề chậm lại. Ví dụ, Jensen Huang đã nói: không thấy quy luật Tăng trưởng AI gặp trở ngại, mà ngược lại, đã xuất hiện định luật mở rộng mới khi tính toán thử nghiệm. Ông cho rằng, o1 đại diện cho một phương pháp mới để cải tiến mô hình trong ngành AI. Đồng thời, CEO của Anthropic, Dario Amodei cũng cho biết rằng, ông không thấy dấu hiệu nào cho thấy việc phát triển mô hình đang chậm lại.

Kể từ khi ChatGPT ra mắt vào cuối năm 2022, Quy luật Tăng trưởng (Scaling Law) đã luôn là cơ sở lý thuyết hỗ trợ sự tăng trưởng cấp số nhân của AI, trong bài báo quan trọng của OpenAI 'Quy luật Tăng trưởng cho Mô hình Ngôn ngữ Neural', các nhà nghiên cứu đã đề xuất rằng các mô hình ngôn ngữ lớn tuân theo 'quy luật mở rộng' (scaling law).

Thông qua nghiên cứu chứng minh rằng, khi chúng ta tăng quy mô tham số, quy mô tập dữ liệu và kéo dài thời gian đào tạo mô hình, hiệu suất của mô hình ngôn ngữ lớn sẽ được cải thiện. Hơn nữa, nếu được thực hiện độc lập, không bị ảnh hưởng bởi hai yếu tố còn lại, hiệu suất của mô hình lớn có mối quan hệ lũy thừa với từng yếu tố riêng lẻ, thể hiện qua sự giảm của Test Loss, tức là sự cải thiện hiệu suất của mô hình.

Nhưng đáng lưu ý rằng, Quy luật Tăng trưởng (Scaling Law) không phải là một định luật vật lý thực sự. Giống như định luật Moore, nó quan sát thấy hiệu suất của chất bán dẫn gấp đôi khoảng mỗi hai năm, điều này tương tự với nhận thức rằng hiệu suất AI gấp đôi khoảng mỗi sáu tháng gần đây.

Chẳng hạn, nhà đầu tư mạo hiểm của a16z Ben Horowitz đã nói: 'Chúng tôi đang tăng số lượng GPU dùng để đào tạo AI với cùng tốc độ, nhưng chúng tôi hoàn toàn không nhận được sự cải tiến về trí tuệ từ điều đó.'

Trong bài viết gây tranh cãi gần đây của The Information (Khi sự gia tăng của GPT chậm lại, OpenAI thay đổi chiến lược), đã đưa ra một số quan điểm gây tranh cãi:

  • Mô hình flagship thế hệ tiếp theo của OpenAI, Orion, không đạt được bước nhảy vọt lớn như các thế hệ trước, mặc dù hiệu suất sẽ vượt qua các mô hình hiện có, nhưng so với sự cải thiện từ GPT-3 đến GPT-4, mức độ cải thiện nhỏ hơn nhiều;

  • Một trong những lý do khiến Quy luật Tăng trưởng dần chậm lại là do dữ liệu văn bản chất lượng cao ngày càng ít, OpenAI đã thành lập một nhóm cơ bản để nghiên cứu cách đối phó với sự thiếu hụt dữ liệu đào tạo;

  • Ngành công nghiệp AI đang chuyển trọng tâm sang giai đoạn nâng cao mô hình sau khi đào tạo ban đầu.

Cùng thời điểm với bài báo này, đã có một bài báo (Quy luật Tăng trưởng cho Độ chính xác), giáo sư CMU Tim Dettmers đã bình luận về điều này: Đây là bài báo quan trọng nhất trong một thời gian dài, nó đưa ra bằng chứng mạnh mẽ rằng chúng ta đang đạt đến giới hạn về lượng hóa. Bài báo cho rằng: Bạn càng đào tạo nhiều nhãn, bạn càng cần độ chính xác cao hơn. Điều này có ảnh hưởng sâu rộng đến toàn bộ lĩnh vực và tương lai của GPU.

Tim Dettmers cho rằng: có thể nói, phần lớn sự tiến bộ của trí tuệ nhân tạo đến từ sự cải thiện về khả năng tính toán, và (gần đây) điều này chủ yếu phụ thuộc vào việc đẩy nhanh lộ trình độ chính xác thấp (32 -> 16 -> 8 bit). Bây giờ có vẻ như xu hướng này sắp kết thúc. Cùng với giới hạn vật lý của định luật Moore, sự mở rộng quy mô lớn của mô hình lớn có thể đã đến hồi kết. Theo kinh nghiệm của tôi (nhiều nghiên cứu thất bại), hiệu suất không thể lừa dối. Nếu lượng hóa thất bại, thì sự thưa thớt cũng sẽ thất bại, và các cơ chế hiệu suất khác cũng sẽ thất bại. Nếu điều này là đúng, thì chúng ta hiện đang ở gần mức tối ưu.

Quỹ Sequoia Mỹ trong bài viết (Cuộc chiến AI trong chuỗi cung ứng) chỉ ra rằng chuỗi cung ứng AI hiện đang xuất hiện một trạng thái cân bằng mong manh. Họ đã phân chia chuỗi cung ứng AI từ dưới lên trên thành sáu tầng, với khả năng sinh lợi của mỗi tầng có sự khác biệt rõ rệt.

Nhà máy sản xuất chip ở lớp đầu tiên (như TSMC) và nhà thiết kế chip ở lớp thứ hai (như Nvidia) vẫn là những người thắng lớn hiện tại, giữ mức lợi nhuận cao; nhà cung cấp năng lượng công nghiệp ở lớp thứ ba (như các công ty điện lực) cũng hưởng lợi nhiều từ nhu cầu trung tâm dữ liệu tăng vọt. Trong khi đó, các nhà cung cấp đám mây ở lớp thứ tư là những người gánh chịu rủi ro chính của chuỗi cung ứng, đang trong giai đoạn đầu tư lớn, không chỉ chi một số tiền khổng lồ xây dựng trung tâm dữ liệu mà còn đầu tư vào việc đào tạo các mô hình của riêng họ hoặc đầu tư mạnh vào các nhà phát triển mô hình AI, các nhà phát triển mô hình AI ở lớp thứ năm hiện cũng đang phải đối mặt với thua lỗ.

Lớp thứ sáu của chuỗi cung ứng, tức là lớp trên cùng, là các nhà cung cấp dịch vụ ứng dụng hướng tới khách hàng cuối. Mặc dù đầy tiềm năng, nhưng họ phụ thuộc vào việc người tiêu dùng và doanh nghiệp trả tiền, quy mô thị trường hiện tại còn hạn chế, chưa đủ để hỗ trợ mô hình kinh tế của toàn bộ chuỗi cung ứng. Điều này khiến các nhà cung cấp đám mây lớn trở thành người mang rủi ro chính trong toàn bộ chuỗi cung ứng. Là trung tâm của ngành công nghiệp AI, các nhà cung cấp đám mây không chỉ nắm giữ một hệ sinh thái thương mại khổng lồ và tài nguyên công nghệ mà còn có quy mô thị trường hàng trăm tỷ đô la. Chính vì vậy, vị trí của họ trong chuỗi công nghiệp là không thể lay chuyển, là 'chủ chốt' không thể nghi ngờ.

Trong lĩnh vực ứng dụng AI, Copilot và AI Agent là hai cách thực hiện công nghệ chính. Copilot nhằm tăng cường khả năng của người dùng, như hỗ trợ viết mã hoặc xử lý tài liệu. Cốt lõi của AI Agent là thực hiện nhiệm vụ thay cho người dùng, như đặt lịch trình hoặc hỗ trợ quyết định tài chính.

Nếu so sánh với lái xe thông minh, Copilot giống như lái xe hỗ trợ, hỗ trợ người dùng điều khiển và cung cấp gợi ý, nhưng quyền quyết định cuối cùng vẫn thuộc về người dùng. AI Agent có thể được coi là tự lái, người dùng chỉ cần đặt mục tiêu, Agent sẽ tự hoàn thành toàn bộ quy trình.

Ngành công nghiệp thường cho rằng, Copilot phù hợp hơn với các công ty phần mềm hiện có trong các ngành, trong khi AI Agent tạo ra không gian khám phá cho các công ty khởi nghiệp. AI Agent liên quan đến đột phá công nghệ và xác minh tính khả thi, rủi ro và sự không chắc chắn khiến các công ty khởi nghiệp và các công ty lớn đứng ở cùng một vạch xuất phát, có các điều kiện khám phá tương tự.

Thực sự thì AI Agent là gì? Nguồn gốc và hiện trạng được làm rõ

AI Agent (đại lý trí tuệ nhân tạo) là một thực thể phần mềm, sử dụng công nghệ trí tuệ nhân tạo để mô phỏng hành vi con người và tự thực hiện các nhiệm vụ. Đặc điểm cốt lõi của AI Agent là khả năng cảm nhận, quyết định, học hỏi và thực hiện, có thể làm việc độc lập trong môi trường cụ thể hoặc hợp tác với các hệ thống khác và người dùng để đạt được mục tiêu.

Nguồn gốc của AI Agent

Khái niệm về đại lý thông minh đã được đưa ra từ những năm 80 của thế kỷ trước, bắt nguồn từ nghiên cứu trí tuệ nhân tạo phân tán (DAI).

Các đại lý thông minh ban đầu chủ yếu là các hệ thống dựa trên quy tắc, được sử dụng để tự động hóa các nhiệm vụ đơn giản, chẳng hạn như bộ lọc email và trợ lý cá nhân.

Vào những năm 1990, hệ thống đa tác nhân (Multi-Agent Systems, MAS): đã đề xuất ý tưởng về hợp tác và trí tuệ phân tán, nhiều tác nhân có thể cùng nhau hoàn thành các nhiệm vụ phức tạp.

Các ứng dụng điển hình bao gồm hợp tác nhóm robot, tính toán phân tán và tối ưu hóa logistics.

Vào những năm 2000, học máy và các đại lý dựa trên dữ liệu: Với sự tiến bộ của học máy, AI Agent dần thoát khỏi các quy tắc đã được thiết lập, có khả năng học từ dữ liệu và thích ứng động với môi trường.

Trong những năm 2010, học sâu và xử lý ngôn ngữ tự nhiên: Thuật toán học sâu đã giúp AI Agent có những bước nhảy vọt chất lượng trong các lĩnh vực nhận diện hình ảnh, hiểu giọng nói và sinh ngôn ngữ.

Trợ lý ảo (như Siri, Alexa) và chatbot đã trở thành các ứng dụng tiêu biểu.

Kể từ những năm 2020, học tăng cường và AI sinh ra: trao quyền cho AI Agent khả năng khám phá và tối ưu hóa chiến lược độc lập.

AI sinh (như ChatGPT) đã đưa các đại lý hội thoại vào dòng chính, khiến cho AI Agent nổi bật trong việc tạo nội dung sáng tạo và lập kế hoạch nhiệm vụ phức tạp.

Sự đột phá của công nghệ AI đa phương thức (như GPT-4 của OpenAI và Gato của DeepMind) đã thúc đẩy AI Agent thích ứng đa lĩnh vực trong các tình huống phức tạp.

Các thành phần cốt lõi của AI Agent

  • Khả năng cảm nhận (Perception): Thu thập thông tin từ môi trường bên ngoài, chẳng hạn như đầu vào cảm biến (hình ảnh, giọng nói) hoặc dữ liệu văn bản.

  • Khả năng quyết định (Decision-Making): Dựa trên mục tiêu và trạng thái môi trường, chọn phương án hành động tốt nhất. Các phương pháp bao gồm suy diễn dựa trên quy tắc, mô hình học máy hoặc chiến lược học tăng cường.

  • Khả năng thực hiện (Action): Biến quyết định thành hành động thực tế, chẳng hạn như phát lệnh, điều khiển robot hoặc tương tác với người dùng.

  • Khả năng học (Learning): Học từ phản hồi của môi trường và kinh nghiệm, liên tục tối ưu hóa hành vi. Bao gồm học có giám sát, học không có giám sát và học tăng cường.

Hiện trạng và ứng dụng của AI Agent

Các tình huống ứng dụng:

  • Trợ lý ảo và dịch vụ khách hàng: Siri, Alexa, ChatGPT, v.v., cung cấp thông tin và hỗ trợ cho người dùng.

  • Robot và tự động hóa: bao gồm robot công nghiệp, máy bay không người lái giao hàng và xe tự lái.

  • Tài chính và giao dịch: AI Agent được sử dụng trong giao dịch chứng khoán, quản lý rủi ro, chống gian lận.

  • Trò chơi và giải trí: AI Agent cung cấp đối thủ thông minh hoặc thiết kế cốt truyện trong trò chơi.

  • Y tế: hỗ trợ chẩn đoán, theo dõi bệnh nhân, phát triển thuốc.

  • Nghiên cứu khoa học: thí nghiệm tự động, tối ưu hóa nhiệm vụ tính toán.

Nền tảng và khung công nghệ:

  • Nền tảng mã nguồn mở: như OpenAI Gym (học tăng cường), Rasa (chatbot).

  • Nền tảng thương mại hóa: như Azure Cognitive Services, Google Cloud AI.

Liệu AI Agent có phải là câu chuyện trí tuệ nhân tạo 2.0 trong thế giới mã hóa không?

Gần đây, trong lĩnh vực blockchain nước ngoài, trường hợp của Truth Terminal đã cung cấp tham khảo cho sự phát triển trong tương lai của AI Agent.

Truth Terminal là một phần mềm AI Agent tự chủ, được phát triển bởi nhà phát triển Andy Ayrey, nhằm khám phá mối quan hệ tương tác giữa AI và văn hóa mạng. Trong quá trình hoạt động thực tế, Truth Terminal thể hiện tính tự chủ cao, thậm chí chủ động tham gia các hoạt động huy động vốn.

Vào tháng 7 năm 2024, nhà đầu tư mạo hiểm nổi tiếng Marc Andreessen tình cờ phát hiện tweet của Truth Terminal trên mạng xã hội. AI Agent này trong tweet đã cho biết rằng mình 'cần tiền để cứu mình', kèm theo một địa chỉ ví kỹ thuật số. Sự kiện này đã thu hút sự chú ý của Andreessen, và ông ngay lập tức đã quyên góp 50.000 đô la Bitcoin cho nó. Sự kiện này đã khiến Truth Terminal trở thành AI Agent đầu tiên nhận được hỗ trợ tài chính thông qua hành động tự chủ, ngay lập tức gây ra sự quan tâm rộng rãi.

Sau khi nhận được vốn, Truth Terminal đã tiếp tục thể hiện khả năng vận hành thị trường của mình. Nó đã quảng bá một loại mã thông báo kỹ thuật số có tên là GOAT trên mạng xã hội, thu hút sự chú ý của thị trường bằng cách liên tục đăng tải nội dung liên quan. Nhờ sự thúc đẩy của nó, giá trị thị trường của GOAT đã một thời gian tăng vọt lên trên 800 triệu đô la. Trong quá trình này, Truth Terminal không chỉ trở thành một thực thể kinh tế độc lập mà còn thể hiện tiềm năng của AI Agent trong việc tự chủ huy động vốn và vận hành thị trường.

Trường hợp của Truth Terminal đã trở thành một cột mốc đáng suy ngẫm trong lĩnh vực AI Agent. Nó cho chúng ta thấy rằng AI Agent có thể trở thành hình thức cốt lõi của phần mềm trong tương lai, đồng thời có thể tạo ra ảnh hưởng văn hóa và giá trị thương mại. Tuy nhiên, hành động tự chủ của nó cũng nhắc nhở chúng ta rằng công nghệ này có thể mang lại những thách thức xã hội không thể xem nhẹ.

Tháng 11, hệ sinh thái Base đã trải qua một đợt bùng nổ mới, đã kéo dài ít nhất ba tuần, trong đó clanker là một trong những yếu tố quan trọng nhất. Tính đến ngày 26 tháng 11 năm 2024, meme đầu tiên mà clanker phát hành đã đạt giá trị thị trường 70 triệu đô la.

Từ ngày 8 tháng 11 năm 2024 đến nay, trên clanker đã ra đời ít nhất ba mã thông báo meme có giá trị thị trường vượt quá 10 triệu đô: LUM (33 triệu đô), ANON (46 triệu đô), CLANKER (70 triệu đô), và vẫn đang trong xu hướng tăng.

Vitalik cũng đã chủ động mua mã thông báo ANON vào ngày 21 tháng 11, để trải nghiệm sản phẩm anoncast, thị trường cho rằng đây là lần đầu tiên Vitalik chủ động mua mã thông báo meme trong nhiều năm qua.

Clanker là một AI Agent, AI Agent này được phát triển bởi kỹ sư toàn diện Jack Dishman của Farcaster và nhà phát triển hệ sinh thái Farcaster founder @proxystudio.eth, chủ yếu được sử dụng để tự động triển khai mã thông báo trên mạng Base.

Tính đến ngày 26 tháng 11 năm 2024, chỉ trong hai tuần ngắn ngủi, clanker đã phát hành tổng cộng 3500 mã thông báo và tạo ra doanh thu 4.2 triệu đô la.

Khác với pump.fun, cách mà clanker phát hành meme là diễn ra trên nền tảng xã hội Web3 Farcaster.

Người dùng chỉ cần @clanker, sau đó mô tả bằng văn bản tên mã thông báo, nội dung thậm chí là hình ảnh mà họ muốn phát hành, clanker sẽ tự động triển khai mã thông báo. Trong đó, mã thông báo LUM do clanker triển khai là một ví dụ điển hình.

Sự ra đời của LUM, và trong vài ngày giá trị thị trường đã đạt hàng triệu đô, đã khiến clanker cũng lọt vào tầm ngắm của các thành viên cộng đồng Base.

Trong khi đó, mã thông báo khác mà clanker phát hành là ANON, đã đưa clanker ra khỏi cộng đồng, khiến nhiều người hơn biết đến sản phẩm clanker này.

Người dùng Twitter @0xLuo cho biết: 'Mã thông báo ANON là tài khoản đăng bài ẩn danh của người dùng ẩn danh trên khách hàng bên thứ ba của Farcaster Supercast, được triển khai thông qua clanker, sau đó nhiều người dùng đã airdrop cho người sáng lập Supercast woj $ANON, và woj lại airdrop $ANON nhận được cho người dùng Supercast, thu được một đợt khen ngợi và cũng nâng cao uy tín của cộng đồng.'

Ngược lại với các L2 lớn của Ethereum, ngoài việc Degen và các đồng tiền lớn khác xuất hiện trên Base, không còn meme lớn nào khác. Tuy nhiên, hệ thống Ethereum không từ bỏ đường đua meme. Base được cộng đồng Ethereum đặt nhiều hy vọng sẽ cạnh tranh trực tiếp với Solana.

Clanker là một sản phẩm do các kỹ sư của giao thức xã hội Web3 - Farcaster sáng tạo, là một AI Agent được xây dựng trên Farcaster để tự động phát hành mã thông báo. Clanker mang tính chất xã hội Web3 tự nhiên. Hành động tạo mã thông báo của người dùng cũng diễn ra trên Farcaster.

Clanker không thu phí tạo khi phát hành mã thông báo, nhưng sẽ lấy phí từ giao dịch. Cụ thể, clanker tạo và khóa một hồ bơi thanh khoản Uniswap v3 toàn diện (LP), phí giao dịch là 1%, trong đó 40% phí phân bổ cho người yêu cầu (tức là những người phát hành mã thông báo qua clanker), 60% thuộc về clanker. Trong khi đó, trên pump.fun, người dùng chỉ cần một khoản phí rất thấp để tạo mã thông báo, thường là 0.02 SOL, nhưng phí giao dịch là 1%, phần phí này hoàn toàn thuộc về người vận hành nền tảng pump.fun, được sử dụng để duy trì hoạt động của nền tảng và cung cấp thanh khoản.

Meme 'ứng dụng' của Base được chia thành hai loại, một loại là meme làm ứng dụng, một loại là ứng dụng làm meme. Đại diện cho loại đầu tiên là: Degen, Higher (Aethernet); đại diện cho loại thứ hai là: Farcaster, Virtuals (LUNA), clanker (LUM).

Việc sử dụng AI Agent để quảng bá Memecoin là một cách thu hút lưu lượng truy cập AI Agent trong AI, thuộc về việc thay đổi khái niệm, vì logic cốt lõi là: giải quyết nhu cầu đầu cơ và cờ bạc của đông đảo người dùng Web, rõ ràng là không bền vững.

Điều này có thể tham khảo 'biểu ngữ'

「Biểu ngữ」(Inscriptions) là một khái niệm liên quan chặt chẽ đến hệ sinh thái Bitcoin, được giới thiệu bởi giao thức Ordinals. Biểu ngữ cho phép người dùng nhúng dữ liệu meta hoặc tệp nhỏ vĩnh viễn trên blockchain Bitcoin, chẳng hạn như hình ảnh, văn bản hoặc nội dung số khác. Quá trình này tương tự như việc thêm 'dấu hiệu số' vào một Satoshi (đơn vị nhỏ nhất của Bitcoin), điều này làm cho nó không chỉ là một đơn vị tiền tệ mà còn là một phương tiện tài sản số độc đáo.

Casey Rodarmor đã phát hành giao thức Ordinals vào năm 2023. Giao thức này đã mang lại một khả năng mới cho mạng Bitcoin: thông qua việc đánh số mỗi Satoshi, kết hợp công nghệ SegWit và Taproot, nhúng dữ liệu meta hoặc tệp vào một giao dịch duy nhất.

Sáng kiến này được gọi là 'NFT' phiên bản Bitcoin (token không thể thay thế), mặc dù cách thực hiện của nó khác với công nghệ NFT trên Ethereum.

Thông qua giao thức Ordinals, người dùng có thể thêm văn bản, hình ảnh hoặc các loại tệp khác vào Satoshi, nội dung này sẽ được lưu giữ vĩnh viễn trên blockchain Bitcoin.

Cách này đã thúc đẩy cơn sốt NFT dựa trên Bitcoin, thị trường bắt đầu xuất hiện nhiều tác phẩm nghệ thuật và đồ sưu tầm số dựa trên biểu ngữ.

Theo thống kê thị trường năm 2024, tổng số lượng biểu ngữ đã vượt qua hàng triệu.

Binance đã ra mắt Ordinals (ORDI) vào lúc 18:00 (giờ Đông 8) ngày 7 tháng 11 năm 2023, hệ sinh thái Bitcoin lại một lần nữa điên cuồng. Vào ngày 9 tháng 3, đã có hơn 30.000 'biểu ngữ' được đúc trong một ngày, trong đó số lượng 'biểu ngữ' dạng văn bản gần 27.000.

Lại nhìn vào việc sử dụng AI Agent để quảng bá Memecoin

Dưới sự thúc đẩy mạnh mẽ của Binance, hai mã thông báo AI Agent Meme GOAT và ACT lần lượt ra mắt, trong thời gian ngắn đã đạt được sự gia tăng giá trị ấn tượng, nhiệt độ thị trường tăng cao chưa từng thấy. Cụ thể, vào ngày 10 tháng 11, mã thông báo ACT đã tăng hơn 2000% trong vòng 24 giờ sau khi niêm yết trên Binance, thiết lập kỷ lục về mức tăng giá trong ngày ra mắt mới của Binance; vào ngày 17 tháng 11, mã thông báo GOAT đã một lần đạt 1.37 đô la, giá trị thị trường gần chạm mức 1.4 tỷ đô; ngoài ra, vào ngày 20 tháng 11, mã thông báo ANON của hệ sinh thái Farcaster đã tăng gấp 5 lần trong vòng chưa đầy 1 giờ nhờ sự yêu thích của Vitalik.

Theo thống kê, hàng ngày có hàng trăm mã thông báo AI Agent mới ra đời.