Bởi Ed Roman, Đối tác quản lý tại Hack VC

Biên soạn: 1912212.eth, Tin tức tầm nhìn xa

AI+ Crypto là một trong những lĩnh vực tiên phong đã thu hút nhiều sự chú ý trên thị trường tiền điện tử gần đây, chẳng hạn như đào tạo AI phi tập trung, GPU DePIN và mô hình AI chống kiểm duyệt.

Đằng sau những tiến bộ chói sáng này, chúng ta không khỏi đặt câu hỏi: Đây có phải là bước đột phá công nghệ thực sự hay chỉ là một chủ đề nóng? Bài viết này sẽ xóa tan sương mù cho bạn, phân tích tầm nhìn mã hóa x AI và thảo luận về những thách thức và cơ hội thực sự, đồng thời tiết lộ những thách thức và cơ hội nào là những lời hứa suông và những gì thực sự khả thi?

Tầm nhìn #1: Đào tạo AI phi tập trung

Vấn đề với việc đào tạo AI trên chuỗi là nó yêu cầu giao tiếp và phối hợp tốc độ cao giữa các GPU vì mạng lưới thần kinh yêu cầu lan truyền ngược khi đào tạo. Nvidia có hai cải tiến cho việc này (NVLink và InfiniBand). Những công nghệ này giúp giao tiếp GPU siêu nhanh, nhưng chúng là những công nghệ chỉ hoạt động cục bộ và chỉ hoạt động trên các cụm GPU (tốc độ 50 gigabit trở lên) nằm trong một trung tâm dữ liệu duy nhất.

Nếu một mạng phi tập trung được giới thiệu, tốc độ sẽ đột ngột chậm lại vài bậc do độ trễ và băng thông mạng tăng lên. So với thông lượng bạn có thể nhận được từ kết nối tốc độ cao của Nvidia trong trung tâm dữ liệu, tốc độ này đơn giản là không thể thực hiện được đối với các trường hợp sử dụng đào tạo AI.

Lưu ý rằng cũng có những đổi mới dưới đây có thể mang lại hy vọng cho tương lai:

  • Hoạt động đào tạo phân tán trên InfiniBand đang diễn ra trên quy mô lớn vì chính NVIDIA đang hỗ trợ đào tạo không phải là người bản xứ được phân phối trên InfiniBand thông qua Thư viện Truyền thông Tập thể NVIDIA. Tuy nhiên, nó vẫn đang ở giai đoạn sơ khai nên các số liệu về việc áp dụng vẫn chưa được xác định. Nút thắt định luật vật lý ở khoảng cách vẫn tồn tại nên việc đào tạo địa phương trên InfiniBand vẫn nhanh hơn rất nhiều.

  • Một số nghiên cứu mới đã được công bố về đào tạo phi tập trung đòi hỏi ít thời gian đồng bộ hóa giao tiếp hơn, điều này có thể khiến việc đào tạo phi tập trung trở nên thiết thực hơn trong tương lai.

  • Phân chia thông minh và lập kế hoạch đào tạo mô hình giúp cải thiện hiệu suất. Tương tự như vậy, các kiến ​​trúc mô hình mới có thể được thiết kế đặc biệt cho cơ sở hạ tầng phân tán trong tương lai (Gensyn đang tiến hành nghiên cứu trong các lĩnh vực này).

Phần dữ liệu của đào tạo cũng là một thách thức. Bất kỳ quá trình đào tạo AI nào cũng liên quan đến việc xử lý lượng lớn dữ liệu. Thông thường, các mô hình được đào tạo trên hệ thống lưu trữ dữ liệu an toàn tập trung với khả năng mở rộng và hiệu suất cao. Điều này đòi hỏi phải truyền và xử lý hàng terabyte dữ liệu và đây không phải là chu kỳ một lần. Dữ liệu thường nhiễu và chứa nhiều lỗi nên phải được làm sạch và chuyển đổi thành định dạng có thể sử dụng được trước khi huấn luyện mô hình. Giai đoạn này bao gồm các nhiệm vụ lặp đi lặp lại như chuẩn hóa, lọc và xử lý các giá trị còn thiếu. Tất cả đều phải đối mặt với những thách thức nghiêm trọng trong một môi trường phi tập trung.

Phần dữ liệu huấn luyện cũng có tính lặp lại, không tương thích với Web3. OpenAI đã trải qua hàng nghìn lần lặp lại để đạt được kết quả. Các kịch bản nhiệm vụ cơ bản nhất của nhà khoa học dữ liệu trong nhóm AI bao gồm xác định mục tiêu, chuẩn bị dữ liệu, phân tích và quản lý dữ liệu để rút ra những hiểu biết quan trọng và làm cho nó phù hợp để lập mô hình. Sau đó, phát triển mô hình học máy để giải quyết vấn đề đã xác định và xác thực hiệu suất của nó bằng cách sử dụng tập dữ liệu thử nghiệm. Quá trình này được lặp đi lặp lại: nếu mô hình hiện tại không hoạt động như mong đợi, các chuyên gia sẽ quay lại giai đoạn thu thập dữ liệu hoặc đào tạo mô hình để cải thiện kết quả. Hãy tưởng tượng rằng nếu quá trình này được thực hiện trong một môi trường phi tập trung, thì các khuôn khổ và công cụ tiên tiến nhất hiện có sẽ không dễ dàng được điều chỉnh trong Web3.

Một vấn đề khác với việc đào tạo các mô hình AI trên chuỗi là thị trường này kém thú vị hơn nhiều so với suy luận. Hiện nay, việc đào tạo các mô hình ngôn ngữ AI quy mô lớn đòi hỏi một lượng lớn tài nguyên tính toán GPU. Về lâu dài, suy luận sẽ trở thành trường hợp sử dụng chính của GPU. Hãy tưởng tượng xem có bao nhiêu mô hình ngôn ngữ AI lớn cần được đào tạo để đáp ứng nhu cầu toàn cầu. Con số nào nhiều hơn so với số lượng khách hàng sử dụng các mô hình này?

Giả định số 2: Sử dụng các phép tính suy luận AI quá dư thừa để đạt được sự đồng thuận

Một thách thức khác liên quan đến mật mã và AI là xác minh tính chính xác của suy luận AI, bởi vì bạn không thể tin tưởng hoàn toàn vào một bên tập trung duy nhất để thực hiện các hoạt động suy luận và có nguy cơ tiềm ẩn là các nút có thể hoạt động không phù hợp. Thử thách này không tồn tại trong Web2 AI vì không có hệ thống đồng thuận phi tập trung.

Giải pháp là tính toán dự phòng, cho phép nhiều nút lặp lại các hoạt động suy luận AI giống nhau, có thể chạy trong môi trường không tin cậy và tránh các điểm lỗi duy nhất.

Tuy nhiên, vấn đề với cách tiếp cận này là đang thiếu hụt trầm trọng chip AI cao cấp. Thời gian chờ đợi kéo dài hàng năm đối với chip NVIDIA cao cấp khiến giá tăng cao Nếu bạn yêu cầu thực hiện lại suy luận AI nhiều lần trên nhiều nút, thì việc này sẽ trở nên đắt hơn theo cấp số nhân, khiến nhiều dự án không thể thực hiện được.

Giả định số 3: Các trường hợp sử dụng AI dành riêng cho Web3 trong thời gian ngắn

Có ý kiến ​​​​cho rằng Web3 nên có các trường hợp sử dụng AI riêng dành riêng cho khách hàng Web3. Đây có thể là (ví dụ) giao thức Web3 sử dụng AI để đánh giá rủi ro nhóm DeFi, ví Web3 đề xuất giao thức mới cho người dùng dựa trên lịch sử ví hoặc trò chơi Web3 sử dụng AI để điều khiển các nhân vật không phải người chơi (NPC).

Hiện tại, đây là một thị trường non trẻ (trong ngắn hạn) nơi các trường hợp sử dụng vẫn đang được khám phá. Một số thách thức bao gồm:

  • Vì nhu cầu thị trường vẫn còn ở giai đoạn sơ khai nên cần có ít giao dịch AI tiềm năng hơn cho các trường hợp sử dụng gốc Web3.

  • Có ít khách hàng hơn, số lượng đơn đặt hàng của khách hàng Web3 ít hơn so với khách hàng Web2, do đó thị trường ít được phân cấp hơn.

  • Bản thân khách hàng kém ổn định hơn vì họ là những công ty khởi nghiệp với ít vốn hơn và một số công ty khởi nghiệp có thể lụi tàn theo thời gian. Và các nhà cung cấp dịch vụ Web3 AI phục vụ khách hàng Web3 có thể cần lấy lại một số cơ sở khách hàng của họ để thay thế những khách hàng đã biến mất, khiến việc mở rộng quy mô kinh doanh của họ trở nên vô cùng khó khăn.

Về lâu dài, chúng tôi rất lạc quan về các trường hợp sử dụng AI gốc Web3, đặc biệt khi các tác nhân AI ngày càng phổ biến. Chúng tôi tưởng tượng rằng trong tương lai, bất kỳ người dùng Web3 nào cũng sẽ có một số lượng lớn tác nhân AI để giúp họ hoàn thành nhiệm vụ của mình.

Tầm nhìn #4: GPU DePIN dành cho người tiêu dùng

Có nhiều mạng điện toán AI phi tập trung dựa vào GPU của người tiêu dùng thay vì trung tâm dữ liệu. GPU tiêu dùng lý tưởng cho các tác vụ suy luận AI cấp thấp hoặc các trường hợp sử dụng của người tiêu dùng trong đó độ trễ, thông lượng và độ tin cậy linh hoạt. Nhưng đối với các trường hợp sử dụng nghiêm túc của doanh nghiệp (phần lớn thị trường quan trọng), khách hàng cần mạng có độ tin cậy cao hơn so với máy gia đình và thường là GPU cao cấp hơn nếu họ có các tác vụ suy luận phức tạp hơn. Trung tâm dữ liệu phù hợp hơn cho những trường hợp sử dụng có giá trị hơn của khách hàng.

Lưu ý rằng chúng tôi coi GPU cấp độ người tiêu dùng phù hợp cho các bản demo cũng như các cá nhân và người khởi nghiệp có thể chấp nhận độ tin cậy thấp hơn. Nhưng những khách hàng này ít có giá trị hơn, vì vậy chúng tôi tin rằng DePIN, được tùy chỉnh riêng cho các doanh nghiệp Web2, sẽ có giá trị hơn về lâu dài. Do đó, dự án GPU DePIN đã phát triển từ việc chủ yếu sử dụng phần cứng cấp độ người tiêu dùng trong những ngày đầu thành việc có sẵn A100/H100 và cấp độ cụm.

Thực tế – Các trường hợp sử dụng thực tế của tiền điện tử x AI

Bây giờ chúng ta thảo luận về các trường hợp sử dụng mang lại lợi ích thực sự. Đây là những chiến thắng thực sự và Crypto x AI có thể mang lại giá trị rõ ràng.

Lợi ích thực sự số 1: Phục vụ khách hàng Web2

McKinsey ước tính rằng trong 63 trường hợp sử dụng được phân tích, AI có thể tạo ra doanh thu tương đương từ 2,6 nghìn tỷ USD đến 4,4 nghìn tỷ USD hàng năm – so với tổng GDP năm 2021 của Vương quốc Anh là 3,1 nghìn tỷ USD. Điều này sẽ làm tăng tác động của AI từ 15% đến 40%. Nếu chúng ta tính đến tác động của AI tổng quát được nhúng vào phần mềm hiện được sử dụng cho các nhiệm vụ khác ngoài trường hợp sử dụng, thì tác động được ước tính sẽ tăng gần gấp đôi.

Nếu bạn thực hiện phép toán dựa trên các ước tính trên, điều này có nghĩa là tổng giá trị thị trường toàn cầu của AI (ngoài AI có thể tạo ra) có thể lên tới hàng chục nghìn tỷ đô la. Để so sánh, tổng giá trị của tất cả các loại tiền điện tử (bao gồm Bitcoin và tất cả các loại tiền thay thế) ngày nay chỉ khoảng 2,7 nghìn tỷ USD. Vì vậy, hãy đối mặt với điều này: đại đa số khách hàng cần AI trong thời gian ngắn sẽ là khách hàng của Web2, bởi vì những khách hàng của Web3 thực sự cần AI sẽ chỉ là một phần nhỏ trong số 2,7 nghìn tỷ đô la này (coi BTC là thị trường, bản thân Bitcoin là Bitcoin). không yêu cầu/sử dụng AI).

Các trường hợp sử dụng Web3 AI chỉ mới bắt đầu và chưa rõ thị trường sẽ lớn đến mức nào. Nhưng có một điều chắc chắn - nó sẽ chỉ chiếm một phần nhỏ thị trường Web2 trong tương lai gần. Chúng tôi tin rằng Web3 AI vẫn còn tương lai tươi sáng, nhưng điều đó chỉ có nghĩa là ứng dụng mạnh mẽ nhất của Web3 AI hiện nay đang phục vụ khách hàng Web2.

Các ví dụ giả thuyết về khách hàng Web2 có thể hưởng lợi từ Web3 AI bao gồm:

  • Xây dựng một công ty phần mềm chuyên ngành dọc, tập trung vào AI ngay từ đầu (ví dụ: Cedar.ai hoặc Observe.ai)

  • Các doanh nghiệp lớn tinh chỉnh các mô hình cho mục đích riêng của họ (ví dụ: Netflix)

  • Các nhà cung cấp AI đang phát triển nhanh chóng (ví dụ: Anthropic)

  • Các công ty phần mềm tích hợp AI vào các sản phẩm hiện có (ví dụ Canva)

Đây là vai trò khách hàng tương đối ổn định vì khách hàng thường lớn và có giá trị. Họ khó có thể sớm ngừng kinh doanh và họ đại diện cho những khách hàng tiềm năng khổng lồ cho các dịch vụ AI. Các dịch vụ Web3 AI phục vụ khách hàng Web2 sẽ được hưởng lợi từ lượng khách hàng ổn định này.

Nhưng tại sao khách hàng Web2 lại muốn sử dụng ngăn xếp Web3? Phần còn lại của bài viết này giải thích tình huống này.

Lợi ích thực sự #2: Giảm chi phí sử dụng GPU với GPU DePIN

GPU DePIN tổng hợp sức mạnh tính toán GPU chưa được sử dụng đúng mức, sức mạnh đáng tin cậy nhất trong số đó đến từ các trung tâm dữ liệu và cung cấp khả năng suy luận AI. Một sự tương tự đơn giản cho vấn đề này là "Airbnb trong GPU".

Lý do khiến chúng tôi hào hứng với GPU DePIN là vì, như đã đề cập ở trên, do thiếu chip NVIDIA và hiện có những chu kỳ GPU bị lãng phí có thể được sử dụng để suy luận AI. Những chủ sở hữu phần cứng này có chi phí chìm và thiết bị hiện không được sử dụng đúng mức, vì vậy những GPU một phần này có thể được cung cấp với chi phí thấp hơn nhiều so với hiện trạng vì điều này thực sự "kiếm tiền" cho chủ sở hữu phần cứng.

Những ví dụ bao gồm:

  • Máy AWS. Nếu hôm nay bạn thuê H100 từ AWS, bạn sẽ phải cam kết thuê 1 năm vì nguồn cung thị trường có hạn. Điều này tạo ra sự lãng phí vì bạn có thể sẽ không sử dụng GPU 7 ngày một tuần, 365 ngày một năm.

  • Phần cứng khai thác Filecoin. Filecoin có nguồn cung được trợ giá lớn nhưng nhu cầu thực tế không lớn. Filecoin chưa bao giờ tìm thấy sản phẩm thực sự phù hợp với thị trường, vì vậy những người khai thác Filecoin có nguy cơ ngừng kinh doanh. Những máy này được trang bị GPU có thể được tái sử dụng cho các tác vụ suy luận AI cấp thấp.

  • Phần cứng khai thác ETH. Khi Ethereum chuyển từ PoW sang PoS, điều này nhanh chóng giải phóng rất nhiều phần cứng có thể được sử dụng lại cho hoạt động suy luận của AI.

Lưu ý rằng không phải phần cứng GPU nào cũng phù hợp với suy luận AI. Một lý do rõ ràng cho điều này là các GPU cũ hơn không có đủ dung lượng bộ nhớ GPU cần thiết cho LLM, mặc dù đã có một số cải tiến thú vị có thể trợ giúp về vấn đề này. Ví dụ: công nghệ của Exabits có thể tải các nơ-ron hoạt động vào bộ nhớ GPU và các nơ-ron không hoạt động vào bộ nhớ CPU. Họ dự đoán tế bào thần kinh nào cần hoạt động/không hoạt động. Điều này cho phép các GPU cấp thấp xử lý khối lượng công việc AI, ngay cả với bộ nhớ GPU hạn chế. Điều này làm cho GPU cấp thấp trở nên hữu ích hơn cho hoạt động suy luận của AI.

Web3 AI DePIN sẽ cần phát triển sản phẩm của mình theo thời gian và cung cấp các dịch vụ cấp doanh nghiệp như đăng nhập một lần, tuân thủ SOC 2, thỏa thuận cấp độ dịch vụ (SLA), v.v. Điều này tương tự với những gì các nhà cung cấp dịch vụ đám mây hiện tại cung cấp cho khách hàng Web2.

Lợi ích thực sự #3: Các mô hình chống kiểm duyệt để tránh tình trạng tự kiểm duyệt của OpenAI

Có rất nhiều cuộc thảo luận về kiểm duyệt AI. Ví dụ, Thổ Nhĩ Kỳ đã tạm thời cấm OpenAI (sau đó họ đã thay đổi cách tiếp cận khi OpenAI cải thiện việc tuân thủ). Chúng tôi tin rằng việc kiểm duyệt cấp quốc gia không thú vị vì các quốc gia cần áp dụng AI để duy trì tính cạnh tranh.

OpenAI cũng tiến hành tự kiểm duyệt. Ví dụ: OpenAI sẽ không xử lý nội dung NSFW. OpenAI cũng sẽ không dự đoán cuộc bầu cử tổng thống tiếp theo. Chúng tôi nghĩ rằng các trường hợp sử dụng AI không chỉ thú vị mà còn có một thị trường khổng lồ nhưng là thị trường mà OpenAI sẽ không chạm tới vì lý do chính trị.

Nguồn mở là một giải pháp tuyệt vời vì kho lưu trữ Github không bị ảnh hưởng bởi các cổ đông hoặc ban giám đốc. Một ví dụ là Venice.ai, hứa hẹn sự riêng tư và hoạt động theo cách chống kiểm duyệt. Web3 AI có thể nâng nó lên một tầm cao mới một cách hiệu quả bằng cách hỗ trợ các mô hình phần mềm nguồn mở (OSS) này trên các cụm GPU chi phí thấp hơn để thực hiện suy luận. Vì những lý do này mà chúng tôi tin rằng OSS + Web3 là sự kết hợp lý tưởng để mở đường cho AI chống kiểm duyệt.

Lợi ích thực sự số 4: Tránh gửi thông tin nhận dạng cá nhân tới OpenAI

Các doanh nghiệp lớn có những lo ngại về quyền riêng tư đối với dữ liệu nội bộ của họ. Đối với những khách hàng này, việc tin tưởng một bên thứ ba OpenAI sở hữu dữ liệu này có thể khó khăn.

Trong Web3, có vẻ còn đáng lo ngại hơn (bề ngoài) đối với các công ty này khi dữ liệu nội bộ của họ đột nhiên xuất hiện trên web phi tập trung. Tuy nhiên, có những đổi mới trong công nghệ nâng cao quyền riêng tư cho AI:

Môi trường thực thi đáng tin cậy (TEE) như Super Protocol

Mã hóa hoàn toàn đồng hình (FHE) như Fhenix.io (một công ty danh mục đầu tư của quỹ do Hack VC quản lý) hoặc Inco Network (cả hai đều được cung cấp bởi Zama.ai), cũng như PPML của Bagel

Những công nghệ này vẫn đang phát triển và hiệu suất tiếp tục được cải thiện với Zero Knowledge (ZK) và FHE ASIC sắp ra mắt. Nhưng mục tiêu dài hạn là bảo vệ dữ liệu doanh nghiệp đồng thời tinh chỉnh mô hình. Khi các giao thức này xuất hiện, Web3 có thể trở thành một địa điểm hấp dẫn hơn nữa cho điện toán AI bảo vệ quyền riêng tư.

Lợi ích thực sự #5: Tận dụng những cải tiến mới nhất trong mô hình nguồn mở

Phần mềm nguồn mở đã chiếm lĩnh thị phần của phần mềm độc quyền trong vài thập kỷ qua. Chúng tôi xem LLM như một dạng phần mềm độc quyền nào đó có khả năng phá vỡ PMNM. Những ví dụ đáng chú ý về những kẻ thách thức bao gồm Llama, RWKV và Mistral.ai. Danh sách này chắc chắn sẽ phát triển theo thời gian (bạn có thể tìm thấy danh sách đầy đủ hơn tại Openrouter.ai). Bằng cách tận dụng Web3 AI (được hỗ trợ bởi các mô hình OSS), mọi người có thể đổi mới với những cải tiến mới này.

Chúng tôi tin rằng, theo thời gian, lực lượng lao động phát triển toàn cầu của nguồn mở kết hợp với các ưu đãi về tiền điện tử có thể thúc đẩy sự đổi mới nhanh chóng trong các mô hình nguồn mở cũng như các tác nhân và khuôn khổ được xây dựng dựa trên chúng. Một ví dụ về giao thức tác nhân AI là Theoriq. Theoriq tận dụng các mô hình OSS để tạo ra một mạng lưới kết nối các tác nhân AI có thể kết hợp được, có thể được tập hợp lại để tạo ra các giải pháp AI cấp cao hơn.

Lý do khiến chúng tôi tự tin về điều này là vì trong quá khứ, hầu hết các đổi mới về "phần mềm dành cho nhà phát triển" đều bị OSS vượt qua dần dần theo thời gian. Microsoft từng là công ty phần mềm độc quyền và hiện tại họ là công ty số 1 đóng góp cho Github. Có lý do cho điều đó, nếu bạn nhìn vào cách Databricks, PostGresSQL, MongoDB và những thứ khác đang phá vỡ các cơ sở dữ liệu độc quyền, thì đó là một ví dụ về OSS phá vỡ toàn bộ ngành công nghiệp, vì vậy tiền lệ ở đây khá hấp dẫn.

Tuy nhiên, có một vấn đề. Một điều khó khăn về các mô hình ngôn ngữ lớn nguồn mở (OSS LLM) là OpenAI đã bắt đầu ký kết các thỏa thuận cấp phép dữ liệu phải trả phí với một số tổ chức, chẳng hạn như Reddit và New York Times. Nếu xu hướng này tiếp tục, các mô hình ngôn ngữ lớn nguồn mở có thể trở nên khó cạnh tranh hơn do các rào cản tài chính trong việc thu thập dữ liệu. Nvidia có thể tăng cường đầu tư hơn nữa vào điện toán bí mật như một biện pháp hỗ trợ để chia sẻ dữ liệu một cách an toàn. Thời gian sẽ tiết lộ điều này diễn ra như thế nào.

Lợi ích thực sự #6: Sự đồng thuận thông qua lấy mẫu ngẫu nhiên để cắt giảm chi phí hoặc thông qua bằng chứng ZK

Một trong những thách thức của suy luận AI Web3 là xác minh. Người ta cho rằng những người xác nhận có cơ hội gian lận kết quả của họ để kiếm phí, vì vậy việc xác thực các suy luận là một biện pháp quan trọng. Lưu ý rằng hành vi gian lận này chưa thực sự xảy ra vì khả năng suy luận của AI vẫn còn ở giai đoạn sơ khai, nhưng điều này là không thể tránh khỏi trừ khi các bước được thực hiện để hạn chế hành vi này.

Cách tiếp cận Web3 tiêu chuẩn là yêu cầu nhiều trình xác thực lặp lại cùng một thao tác và so sánh kết quả. Như đã đề cập trước đó, thách thức rõ ràng trong vấn đề này là khả năng suy luận của AI rất tốn kém do tình trạng thiếu chip Nvidia cao cấp hiện nay. Vì Web3 có thể cung cấp khả năng suy luận với chi phí thấp hơn thông qua GPU DePIN không được sử dụng đúng mức nên việc tính toán dư thừa sẽ làm suy yếu nghiêm trọng đề xuất giá trị của Web3.

Một giải pháp hứa hẹn hơn là thực hiện bằng chứng ZK cho các tính toán suy luận AI ngoài chuỗi. Trong trường hợp này, bằng chứng ZK ngắn gọn có thể được xác minh để xác định xem mô hình có được đào tạo chính xác hay không hoặc liệu suy luận có chạy đúng hay không (được gọi là zkML). Ví dụ bao gồm Phòng thí nghiệm Modulus và ZKonduit. Do các hoạt động của ZK đòi hỏi nhiều tính toán nên hiệu suất của các giải pháp này vẫn còn ở giai đoạn sơ khai. Tuy nhiên, chúng tôi hy vọng tình hình sẽ được cải thiện với việc phát hành ASIC phần cứng ZK trong tương lai gần.

Hứa hẹn hơn là ý tưởng về phương pháp suy luận AI dựa trên lấy mẫu có phần "Lạc quan". Trong mô hình này, chỉ một phần nhỏ kết quả do người xác thực tạo ra được xác minh, nhưng chi phí kinh tế của việc cắt giảm được đặt đủ cao để nếu bị bắt, sẽ có sự ngăn cản kinh tế mạnh mẽ đối với người xác thực gian lận. Bằng cách này bạn tiết kiệm được những tính toán dư thừa.

Một ý tưởng đầy hứa hẹn khác là các giải pháp tạo hình mờ và lấy dấu vân tay, chẳng hạn như giải pháp được Bagel Network đề xuất. Điều này tương tự như cơ chế mà Amazon Alexa sử dụng để đảm bảo chất lượng mô hình AI trong thiết bị trên hàng triệu thiết bị của mình.

Lợi ích thực sự số 7: Tiết kiệm với OSS (Lợi nhuận của OpenAI)

Cơ hội tiếp theo mà Web3 mang lại cho AI là dân chủ hóa chi phí. Cho đến nay, chúng ta đã thảo luận về việc tiết kiệm chi phí GPU với DePIN. Nhưng Web3 cũng mang đến cơ hội tiết kiệm lợi nhuận trên các dịch vụ AI Web2 tập trung (chẳng hạn như OpenAI, tính đến thời điểm viết bài này có doanh thu hàng năm hơn 1 tỷ USD). Những khoản tiết kiệm chi phí này xuất phát từ thực tế là việc sử dụng các mô hình OSS thay vì các mô hình độc quyền sẽ đạt được mức tiết kiệm bổ sung vì những người tạo mô hình không cố gắng kiếm lợi nhuận.

Nhiều mô hình OSS sẽ vẫn hoàn toàn miễn phí, mang lại lợi ích kinh tế tốt nhất cho khách hàng. Nhưng có thể có một số mô hình OSS cũng đang thử các phương pháp kiếm tiền này. Hãy xem xét rằng chỉ có 4% tổng số người mẫu trên Ôm Mặt được đào tạo bởi các công ty có kinh phí để trợ cấp cho người mẫu. 96% mô hình còn lại được cộng đồng đào tạo. Nhóm này (96% Ôm Mặt) có chi phí thực tế cơ bản (bao gồm chi phí tính toán và chi phí dữ liệu). Do đó, những mô hình này sẽ cần phải được kiếm tiền theo một cách nào đó.

Có một số đề xuất để kiếm tiền từ mô hình phần mềm nguồn mở. Một trong những điều thú vị nhất là khái niệm “phát hành mô hình ban đầu”, nhằm mã hóa chính mô hình, giữ lại một phần mã thông báo cho nhóm và chuyển một số doanh thu trong tương lai từ mô hình đến chủ sở hữu mã thông báo, mặc dù chắc chắn có một số Rào cản pháp lý và quy định.

Các mô hình OSS khác sẽ cố gắng kiếm tiền từ việc sử dụng. Lưu ý rằng nếu điều này trở thành hiện thực, mô hình OSS có thể bắt đầu trông ngày càng giống mô hình kiếm tiền từ Web2 của nó. Nhưng trên thực tế, thị trường sẽ được chia thành hai phần, một số mẫu còn lại hoàn toàn miễn phí.

Lợi ích thực sự số 8: Nguồn dữ liệu phi tập trung

Một trong những thách thức lớn nhất của AI là tìm ra dữ liệu phù hợp để đào tạo mô hình. Chúng tôi đã đề cập trước đó rằng việc đào tạo AI phi tập trung có những thách thức riêng. Nhưng còn việc sử dụng mạng phi tập trung để lấy dữ liệu (sau đó có thể sử dụng để đào tạo ở nơi khác, ngay cả ở các địa điểm Web2 truyền thống) thì sao?

Đó chính xác là những gì các công ty khởi nghiệp như Grass đang làm. Grass là một mạng lưới phi tập trung gồm các "người quét dữ liệu", những người đóng góp sức mạnh xử lý nhàn rỗi của máy vào các nguồn dữ liệu để cung cấp thông tin cho việc đào tạo các mô hình AI. Theo giả thuyết, ở quy mô lớn, nguồn dữ liệu này có thể hoạt động tốt hơn nỗ lực nguồn dữ liệu nội bộ của bất kỳ công ty nào nhờ sức mạnh của một mạng lưới lớn các nút được khuyến khích. Điều này không chỉ bao gồm việc nhận được nhiều dữ liệu hơn mà còn nhận được dữ liệu thường xuyên hơn để làm cho dữ liệu phù hợp và cập nhật hơn. Trên thực tế, cũng không thể ngăn chặn các nhóm thu thập dữ liệu phi tập trung vì chúng vốn đã được phân cấp và không cư trú trong một địa chỉ IP duy nhất. Họ cũng có một mạng làm sạch và chuẩn hóa dữ liệu nên rất hữu ích khi được thu thập.

Sau khi có dữ liệu, bạn cũng cần một vị trí để lưu trữ dữ liệu đó trên chuỗi và LLM được tạo bằng dữ liệu đó.

Lưu ý rằng vai trò của dữ liệu trong Web3 AI có thể thay đổi trong tương lai. Trạng thái hiện tại của LLM ngày nay là đào tạo trước mô hình bằng cách sử dụng dữ liệu và tinh chỉnh nó theo thời gian với nhiều dữ liệu hơn. Tuy nhiên, do dữ liệu trên Internet thay đổi theo thời gian thực nên những mô hình này luôn hơi lỗi thời. Vì vậy, những phản hồi mà LLM suy ra có phần không chính xác.

Định hướng tương lai có thể là một mô hình mới - dữ liệu "thời gian thực". Ý tưởng là khi một mô hình ngôn ngữ lớn (LLM) được hỏi một câu hỏi suy luận, LLM có thể chuyển qua các gợi ý và đưa dữ liệu được thu thập lại từ Internet vào thời gian thực. Bằng cách này, LLM có thể sử dụng dữ liệu mới nhất. Grass đang làm việc về phần này.

Đặc biệt cảm ơn những người sau đây đã phản hồi và giúp đỡ bài viết này: Albert Castellana, Jasper Zhang, Vassilis Tziokas, Bidhan Roy, Rezo, Vincent Weisser, Shashank Yadav, Ali Husain, Nukri Basharuli, Emad Mostaque, David Minarsch, Tommy Shaughnessy, Michael Heinrich, Keccak Wong, Marc Weinstein, Phillip Bonello, Jeff Amico, Ejaaz Ahamadeen, Evan Feng, JW Wang.