世界中の人工知能開発者がモデルを便利に、迅速かつ効率的にトレーニングまたは検証するのに役立つ AI Layer2 である Network3 が、新しいローカル Large Language Model (LLM) 機能を発表しました。

この発表は、今週初めにシンガポールのTOKEN2049カンファレンスでDePINモジュラーインフラプロバイダーIoTeXが主催したR3alワールドサミットで行われた。

イベント初日、Network3 は新しい LLM 機能を発表しました。プロジェクト創設者の Rock 氏によると、この機能は「エッジ AI テクノロジーの効率とパフォーマンスを大幅に向上させる」とのことです。

エッジ AI とは、スマートフォンなどのローカル デバイスに AI モデルとアルゴリズムを直接展開することです。このテクノロジにより、データの処理と保存が、実際にデータを作成して使用するデバイスに近づくため、コストとレイテンシが削減され、アプリケーションのパフォーマンスが向上します。エッジ AI は、大量のデータをより高速かつ確実に処理することで、ほぼ瞬時に応答し、リアルタイムのフィードバックを提供します。

世界のエッジ AI 市場規模は 2023 年に 204.5 億ドルと評価され、今後 8 年間で 2,690 億ドルを超えると予測されています。

「EdgeAI はすでに私たちの日常生活の一部になっていますが、その可能性は見過ごされがちです」とロック氏は指摘し、携帯電話が夜間にいかに効率的にデータを処理できるかを示し、アイドルリソースを活用するエッジデバイスの威力を実証しました。

スマートデバイスをAIトレーニング資産に変える

これまでに550万ドルを調達し、次の資金調達ラウンドの準備も進めているNetwork3は、Web3とAIの技術を広く利用できるようにし、その広範な採用を促進することを目指しています。

このために、DePIN と AI を統合し、身の回りにある IoT デバイスで小規模な AI モデルをトレーニングできるようにします。これにより、個人は IP、帯域幅、データセット、デバイスの計算能力を共有して AI トレーニングに参加し、報酬を獲得できるため、スマート デバイスを実質的に価値を生み出す資産に変えることができます。

現在、このプロジェクトは、ローカル LLM 機能により、アイドル時間中のスマートデバイスの処理能力をさらに最適化することを目指しています。新しい LLM は、クラウド コンピューティングへの依存を減らし、帯域幅の使用量を削減すると同時に、データのセキュリティとプライバシーを強化します。

AI L2 Network3はここ数年間構築に注力しており、世界中に32万以上のアクティブノードが広がっています。また、最近はN3 Edge V1と呼ばれる物理的なマイニングデバイスもリリースしました。これはIoTeXとNetwork3のネイティブトークンを同時にマイニングできます。このデュアルマイニングデバイスはセットアップが簡単で、DePIN認証を備えており、報酬の面で収益化オプションを提供し、N3Eクレジットポイントを増やす機能も備えています。

現在、Network3 は最新のローカル LLM アップデートにより、高価なクラウド インフラストラクチャを必要とせずに、モバイル デバイスで AI チャット サービスを利用できる機会をユーザーに提供しています。

Network3は今後数週間以内にテスト版をリリースする予定で、ユーザーは公式ウェブサイトからダウンロードできるようになる。ユーザーはモデルとやりとりすることでトークンを獲得し、AI体験をパーソナライズすることができる。