Termin sztuczna inteligencja (AI) jest częścią głównego nurtu żargonu od końca 2022 r. Jednak ilekroć dyskusje na temat tej rewolucyjnej powierzchni technologicznej wydają się skupiać przede wszystkim na takich aspektach, jak wykorzystanie najnowocześniejszych algorytmów i potężny sprzęt napędzający te technologie, systemy. 

Jednak równie kluczowym elementem, który często umyka uwadze, są zbiory danych stanowiące podstawę modeli sztucznej inteligencji. W ciągu ostatniego roku coraz wyraźniej stawało się jasne, że jakość i ilość informacji dostarczanych do tych złożonych systemów ma kluczowe znaczenie dla powodzenia systemów sztucznej inteligencji. Kto jednak gromadzi te dane i jak możemy zapewnić, że są one różnorodne, dokładne i pochodzą z etycznych źródeł?

Tradycyjnie zbieranie danych AI było domeną ekspertów i wyspecjalizowanych zespołów. Takie podejście, choć niewątpliwie zapewnia wysokiej jakości zbiory danych, często prowadzi do wąskich gardeł w procesie szkolenia sztucznej inteligencji, zwłaszcza jeśli chodzi o wprowadzenie indywidualnych uprzedzeń. Dlatego nie chodzi tylko o posiadanie wystarczającej ilości danych; chodzi o posiadanie odpowiednich danych, które reprezentują szeroki zakres perspektyw i przypadków użycia. 

W tym kontekście dyskusje dotyczące „zdecentralizowanych infrastruktur sztucznej inteligencji” zaczynają ostatnio zyskiwać na popularności, zwłaszcza że oferują one uzasadnione rozwiązanie umożliwiające demokratyzację gromadzenia danych dotyczących sztucznej inteligencji i przyspieszenie innowacji w tej dziedzinie. W tym momencie NeurochainAI, dostawca gotowej do użycia infrastruktury sztucznej inteligencji, wykorzystuje moduł społecznościowy o nazwie „AI Mining”, umożliwiający poszczególnym osobom uczestnictwo w różnych zadaniach gromadzenia i sprawdzania danych, skutecznie przekształcając swoich zwolenników w ogromny, zróżnicowany zbiór danych sieć zbiórki.

Uproszczenie kompleksu 

Patrząc z zewnątrz, geniusz zdecentralizowanych systemów gromadzenia danych AI polega na ich zdolności do dzielenia złożonych zadań na łatwe do wykonania, niewielkie elementy, które nie wymagają specjalistycznej wiedzy. To podejście, często określane jako „mikropraca”, pozwala praktycznie każdemu, kto posiada podstawowe przeszkolenie, przyczynić się do rozwoju sztucznej inteligencji.

„Data Launchpad” NeurochainAI ucieleśnia to podejście, w którym programiści lub firmy AI zaczynają od przesłania zadań związanych z gromadzeniem lub walidacją danych. Zadania te są następnie szczegółowo dzielone na instrukcje, które każdy może wykonać. Członkowie społeczności, zwani „AI Minerami”, mogą wybierać zadania, które ich interesują i wykonywać je przy użyciu sprzętu konsumenckiego w ramach odpowiednich DePIN (zdecentralizowanych sieci infrastruktury fizycznej) — tj. zlokalizowanych ekosystemów cyfrowych wykorzystujących sprzęt konsumencki do wykonywania zadań obliczeniowych, dystrybuując w ten sposób obciążenie pracą w sieci urządzeń.

Zebrane dane są następnie weryfikowane przez innych członków społeczności, zapewniając zarówno dokładność, jak i jakość. Współtwórcy są należycie nagradzani za swoje wysiłki, tworząc scenariusz korzystny dla obu stron zarówno dla twórców sztucznej inteligencji, jak i społeczności.

Ponadto model NeurochainAI odpowiada na jedno z najpilniejszych wyzwań sztucznej inteligencji: jej monumentalne zużycie energii. Tradycyjne centra danych AI zużywają ogromne ilości energii, a niektóre szacunki sugerują, że do 2027 r. będą mogły zużywać tyle energii, co cała Holandia.

Co więcej, badanie przeprowadzone przez Międzynarodową Agencję Energetyczną szacuje, że zużycie energii przez te centra danych może wzrosnąć do 620–1050 TWh do 2026 r., co odpowiada zapotrzebowaniu na energię odpowiednio Szwecji i Niemiec. Podejście NeurochainAI rozkłada to obciążenie obliczeniowe, potencjalnie zmniejszając ogólny ślad energetyczny rozwoju sztucznej inteligencji.

Odblokowanie nowych granic 

W obecnej sytuacji konsekwencje zdemokratyzowanego gromadzenia danych przez sztuczną inteligencję wydają się dość dalekosiężne i ekscytujące. Usuwając niektóre wąskie gardła związane z praktykami „gromadzenia danych wyłącznie przez ekspertów”, możliwe jest, że będziemy świadkami eksplozji zastosowań sztucznej inteligencji w dziedzinach, które w przeszłości były niedoceniane ze względu na brak odpowiednich zbiorów danych.

Można na przykład wyobrazić sobie modele sztucznej inteligencji, które potrafią zrozumieć i wygenerować wysokiej jakości informacje w rzadkich językach (dzięki danym zebranym przez rodzimych użytkowników języka na całym świecie). Podobnie mogą również pojawić się nowe przypadki zastosowania sztucznej inteligencji w medycynie, na przykład te, które potrafią rozpoznawać objawy rzadkich chorób, przeszkolone w oparciu o dane przekazane przez pacjentów i pracowników służby zdrowia na całym świecie. Możliwości są dosłownie nieograniczone!

I wreszcie to zdemokratyzowane podejście mogłoby prowadzić do bardziej etycznego i przejrzystego rozwoju sztucznej inteligencji. Kiedy gromadzenie danych jest wysiłkiem społeczności, proces ten z natury rzeczy charakteryzuje się większym nadzorem i różnorodnością. 

Dlatego też, patrząc w przyszłość napędzaną sztuczną inteligencją, platformy takie jak NeurochainAI nie tylko zmieniają sposób, w jaki zbieramy informacje na potrzeby szkolenia w zakresie danych AI; całkowicie zmieniają krajobraz otaczający tę domenę.