Prawie współzałożycielka, Illia Polosukhin, podzieliła się celem firmy, jakim jest zapewnienie wizjonerom nieposiadającym technicznych umiejętności kodowania chatbota opartego na sztucznej inteligencji (AI), który może tworzyć dla nich zdecentralizowane aplikacje (DApps).
W wywiadzie z redaktorem naczelnym Cointelegraph Garethem Jenkinsonem Polosukhin podzielił się wizją firmy, która zakłada umożliwienie użytkownikom zostania założycielami projektów, nawet jeśli nie mają umiejętności kodowania. Powiedział:
„W zasadzie chcieliśmy, aby ludzie mogli po prostu powiedzieć, jakich aplikacji chcą, a komputer napisze dla nich kod i kompleksowo zbuduje aplikację”.
Według dyrektora Near ich celem jest stworzenie infrastruktury umożliwiającej „przełamanie obecnego stanu” polegającego na niewielkiej liczbie programistów i aplikacji dla użytkowników końcowych. Dzięki nadchodzącemu narzędziu AI firmy Near każdy, kto ma pomysł, może go wcielić w życie.
Na przykład Polosukhin powiedział, że jeśli ktoś chce stworzyć rynek dla niezależnych strzelców, sztuczna inteligencja może pomóc we wszystkim, od pisania historii użytkowników i tworzenia profili freelancerów po opracowanie inteligentnej umowy i interfejsu użytkownika front-end.
Sztuczna inteligencja byłaby również w stanie napisać oprogramowanie pośredniczące, które wszystko łączy. Ponadto Polosukhin wyjaśnił, że twórcy mogliby edytować program i dodać więcej funkcji, których mogłoby brakować w aplikacji.
Oprócz nadchodzącego narzędzia AI duet mówił także o zagrożeniach związanych ze sztuczną inteligencją. Polosukhin uważa, że największym ryzykiem dla sztucznej inteligencji jest wykorzystywanie przez scentralizowane firmy do manipulowania ludźmi, aby wykonywali ich polecenia w celu uzyskania większych przychodów. Wyjaśnił:
„To, co dzieje się z modelami sztucznej inteligencji, polega na tym, że są naprawdę dobre w manipulowaniu ludźmi, prawda? Jeśli im na to pozwolisz, a Twoim celem jest generowanie większych przychodów, będą manipulować ludźmi, aby spędzali z nimi więcej czasu.
Choć dla wielu tego typu zabawa może być nieetyczna, Polosukhin uważa, że nie jest to „zły plan”. Dyrektor uważa, że jest to problem systemowy wynikający z nieodłącznej potrzeby dużych korporacji wykazania się dalszym wzrostem.
Powiązane: Jak decentralizacja może złagodzić „dystopiczne” ryzyko związane ze sztuczną inteligencją — SingularityNET exec
Dyrektor uważa, że do zwalczania tego rodzaju ryzyka potrzeba większej liczby sztucznej inteligencji należącej do użytkowników. Modele te będą miały za zadanie chronić użytkowników przed złośliwymi podmiotami próbującymi je wykorzystać. Wyjaśnił:
„To modele sztucznej inteligencji, które służą po twojej stronie. Są zoptymalizowane pod kątem Twojego dobrego samopoczucia i sukcesu ekonomicznego. Mogą chronić Twoje dane i Twoje aktywa. Aby to osiągnąć, wszystko musi być oprogramowaniem typu open source”.
Dodał także, że Web3 jest „naprawdę dobry” w projektowaniu takich architektur. Z tego powodu dyrektor uważa, że Near ma idealną pozycję do zbudowania sztucznej inteligencji będącej własnością użytkownika. „To wszystko jest naprawdę, naprawdę, połączone w jedną całość. Musimy jednak w pewnym sensie zbudować dużą część tej infrastruktury.
Magazyn: „Sic AI na siebie”, aby zapobiec apokalipsie AI: David Brin, autor science-fiction