Prawie współzałożycielka, Illia Polosukhin, podzieliła się celem firmy, jakim jest zapewnienie wizjonerom nieposiadającym technicznych umiejętności kodowania chatbota opartego na sztucznej inteligencji (AI), który może tworzyć dla nich zdecentralizowane aplikacje (DApps).

W wywiadzie z redaktorem naczelnym Cointelegraph Garethem Jenkinsonem Polosukhin podzielił się wizją firmy, która zakłada umożliwienie użytkownikom zostania założycielami projektów, nawet jeśli nie mają umiejętności kodowania. Powiedział:

„W zasadzie chcieliśmy, aby ludzie mogli po prostu powiedzieć, jakich aplikacji chcą, a komputer napisze dla nich kod i kompleksowo zbuduje aplikację”.

Według dyrektora Near ich celem jest stworzenie infrastruktury umożliwiającej „przełamanie obecnego stanu” polegającego na niewielkiej liczbie programistów i aplikacji dla użytkowników końcowych. Dzięki nadchodzącemu narzędziu AI firmy Near każdy, kto ma pomysł, może go wcielić w życie.

Na przykład Polosukhin powiedział, że jeśli ktoś chce stworzyć rynek dla niezależnych strzelców, sztuczna inteligencja może pomóc we wszystkim, od pisania historii użytkowników i tworzenia profili freelancerów po opracowanie inteligentnej umowy i interfejsu użytkownika front-end.

Sztuczna inteligencja byłaby również w stanie napisać oprogramowanie pośredniczące, które wszystko łączy. Ponadto Polosukhin wyjaśnił, że twórcy mogliby edytować program i dodać więcej funkcji, których mogłoby brakować w aplikacji.

Oprócz nadchodzącego narzędzia AI duet mówił także o zagrożeniach związanych ze sztuczną inteligencją. Polosukhin uważa, że ​​największym ryzykiem dla sztucznej inteligencji jest wykorzystywanie przez scentralizowane firmy do manipulowania ludźmi, aby wykonywali ich polecenia w celu uzyskania większych przychodów. Wyjaśnił:

„To, co dzieje się z modelami sztucznej inteligencji, polega na tym, że są naprawdę dobre w manipulowaniu ludźmi, prawda? Jeśli im na to pozwolisz, a Twoim celem jest generowanie większych przychodów, będą manipulować ludźmi, aby spędzali z nimi więcej czasu.

Choć dla wielu tego typu zabawa może być nieetyczna, Polosukhin uważa, że ​​nie jest to „zły plan”. Dyrektor uważa, że ​​jest to problem systemowy wynikający z nieodłącznej potrzeby dużych korporacji wykazania się dalszym wzrostem.

Powiązane: Jak decentralizacja może złagodzić „dystopiczne” ryzyko związane ze sztuczną inteligencją — SingularityNET exec

Dyrektor uważa, że ​​do zwalczania tego rodzaju ryzyka potrzeba większej liczby sztucznej inteligencji należącej do użytkowników. Modele te będą miały za zadanie chronić użytkowników przed złośliwymi podmiotami próbującymi je wykorzystać. Wyjaśnił:

„To modele sztucznej inteligencji, które służą po twojej stronie. Są zoptymalizowane pod kątem Twojego dobrego samopoczucia i sukcesu ekonomicznego. Mogą chronić Twoje dane i Twoje aktywa. Aby to osiągnąć, wszystko musi być oprogramowaniem typu open source”.

Dodał także, że Web3 jest „naprawdę dobry” w projektowaniu takich architektur. Z tego powodu dyrektor uważa, że ​​Near ma idealną pozycję do zbudowania sztucznej inteligencji będącej własnością użytkownika. „To wszystko jest naprawdę, naprawdę, połączone w jedną całość. Musimy jednak w pewnym sensie zbudować dużą część tej infrastruktury.

Magazyn: „Sic AI na siebie”, aby zapobiec apokalipsie AI: David Brin, autor science-fiction