Podle nedávného prohlášení spoluzakladatele Etherea Vitalika Buterina existuje potřeba 'měkkého zastavení' ve vývoji umělé inteligence (AI) k přípravě na rizika spojená s pokročilými AI systémy.
Buterin věří, že společnost by měla být proaktivní při řešení potenciálních nebezpečí AI, včetně možnosti superinteligentních strojů překonávajících lidské schopnosti. Navrhuje, že pauza ve vývoji AI by umožnila zavedení bezpečnostních opatření a regulací k zmírnění těchto rizik.
Tento opatrný přístup přichází v době rostoucích obav o etické důsledky a společenský dopad technologie AI. Buterinův návrh má za cíl podpořit uvážlivější a odpovědnější přístup k vývoji AI, s prioritou na bezpečnost a etické úvahy.
I když má AI potenciál revolučně změnit odvětví a zlepšit efektivitu, také vyvolává významné etické a bezpečnostní obavy. Buterinův apel na 'měkké zastavení' odráží rostoucí uznání potřeby vyvážit technologický pokrok s etickými úvahami a hodnocením rizik.
Podporou uváženějšího a opatrnějšího přístupu k vývoji AI doufá Buterin, že podnítí větší povědomí o potenciálních rizicích spojených s pokročilými AI systémy. Proaktivním řešením těchto obav může společnost pracovat na zajištění toho, aby technologie AI byla vyvíjena a využívána odpovědným a etickým způsobem.
Příspěvek Vitalika Buterina navrhuje zavedení 'měkkého zastavení' výpočtů v případě náhlé rizikové situace AI se poprvé objevil na Crypto Breaking News.