Ilya Sutskever, spoluzakladatel a bývalý hlavní vědec OpenAI, spolu s bývalým inženýrem OpenAI Danielem Levym a investorem Danielem Grossem, dříve partnerem startupového akcelerátoru Y Combinator, spustili Safe Superintelligence, Inc. (SSI). Společnost se sídlem v Palo Alto a Tel Avivu usiluje o pokrok v umělé inteligenci (AI) tím, že upřednostňuje bezpečnost i schopnosti. V online oznámení z 19. června zakladatelé zdůraznili svůj závazek:

„Od samého počátku zůstává naše zaměření na bezpečnost a schopnosti umělé inteligence. Toto jedinečné zaměření zajišťuje, že nás nebudou rozptylovat režie vedení nebo produktové cykly, zatímco náš obchodní model chrání bezpečnost, zabezpečení a pokrok před krátkodobými komerčními tlaky.“

Sutskever a Gross byli dlouho zastánci bezpečnosti AI.

Sutskever opustil OpenAI 14. května poté, co se podílel na odvolání generálního ředitele Sama Altmana. Jeho role ve společnosti se stala nejednoznačnou poté, co po Altmanově návratu odstoupil z představenstva. Krátce po Sutskeverově odchodu opustil OpenAI také Daniel Levy spolu s několika dalšími výzkumníky.

Sutskever a Jan Leike spolu vedli tým OpenAI's Superalignment, který vznikl v červenci 2023, aby prozkoumal metody pro vedení a správu systémů umělé inteligence, které jsou inteligentnější než lidé, známé jako umělá obecná inteligence (AGI). Na svém počátku OpenAI alokovalo 20 % svých výpočetních zdrojů na podporu týmu Superalignment.

V květnu Leike také opustil OpenAI, aby vedl tým v Anthropic, startupu s umělou inteligencí podporovaného Amazonem. Po odchodu svých klíčových výzkumníků OpenAI rozpustila tým Superalignment. Greg Brockman, prezident společnosti, obhajoval její bezpečnostní protokoly v podrobném příspěvku na X.

Obavy sdílejí i další významné osobnosti technologického průmyslu

Bývalí výzkumníci OpenAI spolu s mnoha vědci vyjadřují hluboké obavy o budoucí trajektorii AI. Vitalik Buterin, spoluzakladatel Etherea, označil AGI za „rizikové“ uprostřed nedávných personálních změn v OpenAI. Poznamenal však také, že „takové modely představují mnohem nižší riziko zkázy ve srovnání s firemní megalomanií a vojenskými aplikacemi“.

Zdroj: Ilya Sutskever

Generální ředitel společnosti Tesla Elon Musk, dříve zastánce OpenAI, a spoluzakladatel společnosti Apple Steve Wozniak se připojili k více než 2 600 technologickým lídrům a výzkumníkům, kteří vyzvali k šestiměsíční pauze ve školení systémů AI. Zdůraznili potřebu, aby se lidstvo zamyslelo nad „hlubokými riziky“, které tyto technologie představují.

The post Bývalý vědec OpenAI Ilya Sutskever zakládá SSI pro bezpečnost AI appeared first on Baffic.