Výzkumníci z MIT a další organizace vytvořili AI Risk Repository – rozsáhlou databázi zdokumentovaných rizik složených ze systémů AI. To přichází, protože technologie se vyvíjí rychlým tempem, což je také případ spojený s rizikem používání systémů AI.
Úložiště se snaží pomáhat osobám s rozhodovací pravomocí v různých institucích, jako je vláda, výzkum, podniky a průmysl, aby vyhodnotili vznikající rizika spojená s AI, ačkoli má transformační schopnosti.
Úložiště přináší řádnou dokumentaci rizik AI
Vzhledem k tomu, že několik organizací a výzkumníků uznalo význam řešení rizik umělé inteligence, snahy o dokumentaci a kategorizaci těchto rizik byly ve větší míře neobratné, což vedlo k roztříštěné krajině konfliktních klasifikačních systémů.
„Chtěli jsme jako kontrolní seznam použít plně komplexní přehled rizik umělé inteligence,“ řekl VentureBeat Peter Slattery, vedoucí projektu MIT FutureTech.
"Ale když jsme se podívali na literaturu, zjistili jsme, že stávající klasifikace rizik byly jako kousky skládačky: jednotlivě zajímavé a užitečné, ale neúplné."
Slattery.
AI Risk Repository řeší výše uvedený problém spojením informací ze 43 existujících taxonomií, včetně recenzovaných článků, preprintů, konferenčních příspěvků a zpráv.
Tento pečlivý proces kurátorství vedl k vytvoření databáze s více než 700 exkluzivními riziky. Úložiště využívá dvourozměrný klasifikační systém.
Za prvé, rizika jsou klasifikována na základě jejich příčin, přičemž se bere v úvahu subjekt odpovědný (člověk nebo AI) – záměr (neúmyslný nebo mezinárodní) a načasování (po vývoji nebo před nasazením).
Podle MIT tato základní kategorizace pomáhá porozumět situacím a mechanismům, jejichž prostřednictvím se mohou objevit rizika AI.
Výzkumníci MIT kategorizovali rizika umělé inteligence do sedmi
Na druhé straně jsou rizika kategorizována do sedmi různých domén, včetně dezinformací a zlomyslných aktérů, zneužití, diskriminace a toxicity, soukromí a bezpečnosti.
Úložiště rizik pro umělou inteligenci je zamýšleno jako živá databáze a je veřejně dostupné a instituce si jej mohou stáhnout pro svou spotřebu.
Výzkumné týmy mohou plánovat časté aktualizace databáze o nová rizika, nejnovější poznatky a vyvíjející se trendy.
Úložiště rizik AI má být také praktickým zdrojem pro podniky v různých odvětvích. Pro instituce vyvíjející systémy umělé inteligence funguje úložiště jako neocenitelný kontrolní seznam pro hodnocení rizik a jejich zmírňování.
„Organizace využívající AI mohou těžit z využití databáze rizik AI a taxonomií jako užitečného základu pro komplexní posouzení jejich vystavení riziku a řízení.“
výzkumníci z MIT
"Taxonomie se také mohou ukázat jako užitečné pro identifikaci konkrétního chování, které je třeba provést ke zmírnění konkrétních rizik," dodali vědci.
Organizace, která zavádí náborový systém založený na AI, může například využít úložiště k zaznamenání potenciálních rizik spojených s diskriminací a předpojatostí.
A tak firma využívající AI k moderování obsahu může využít doménu „dezinformací“, aby pochopila potenciální rizika související s obsahem generovaným AI a vytvořila potřebné záchranné sítě.
Výzkumníci z MIT spolupracovali s kolegy z University of Queensland, Future of Life Institute, KU Leuven a AI startup Harmony Intelligence, aby prohledali akademické databáze a získali dokumenty týkající se rizik AI.
Výzkumníci také odhalili, že AI Risk Repository bude informovat další výzkum, protože identifikuje další mezery, které vyžadují pozornost.
„Toto úložiště využijeme k identifikaci potenciálních mezer nebo nerovnováh ve způsobu, jakým organizace řeší rizika,“ řekl Neil Thompson, vedoucí MIT FutureTech Lab.