Organ doradczy ONZ ds. sztucznej inteligencji opublikował swój raport końcowy, w którym przedstawiono siedem kluczowych rekomendacji dotyczących zagrożeń związanych ze sztuczną inteligencją i luk w zarządzaniu. Raport został opublikowany w czwartek i zostanie przedstawiony na szczycie ONZ we wrześniu.
39-osobowy organ powołany przez ONZ w zeszłym roku zasugerował utworzenie globalnego organu, który oferowałby obiektywne i wiarygodne informacje naukowe na temat AI. Ten panel pomógłby wyrównać stan informacji między twórcami AI a resztą populacji, zapewniając kompleksowy pogląd na temat i jego rozwój.
Organ doradczy ostrzega przed ryzykiem monopolizacji sztucznej inteligencji
Ponadto raport wzywa do nowych rozmów politycznych na temat tego, jak zarządzać AI, proponowane środki obejmują utworzenie giełdy standardów AI. Będzie to promować rozwój międzynarodowych wytycznych. Zgodnie z raportem pomoże to krajom w wymianie informacji na temat najlepszych sposobów regulacji wykorzystania technologii AI.
W swoim raporcie organ doradczy ostrzegał również przed ryzykiem monopolizacji AI przez kilka dużych korporacji międzynarodowych. Aby złagodzić te ryzyka, ONZ zaleciła utworzenie Global AI Capacity Development Network. Będzie to miało na celu poprawę zarządzania w krajach, w których brakuje infrastruktury lub personelu do zajęcia się kwestią regulacji AI.
Jednym z głównych zaleceń zawartych w raporcie jest utworzenie globalnego funduszu AI. Fundusz ten miałby pomóc wypełnić luki we współpracy i budowaniu potencjału. Ułatwi to dostępność zarządzania AI we wszystkich krajach, niezależnie od poziomu zaawansowania technologicznego.
ONZ proponuje globalny system danych AI w celu zwiększenia odpowiedzialności
Innym zaleceniem raportu jest to, że powinien istnieć globalny system danych AI. Dzięki temu rozwiązaniu łatwiej będzie pociągnąć operacje AI do większej odpowiedzialności za zarządzanie danymi, prywatność i decyzje podejmowane przez algorytmy. Organ doradczy stwierdził, że takie środki są ważne dla budowania zaufania publicznego do AI i zapobiegania jej niewłaściwemu wykorzystaniu.
Ponadto Wielka Brytania zorganizuje konferencję w San Francisco w dniach 21 i 22 listopada dotyczącą bezpieczeństwa AI. Wydarzenie będzie się składać z kilku warsztatów i sesji mających na celu ulepszenie środków bezpieczeństwa i wytycznych dotyczących rozwoju AI. Konferencja ta odbywa się przed szczytem AI Action Summit, który odbędzie się we Francji w lutym 2025 r. Tematem dyskusji będzie bezpieczeństwo i regulacja AI.