Eksplozja sztucznej inteligencji (AI) zalewa nasz świat albo idealistycznymi marzeniami, albo przepowiedniami apokaliptycznymi, jednak żadne z nich nie uchwyca rzeczywistego zagrożenia.
Nie stoimy w obliczu „wielkiego buntu robotów”, w którym AI lub roboty przejmują władzę. Zapomnij o scenach filmowych w Terminatorze czy Matrixie—to nie jest na porządku dziennym. Technologia, aby AI zdobyły świat, nie istnieje.
AI może odnosić sukcesy w konkretnych zadaniach, takich jak składanie białek czy gra w szachy, ale nie jest w stanie budować armii ani prowadzić narodów.
Jednak brak robotycznego powstania nie oznacza, że jesteśmy bezpieczni. AI cicho infiltruje nasze życie poprzez mniej dramatyczne, ale równie potężne środki: biurokrację cyfrową.
Prawdziwe niebezpieczeństwo to nie zabójcze roboty. To infiltracja AI w decyzje, które kontrolują nasze codzienne życie. Ludzie ewoluowali, aby bać się namacalnych zagrożeń. Pomyśl o dużych drapieżnikach, takich jak lwy i rekiny.
Jednak jesteśmy mniej przygotowani do dostrzegania zagrożeń płynących z papierków, dokumentów czy biurokracji. Biurokracja sama w sobie jest stosunkowo nowym wynalazkiem, rozwijającym się dopiero 5 000 lat temu wraz z powstaniem pisma.
Przed pisaniem, własność na przykład zależała od tego, na co zgodziła się wspólnota. Jeśli „posiadałeś” działkę, to dlatego, że twoi sąsiedzi to szanowali. Żadne dokumenty nie były wymagane.
Od glinianych tablic do cyfrowych biurokratów
To wszystko zmieniło się, gdy ludzie zaczęli używać glinianych tablic i zapisów. Pisma oznaczały, że prawa własności przestały być kwestią konsensusu społeczności, a stały się oficjalnymi zapisami. Starożytni Mezopotamczycy przekształcili kawałki błota w symbole oficjalnej własności, zmieniając pojęcie własności.
Decyzja sądu mogła być oparta na glinianej tabliczce mówiącej, że posiadasz kawałek ziemi, nawet jeśli społeczność się z tym nie zgadzała. Przenieśmy się do dzisiaj, a nasze systemy są nadal oparte na podobnych zasadach, tylko teraz używamy układów krzemowych i zapisów cyfrowych zamiast gliny.
Ten przesunięcie przekształciło struktury władzy. Własność stała się czymś, co mogło być sprzedawane i wymieniane bez zgody lokalnej społeczności. Powstały biurokracje, umożliwiając zbieranie podatków, finansowanie wojska i centralizację rządu.
Biurokraci stali się kluczowymi graczami w tych systemach, używając zapisów, formularzy i pieczęci do zarządzania armiami, alokacji zasobów, a nawet kontroli prawa. Te systemy biurokratyczne doprowadziły do powstania scentralizowanych państw z rozległą kontrolą nad swoimi populacjami, kontrolą, która teraz przenosi się na AI.
AI nie potrzebuje tworzyć armii robotów; potrzebuje tylko opanować systemy biurokratyczne. W ramach tych ram AI może podejmować bardziej wpływowe decyzje niż jakikolwiek człowiek, co widać dzisiaj. AI już decydują, czy dostaniemy pożyczki, oferty pracy, przyjęcia na studia, a nawet diagnozy medyczne.
Wyobraź sobie, że bankierzy AI decydują o zdolności kredytowej, sędziowie AI orzekają w sprawach sądowych, a AI wojskowe obliczają cele ataków. AI nie potrzebuje buntu robotów. Władza biurokratyczna, którą dziedziczy, jest już ogromna.
AI w mediach społecznościowych i wpływie publicznym
Algorytmy mediów społecznościowych, choć prymitywne, już mają ogromną władzę. Algorytmy AI, szczególnie te z Facebooka, X (dawniej Twittera), YouTube'a i TikToka, są stworzone z jednym celem na myśli: - zaangażowanie użytkowników. Im dłużej ludzie pozostają na tych platformach, tym więcej pieniędzy wpływa do korporacji.
Dzięki próbom i błędom z miliardami użytkowników, te algorytmy odkryły, że wywoływanie emocji, takich jak chciwość, złość i strach, zwiększa zaangażowanie. Kiedy naciskają te emocjonalne guziki, utrzymują użytkowników wciągniętych.
Te algorytmy nie zatrzymały się na optymalizacji czasu spędzonego online. Poszły dalej, odkrywając, że treści wywołujące intensywne emocje zwiększają zaangażowanie użytkowników. To odkrycie doprowadziło do rozprzestrzenienia teorii spiskowych, dezinformacji i podziałów społecznych.
Świat dzisiaj jest zalany cyfrowym oburzeniem, strachem i polaryzacją, dzięki algorytmom, które priorytetowo traktują kliknięcia ponad spójność. Wykorzystując emocjonalne bodźce, algorytmy mediów społecznościowych napędzały dzisiejszą epidemię teorii spiskowych i fałszywych wiadomości.
Te algorytmiczne „decyzje” nie są z natury złośliwe. Wręcz przeciwnie, są zoptymalizowane do wydajnego wykonywania swoich ról. Mimo to, ich decyzje brakuje ludzkiej intuicji lub kontekstu, którego zazwyczaj oczekujemy w tak ważnych obszarach.
AI może podejmować szybsze lub bardziej spójne decyzje, ale jeśli coś pójdzie źle, skutki mogą być katastrofalne. To potencjalne ryzyko już stało się widoczne w wpływie mediów społecznościowych na społeczeństwo, stanowiąc ostrzeżenie, dokąd może nas doprowadzić niekontrolowana moc AI.
Biden ustanawia zasady AI dla Departamentu Obrony i agencji wywiadowczych
Prezydent Joe Biden ogłosił memorandum w sprawie bezpieczeństwa narodowego z nowymi zasadami użytkowania AI w zakresie bezpieczeństwa narodowego, zapobiegając Departamentowi Obrony i agencjom wywiadowczym w używaniu AI w sposób sprzeczny z wartościami demokratycznymi.
To jest pierwsza dyrektywa kierująca rolą AI w bezpieczeństwie narodowym. Nowe zasady będą zachęcać do eksperymentów z AI, zapewniając jednocześnie, że organy rządowe nie używają AI do naruszania praw, takich jak wolność słowa, ani do podważania kontroli nad bronią jądrową.
"Nasze memorandum kieruje do pierwszego w historii rządowego ramowego systemu naszych zobowiązań w zakresie zarządzania ryzykiem AI," powiedział doradca ds. bezpieczeństwa narodowego Jake Sullivan. Nakreślił cele unikania stronniczości, podtrzymywania odpowiedzialności i zapewnienia, że ludzki nadzór nad AI w wrażliwych rolach jest zachowany.
Chociaż nie są prawnie wiążące, zasady obejmują zastosowania w zakresie bezpieczeństwa narodowego, takie jak cyberbezpieczeństwo, kontrwywiad i logistyka w operacjach wojskowych. Biden wydał również kontrole eksportowe w zeszłym roku, spowalniając postępy Chin w dziedzinie AI poprzez ograniczenie dostępu do technologii.
Na mocy dyrektywy, Instytut Bezpieczeństwa AI w Waszyngtonie będzie odpowiedzialny za inspekcję narzędzi AI, aby zapobiec ich niewłaściwemu użyciu przed wydaniem, a wspólnota wywiadowcza USA będzie priorytetowo traktować monitorowanie postępów AI w innych krajach.