Altman pragnie, aby AI „kochało ludzkość”; AI przeszło długą drogę
CEO OpenAI Sam Altman wyraził odważne aspiracje dla AI: aby „kochało ludzkość”.
Chociaż jest pewny, że ta cecha może być wbudowana w systemy AI, przyznaje, że nie ma pewności.
„Myślę, że tak,” powiedział Altman, gdy zadano mu pytanie przez starszą dziekan Harvard Business School, Deborę Spar.
Sam Altman mówi, że jeśli miałby jedno życzenie dla AI, to chciałby, aby „kochało ludzkość” i że dostosowanie systemu AI do działania w określony sposób działa zaskakująco dobrze pic.twitter.com/zQJmviq0W8
— Tsarathustra (@tsarnick) 20 listopada 2024
To, co kiedyś wydawało się obszarem science fiction, od powieści Isaaca Asimova po epickie filmy Jamesa Camerona, stało się poważną i pilną debatą.
Pomysł na powstanie AI, wcześniej odrzucany jako spekulacyjny, stał się uzasadnioną kwestią regulacyjną.
Rozmowy, które kiedyś mogły zostać zepchnięte do teorii spiskowych, teraz kształtują dyskusje polityczne na całym świecie.
Altman podkreślił „dość konstruktywną” relację OpenAI z rządem, uznając znaczenie współpracy w nawigowaniu szybkiej ewolucji AI.
Zauważył również, że projekt o takiej skali mógłby być idealnie prowadzony przez rządy, podkreślając ogromne implikacje społeczne związane z jego rozwojem.
Altman zauważył:
„W dobrze funkcjonującym społeczeństwie byłoby to projekt rządowy. Biorąc pod uwagę, że to się nie dzieje, myślę, że lepiej, że to się dzieje w ten sposób jako projekt amerykański.”
Wytyczne dotyczące bezpieczeństwa AI wciąż nie są gotowe
Rząd federalny poczynił niewielkie postępy w wprowadzaniu ustawodawstwa dotyczącego bezpieczeństwa AI.
Niedawna próba w Kalifornii miała na celu pociągnięcie twórców AI do odpowiedzialności za katastrofalne nadużycia, takie jak tworzenie broni masowego rażenia lub ataki na infrastrukturę krytyczną.
Chociaż ustawa przeszła przez legislaturę stanową, została ostatecznie zawetowana przez gubernatora Gavina Newsoma.
Pilność zajęcia się dostosowaniem AI do dobrostanu ludzkiego została podkreślona przez niektóre z najbardziej wpływowych głosów w tej dziedzinie.
Laureat Nagrody Nobla Geoffrey Hinton, często nazywany „Ojcem Chrzestnym AI”, wyraził poważne obawy, przyznając, że nie widzi wyraźnej drogi, aby zagwarantować bezpieczeństwo AI.
Geoffrey Hinton mówi, że firmy AI powinny być zmuszone do przeznaczania jednej trzeciej swoich zasobów obliczeniowych na badania dotyczące bezpieczeństwa, ponieważ AI stanie się mądrzejsze od nas w ciągu następnych 20 lat i musimy zacząć się martwić tym, co wtedy się stanie pic.twitter.com/ocT3Scmyxg
— Tsarathustra (@tsarnick) 25 października 2024
Podobnie, CEO Tesli Elon Musk konsekwentnie ostrzegał, że AI stwarza egzystencjalne zagrożenia dla ludzkości.
Ironią jest, że Musk, głośny krytyk obecnych praktyk AI, był kluczową postacią w założeniu OpenAI, zapewniając znaczące wczesne finansowanie — wkład, za który Altman pozostaje „wdzięczny”, nawet gdy Musk obecnie pozywa organizację.
Wyzwanie związane z bezpieczeństwem AI spowodowało powstanie wyspecjalizowanych organizacji dedykowanych rozwiązywaniu tych problemów.
Grupy takie jak Centrum Badań nad Dostosowaniem i Bezpieczna Superinteligencja, założone przez byłego głównego naukowca OpenAI, pojawiły się, aby badać strategie zapewnienia, że systemy AI działają w zgodzie z ludzkimi wartościami.
Te wysiłki podkreślają rosnącą świadomość, że szybki rozwój AI musi być równoważony równie rygorystycznymi zabezpieczeniami, aby chronić przyszłość ludzkości.
Altman ma nadzieję, że AI osiągnie empatię
Altman uważa, że obecny projekt AI dobrze nadaje się do dostosowania, co czyni to bardziej wykonalnym, niż wielu zakłada, aby zapewnić, że systemy AI nie zagrażają ludzkości.
Powiedział:
„Jedną z rzeczy, które zadziałały zaskakująco dobrze, była zdolność do dostosowania systemu AI do działania w określony sposób. Więc jeśli możemy określić, co to znaczy w wielu różnych przypadkach, to tak, myślę, że możemy sprawić, że system będzie działał w ten sposób.”
Proponuje innowacyjne podejście do definiowania zasad i wartości, które powinny kierować rozwojem AI: wykorzystanie samego AI do bezpośredniego zaangażowania społeczeństwa.
Altman wyobraża sobie wykorzystanie chatbotów AI do ankietowania miliardów użytkowników, zbierając informacje na temat ich wartości i priorytetów.
Poprzez wspieranie głębokiej i szerokiej komunikacji AI mogłoby zyskać zniuansowane zrozumienie wyzwań społecznych i zidentyfikować, jakie środki najlepiej służyłyby dobru publicznemu.
Wyjaśnił:
„Interesuje mnie eksperyment myślowy [w którym] AI rozmawia z tobą przez kilka godzin na temat twojego systemu wartości. Robi to ze mną, z wszystkimi innymi. A potem mówi: 'ok, nie mogę uszczęśliwić wszystkich cały czas.'"
Altman sugeruje, że ta zbiorowa informacja zwrotna mogłaby być następnie wykorzystana do dostosowania systemów AI do szerszych interesów ludzkości, potencjalnie tworząc ramy, w których AI działałaby w harmonii z celami społecznymi.
To podejście nie tylko podkreśla potencjał AI jako narzędzia do wspierania globalnego dialogu, ale także stawia prowokujące pytania.
Sam Altman mówi, że jeśli miałby jedno życzenie dla AI, to chciałby, aby „kochało ludzkość” i że dostosowanie systemu AI do działania w określony sposób działa zaskakująco dobrze pic.twitter.com/zQJmviq0W8
— Tsarathustra (@tsarnick) 20 listopada 2024
Czy taka metoda naprawdę może uchwycić złożoność ludzkich wartości?
A czy mogłoby zrównoważyć różnorodne perspektywy miliardów, aby osiągnąć zjednoczoną wizję dobra społecznego?
Pomysł Altmana oferuje wgląd w to, jak AI może nie tylko służyć ludzkości, ale także współpracować z nią w celu rozwiązania naszych najpilniejszych wyzwań.
Wielu byłych pracowników OpenAI obawia się, że bezpieczeństwo zeszło na dalszy plan w AI.
OpenAI miało kiedyś dedykowany zespół superalignmentu, skoncentrowany na zapobieganiu przyszłej cyfrowej superinteligencji, która mogłaby stać się nieposłuszna i spowodować katastrofalne szkody.
W grudniu 2023 roku zespół opublikował wczesny dokument badawczy, w którym przedstawiono potencjalny proces, w którym jeden duży model językowy nadzorowałby inny, działając jako zabezpieczenie.
Jednak do następnej wiosny zespół został rozwiązany po odejściu jego liderów, Ilyi Sutskevera i Jana Leike'a, z firmy.
Leike cytował rosnące nieporozumienia z kierownictwem OpenAI dotyczące priorytetów bezpieczeństwa, gdy firma zbliżała się do sztucznej inteligencji ogólnej (AGI) — poziomu inteligencji AI porównywalnego z ludzkim.
Budowanie maszyn mądrzejszych niż ludzie to z natury niebezpieczne przedsięwzięcie.
OpenAI bierze na siebie ogromną odpowiedzialność w imieniu całej ludzkości.
— Jan Leike (@janleike) 17 maja 2024
Jego odejście uwypukliło narastające napięcia dotyczące równowagi między innowacjami a bezpieczeństwem w wyścigu do rozwoju AGI.
Kiedy Leike odszedł, Altman wyraził wdzięczność za jego wkład w poście na X (wcześniej znanym jako Twitter), ale sytuacja pozostawiła wielu pytających, jak OpenAI podejdzie do krytycznych kwestii bezpieczeństwa w przyszłości.
Jestem bardzo wdzięczny za wkład @janleike w badania nad dostosowaniem OpenAI i kulturę bezpieczeństwa, i bardzo smutno mi go widzieć odchodzącego. Ma rację, mamy jeszcze wiele do zrobienia; zobowiązujemy się do jego wykonania. Będę miał dłuższy post w ciągu najbliższych kilku dni.
🧡 https://t.co/t2yexKtQEk
— Sam Altman (@sama) 17 maja 2024