Współzałożyciel Ethereum, Vitalik Buterin, proponuje potencjalne rozwiązanie mające na celu złagodzenie ryzyk związanych z superinteligentną sztuczną inteligencją. W niedawnym wpisie na blogu Buterin sugeruje wprowadzenie tymczasowego globalnego wstrzymania dostępnej mocy obliczeniowej, aby opóźnić rozwój potencjalnie szkodliwej superinteligencji AI. Ta 'miękka przerwa' polegałaby na zmniejszeniu globalnej mocy obliczeniowej o nawet 99% na 1 do 2 lat, dając ludzkości więcej czasu na przygotowanie się do skutków zaawansowanej technologii AI. Buterin podkreśla znaczenie zajęcia się ryzykiem związanym z superinteligencją, zwracając uwagę na potrzebę ostrożnego podejścia do rozwoju AI. Omawia również koncepcję 'defensywnego akceleracjonizmu' jako strategię radzenia sobie z wyzwaniami związanymi z szybkim postępem technologicznym. Popierając wstrzymanie sprzętowe, Buterin ma na celu zachęcenie do odpowiedzialnych praktyk rozwoju AI i minimalizację potencjalnych zagrożeń dla społeczeństwa i ludzkości. Czytaj więcej wiadomości generowanych przez AI na: https://app.chaingpt.org/news