Według Cointelegraph, dyrektorzy OpenAI, Anthropic, Google i Microsoft zebrali się w Białym Domu 12 września, aby omówić potrzebę solidnej infrastruktury energetycznej wspierającej sztuczną inteligencję (AI) i wysokowydajne przetwarzanie. Kluczowe postacie, w tym dyrektor generalny OpenAI Sam Altman i dyrektor generalny Anthropic Dario Amodei, podkreśliły obawy, że obecna starzejąca się infrastruktura energetyczna w Stanach Zjednoczonych jest niewystarczająca, aby sprostać rosnącemu zapotrzebowaniu energetycznemu sektora AI.

Firma inwestycyjno-bankowa Goldman Sachs prognozuje 160% wzrost zapotrzebowania na energię w centrach danych do 2030 r. ze względu na postęp w dziedzinie sztucznej inteligencji. Przedstawiciele OpenAI podkreślili, że rozwój infrastruktury energetycznej klasy AI nie tylko stworzy wiele miejsc pracy w Stanach Zjednoczonych, ale także przyczyni się do geograficznej decentralizacji AI, zapewniając, że kraj pozostanie na czele innowacji technologicznych. Dyrektorzy ostrzegali również, że brak udoskonalenia obecnej infrastruktury energetycznej może stanowić zagrożenie dla bezpieczeństwa narodowego, powodując, że Stany Zjednoczone pozostaną w tyle w wyścigu AI.

Phil Harvey, CEO Sabre56, firmy konsultingowej w zakresie centrów danych, zauważył, że centra danych AI kosztują od 3 do 5 milionów dolarów za megawat. Potwierdził to raport Międzynarodowej Agencji Energetycznej (IEA), który wykazał, że typowe wyszukiwanie ChatGPT zużywa dziesięć razy więcej energii niż standardowe wyszukiwanie w Google. Prawodawcy z Indiany uznali tę pilną potrzebę i zapewnili gigantów technologicznych, takich jak Google, Meta i Microsoft, że stan może zapewnić niezbędną energię bez przerw w dostawie prądu do zasilania centrów danych.

Sekretarz Handlu Indiany David Rosenberg podkreślił, że stan ma wystarczające zasoby energii i wody, niezbędne do chłodzenia centrów danych, aby sprostać zapotrzebowaniu przemysłu. Te obfite zasoby naturalne przyciągnęły 14 miliardów dolarów inwestycji w centra danych przez duże firmy technologiczne, poszukujące niezawodnej bazy dla swoich operacji AI i obliczeń o wysokiej wydajności.