Altman deseja que a IA "ame a humanidade"; a IA avançou muito
O CEO da OpenAI, Sam Altman, expressou uma aspiração audaciosa para a IA: que ela "ame a humanidade."
Embora confiante de que esse traço pode ser incorporado nos sistemas de IA, ele admite que não há certeza.
“Acho que sim,” comentou Altman quando questionado pela vice-dean sênior da Harvard Business School, Debora Spar.
Sam Altman diz que se tivesse um desejo para a IA, seria para que ela "ame a humanidade" e que alinhar um sistema de IA para trabalhar de uma maneira particular está funcionando surpreendentemente bem pic.twitter.com/zQJmviq0W8
— Tsarathustra (@tsarnick) 20 de novembro de 2024
O que antes parecia ser o reino da ficção científica, desde os romances de Isaac Asimov até os épicos cinematográficos de James Cameron, evoluiu para um debate sério e urgente.
A ideia de uma rebelião da IA, anteriormente descartada como especulativa, tornou-se uma preocupação regulatória legítima.
Conversas que antes poderiam ter sido relegadas a teorias da conspiração agora estão moldando discussões políticas em todo o mundo.
Altman destacou o relacionamento "bastante construtivo" da OpenAI com o governo, reconhecendo a importância da colaboração na navegação da rápida evolução da IA.
Ele também observou que um projeto da magnitude da IA poderia idealmente ter sido liderado por governos, enfatizando as vastas implicações sociais ligadas ao seu desenvolvimento.
Altman observou:
“Em uma sociedade bem funcionante, este seria um projeto do governo. Dado que não está acontecendo, acho que é melhor que isso esteja acontecendo dessa forma como um projeto americano.”
Diretrizes de Segurança da IA Ainda Não Estão Lá
O governo federal fez pouco progresso em avançar a legislação de segurança da IA.
Uma tentativa recente na Califórnia buscou responsabilizar os desenvolvedores de IA por abusos catastróficos, como a criação de armas de destruição em massa ou ataques à infraestrutura crítica.
Embora o projeto tenha sido aprovado pela legislatura estadual, foi finalmente vetado pelo governador Gavin Newsom.
A urgência de abordar o alinhamento da IA com o bem-estar humano foi sublinhada por algumas das vozes mais influentes no campo.
O laureado com o Nobel Geoffrey Hinton, frequentemente chamado de "Padrinho da IA," expressou sérias preocupações, admitindo que não vê um caminho claro para garantir a segurança da IA.
Geoffrey Hinton diz que as empresas de IA deveriam ser forçadas a usar um terço de seus recursos computacionais em pesquisa de segurança, porque a IA se tornará mais inteligente que nós nos próximos 20 anos e precisamos começar a nos preocupar com o que acontece então pic.twitter.com/ocT3Scmyxg
— Tsarathustra (@tsarnick) 25 de outubro de 2024
De maneira semelhante, o CEO da Tesla, Elon Musk, tem alertado consistentemente que a IA representa riscos existenciais para a humanidade.
Ironicamente, Musk, um crítico vocal das práticas atuais de IA, foi uma figura chave na fundação da OpenAI, fornecendo um financiamento inicial significativo—uma contribuição pela qual Altman permanece "grato," mesmo enquanto Musk está agora processando a organização.
O desafio da segurança da IA levou à criação de organizações especializadas dedicadas a abordar essas preocupações.
Grupos como o Centro de Pesquisa de Alinhamento e Superinteligência Segura, fundados pelo ex-diretor científico da OpenAI, surgiram para explorar estratégias para garantir que os sistemas de IA operem em alinhamento com os valores humanos.
Esses esforços destacam o crescente reconhecimento de que o rápido desenvolvimento da IA deve ser acompanhado por salvaguardas igualmente rigorosas para proteger o futuro da humanidade.
Altman espera que a IA atinja empatia
Altman acredita que o design atual da IA se presta bem ao alinhamento, tornando mais viável do que muitos supõem garantir que os sistemas de IA não representem danos à humanidade.
Ele disse:
“Uma das coisas que funcionou surpreendentemente bem foi a capacidade de alinhar um sistema de IA para se comportar de uma maneira particular. Então, se pudermos articular o que isso significa em uma série de casos diferentes, então, sim, acho que podemos fazer o sistema agir dessa forma.”
Ele propõe uma abordagem inovadora para definir os princípios e valores que devem guiar o desenvolvimento da IA: aproveitar a própria IA para se envolver diretamente com o público.
Altman imagina usar chatbots de IA para consultar bilhões de usuários, coletando percepções sobre seus valores e prioridades.
Ao fomentar uma comunicação profunda e ampla, a IA poderia ganhar uma compreensão sutil dos desafios sociais e identificar quais medidas serviriam melhor ao bem-estar público.
Ele explicou:
“Estou interessado no experimento mental [em que] uma IA conversa com você por algumas horas sobre seu sistema de valores. Ela faz isso comigo, com todos os outros. E então diz 'ok, não posso fazer todo mundo feliz o tempo todo.'"
Altman sugere que esse feedback coletivo poderia então ser usado para alinhar os sistemas de IA com os interesses mais amplos da humanidade, potencialmente criando um quadro para a IA operar em harmonia com os objetivos sociais.
Essa abordagem não apenas ressalta o potencial da IA como uma ferramenta para fomentar o diálogo global, mas também levanta questões que fazem refletir.
Sam Altman diz que ter usuários explicando seu sistema de valores para uma IA e conseguindo alinhar isso coletivamente é uma direção promissora do alinhamento da IA pic.twitter.com/Ev97Ts3fQN
— Tsarathustra (@tsarnick) 20 de novembro de 2024
Tal método pode realmente capturar a complexidade dos valores humanos?
E será que poderia equilibrar as diversas perspectivas de bilhões para alcançar uma visão unificada do bem social?
A ideia de Altman oferece um vislumbre de como a IA pode não apenas servir à humanidade, mas também colaborar com ela para enfrentar nossos desafios mais urgentes.
Muitos ex-funcionários da OpenAI se preocupam que a segurança tenha ficado em segundo plano na IA
A OpenAI já teve uma equipe dedicada de superalinhamento focada em evitar que futuras superinteligências digitais saíssem do controle e causassem danos catastróficos.
Em dezembro de 2023, a equipe publicou um artigo de pesquisa inicial delineando um processo potencial em que um grande modelo de linguagem supervisionaria outro, atuando como um salvaguarda.
No entanto, na primavera seguinte, a equipe foi dissolvida após seus líderes, Ilya Sutskever e Jan Leike, deixarem a empresa.
Leike citou desacordos crescentes com a liderança da OpenAI em relação às suas prioridades de segurança à medida que a empresa avançava em direção à inteligência geral artificial (AGI)—um nível de inteligência da IA comparável ao dos humanos.
Construir máquinas mais inteligentes que os humanos é um empreendimento inerentemente perigoso.
A OpenAI está assumindo uma enorme responsabilidade em nome de toda a humanidade.
— Jan Leike (@janleike) 17 de maio de 2024
Sua saída destacou as tensões crescentes sobre o equilíbrio entre inovação e segurança na corrida para desenvolver AGI.
Quando Leike saiu, Altman expressou gratidão por suas contribuições em uma postagem no X (anteriormente conhecido como Twitter), mas a situação deixou muitos questionando como a OpenAI abordaria preocupações de segurança críticas no futuro.
Estou super agradecido pelas contribuições de @janleike para a pesquisa de alinhamento e cultura de segurança da openai, e muito triste em vê-lo partir. Ele está certo, temos muito mais a fazer; estamos comprometidos em fazê-lo. Terei uma postagem mais longa nos próximos dias.
🧡 https://t.co/t2yexKtQEk
— Sam Altman (@sama) 17 de maio de 2024