Dezenas de líderes da indústria de IA, acadêmicos e até algumas celebridades pediram na terça-feira (30) a redução do risco de aniquilação global devido à inteligência artificial, argumentando em uma breve declaração que o debate sobre a ameaça de extinção deve ser uma prioridade global.
“Mitigar o risco de extinção pela IA deve ser uma prioridade global, juntamente com outros riscos em escala social, como pandemias e guerra nuclear”, diz o comunicado publicado pelo Center for AI Safety.
A declaração foi assinada pelos principais funcionários da indústria, incluindo o CEO da OpenAI, Sam Altman; o chamado “padrinho” da IA, Geoffrey Hinton; altos executivos e pesquisadores do Google DeepMind e Anthropic; Kevin Scott, diretor de tecnologia da Microsoft; Bruce Schneier, o pioneiro da segurança e criptografia na Internet; defensor do clima Bill McKibben; e o músico Grimes, entre outros.
A declaração destaca preocupações amplas sobre o perigo final da inteligência artificial não controlada. Especialistas em IA disseram que a sociedade ainda está muito longe de desenvolver o tipo de inteligência artificial geral que é o material da ficção científica; os chatbots de ponta de hoje reproduzem em grande parte padrões com base em dados de treinamento que receberam e não pensam por si mesmos.
Ainda assim, a enxurrada de exageros e investimentos na indústria de IA levou a pedidos de regulamentação no início da era da IA, antes que ocorram grandes contratempos.
A declaração segue o sucesso viral do ChatGPT da OpenAI, que ajudou a aumentar uma corrida armamentista na indústria de tecnologia em relação à inteligência artificial. Em resposta, um número crescente de legisladores, grupos de defesa e especialistas em tecnologia levantaram alarmes sobre o potencial de uma nova safra de chatbots com IA para espalhar desinformação e acabar com empregos.
Hinton, cujo trabalho pioneiro ajudou a moldar os sistemas de IA de hoje, disse anteriormente à CNN que decidiu deixar seu cargo no Google e “denunciar” a tecnologia depois de “de repente” perceber “que essas coisas estão ficando mais inteligentes do que nós”.
Dan Hendrycks, diretor do Center for AI Safety, disse em um tweet na terça-feira que a declaração proposta pela primeira vez por David Kreuger, professor de IA da Universidade de Cambridge, não impede a sociedade de abordar outros tipos de risco de IA, como viés algorítmico. ou desinformação.
Hendrycks comparou a declaração de terça-feira aos avisos de cientistas atômicos “emitindo avisos sobre as próprias tecnologias que eles criaram”.
“As sociedades podem gerenciar vários riscos ao mesmo tempo; não é ‘ou/ou’, mas ‘sim/e’”, twittou Hendrycks . “Do ponto de vista da gestão de riscos, assim como seria imprudente priorizar exclusivamente os danos presentes, também seria imprudente ignorá-los.”