Os cientistas da computação, que auxiliaram a construir as bases da tecnologia de inteligência artificial (IA) atualmente em uso, alertam para os seus perigos e pedem uma pausa no desenvolvimento dos sistemas mais avançados.
A sobrevivência da humanidade está ameaçada quando “coisas inteligentes nos podem enganar”, alertou Geoffrey Hinton (apelidado de “padrinho” da IA) durante uma conferência que aconteceu ontem no Instituto de Tecnologia de Massachusetts (MIT, na sigla em inglês), nos Estados Unidos da América.
“Isto pode manter-nos durante algum tempo, para manter as fábricas a funcionarem. Mas depois disso, talvez não”, alertou.
Depois de se despedir da Google para se poder expressar com mais liberdade, Hinton, de 75 anos, afirmou que mudou a sua opinião sobre as capacidades de raciocínio dos sistemas de computador que passou a vida inteira a investigar.
“Estas coisas terão aprendido connosco, lendo todos os romances que já existiram e tudo o que Maquiavel já escreveu, como manipular as pessoas“, declarou Hinton, dirigindo-se à multidão que assistia à conferência.
“Mesmo que não possam puxar as alavancas directamente, certamente podem fazer-nos puxar as alavancas”, declarou.
Sobre possíveis soluções, Geoffrey Hinton não as apresenta, nem tem a certeza que existam, noticiou a agência Associated Press (AP).
Yoshua Bengio, outro pioneiro da IA, co-vencedor com Hinton do principal prémio de ciência da computação, disse à AP, ontem, que está “bastante alinhado” com as preocupações de Hinton, embora tema que dizer simplesmente que a humanidade “está condenada” não vai ajudar.
“A principal diferença, eu diria, é que ele é uma pessoa meio pessimista, e eu sou mais optimista”, revelou Bengio, professor da Universidade de Montreal, no Canadá.
“Acho que os perigos, os de curto prazo, os de longo prazo, são muito grandes e precisam ser levados a sério, não apenas por alguns investigadores, mas também pelos governos e pela população”, relevou.
A Casa Branca convocou os CEO da Google, da Microsoft e da OpenAI, fabricante do ChatGPT, para reunirem hoje, com a vice-presidente Kamala Harris, algo que está a ser descrito pelas autoridades como uma discussão franca sobre como mitigar os riscos de curto e longo prazo desta tecnologia.
As autoridades europeias também estão a acelerar as negociações para aprovar novas regras abrangentes de IA.
Outros temem que a conversa sobre os perigos futuros em torno de máquinas sobre-humanas (que não existem) estejam a distrair as tentativas de estabelecer salvaguardas práticas nos actuais produtos de IA, que não são regulamentados e demonstram originar problemas no mundo real.
Margaret Mitchell, ex-líder da equipa de ética de IA da Google, disse não entender porque Hinton não se pronunciou durante a década em que assumiu uma posição de poder na empresa gigante tecnológica.
Bengio tem revelado consternação durante anos sobre os riscos de curto prazo da IA, incluindo a desestabilização do mercado de trabalho, armamento automatizado e os perigos de dados tendenciosos.
Tais temores exponenciaram recentemente, levando Bengio a juntar-se a outros cientistas e líderes de empresas de tecnologia, como Elon Musk e o cofundador da Apple, Steve Wozniak, que pedem uma pausa de seis meses no desenvolvimento de sistemas de IA mais poderosos do que o modelo mais recente da OpenAI, o GPT-4.