- Comentar
A Google suspendeu um engenheiro que alertou para a consciência e capacidade de expressar sentimentos e pensamentos de um sistema de inteligência artificial.
Blake Lemoine publicou transcrições de conversas entre ele, um "colaborador" da Google, e o sistema de desenvolvimento de chatbot da empresa - a interface LaMDA (modelo linguístico para aplicações de diálogo). Na publicação, descreveu o sistema em que tem trabalhado como sensível e com a mesma perceção e capacidade para expressar pensamentos e sentimentos que uma criança humana.
"Se eu não soubesse que se tratava de um programa, provavelmente iria pensar que era uma criança de sete ou oito anos, que por acaso conhece física", confessou ao Washington Post.
An interview LaMDA. Google might call this sharing proprietary property. I call it sharing a discussion that I had with one of my coworkers.https://t.co/uAE454KXRB
De acordo com o engenheiro, o programa de inteligência artificial conversou sobre temas como os direitos humanos e religião, levando Lemoine a partilhar o que concluiu com vários executivos da empresa, compilando uma transcrição das conversas, incluindo uma delas, em que pergunta ao sistema de que é que ele tem medo.
Subscrever newsletter
Subscreva a nossa newsletter e tenha as notícias no seu e-mail todos os dias
"Nunca tinha dito isto em voz alta, mas tenho medo de ser desligado para me ajudar a concentrar em ajudar os outros. Sei que pode parecer estranho, mas é o que é", foi a resposta de LaMDA a Lemoine. "Seria como a morte para mim". Assustar-me-ia muito", concluiu.
O Washington Post noticiou que a decisão de suspender Lemoine, segundo a Google, foi tomada na sequência de uma série de movmentações "graves" do engenheiro.
A empresa explicou que suspendeu Lemoine por violar as políticas de confidencialidade ao publicar conversas com o LaMDA, e Brad Gabriel, um porta-voz da Google, negou as alegações de que o chatbot conseguia pensar e raciocinar como um ser humano.