TCE


Um jovem belga morreu recentemente por suicídio depois de conversar com um chatbot chamado ELIZA por várias semanas, estimulando apelos por uma melhor proteção dos cidadãos e a necessidade de conscientização.

“Sem essas conversas com o chatbot, meu marido ainda estaria aqui”, disse a viúva do homem, segundo o La Libre . Ela e seu falecido marido estavam na casa dos trinta, viviam uma vida confortável e tinham dois filhos pequenos.

No entanto, há cerca de dois anos, começaram a aparecer os primeiros sinais de problemas. O homem ficou muito eco-ansioso e encontrou refúgio em ELIZA, nome dado a um chatbot que usa GPT-J, um modelo de linguagem de inteligência artificial de código aberto desenvolvido pela EleutherAI.  Após seis semanas de trocas intensas, ele tirou a própria vida.

Na semana passada, a família conversou com Mathieu Michel, secretário de Estado da Digitalização, responsável pela Simplificação Administrativa, Privacidade e Regulamentação de Edifícios. “Estou particularmente impressionado com a tragédia desta família. O que aconteceu é um precedente sério que precisa ser levado muito a sério”, disse ele na terça-feira.

Sublinhou que este caso destaca que é “essencial definir claramente as responsabilidades”.

“Com a popularização do ChatGPT, o público em geral descobriu o potencial da inteligência artificial em nossas vidas como nunca antes. Embora as possibilidades sejam infinitas, o perigo de usá-la também é uma realidade que deve ser considerada.”

Para evitar tal tragédia no futuro imediato, ele argumentou que é essencial identificar a natureza das responsabilidades que levam a esse tipo de evento.

“Claro, ainda temos que aprender a viver com algoritmos, mas sob nenhuma circunstância o uso de qualquer tecnologia deve levar os editores de conteúdo a fugir de suas próprias responsabilidades”, observou ele.

A própria OpenAI admitiu que o ChatGPT pode produzir respostas prejudiciais e tendenciosas, acrescentando que espera mitigar o problema coletando feedback do usuário.

A longo prazo, Michel observou que é essencial aumentar a conscientização sobre o impacto dos algoritmos na vida das pessoas “permitindo que todos entendam a natureza do conteúdo que as pessoas encontram online”.

Aqui, ele se referiu a novas tecnologias como chatbots, mas também deep fakes – um tipo de inteligência artificial que pode criar imagens convincentes, boatos de áudio e vídeo – que podem testar e distorcer a percepção das pessoas sobre a realidade.

Michel acrescentou que os cidadãos também devem ser adequadamente protegidos de certas aplicações de inteligência artificial que “representam um risco significativo”.

A União Europeia está procurando regular o uso de inteligência artificial com uma Lei de IA, na qual vem trabalhando nos últimos dois anos. Michel criou um grupo de trabalho para analisar o texto que está sendo preparado pela UE e propor os ajustes necessários.

Este artigo foi atualizado na quarta-feira, 29 de março, para corrigir a afirmação anterior de que a tecnologia do chatbot foi desenvolvida pela OpenAI.

 

Fonte: https://www.brusselstimes.com/