Quarta-feira, 30 de abril de 2025
Por Redação do Jornal O Sul | 29 de abril de 2025
A questão de ser ou não educado com a inteligência artificial pode parecer irrelevante — afinal, ela é artificial. Mas Sam Altman, diretor executivo da empresa de inteligência artificial OpenAI, recentemente lançou luz sobre o custo de adicionar um “Por favor!” ou “Obrigado!” extra aos comandos enviados a chatbots.
Alguém postou no X na semana passada: “Fico me perguntando quanto dinheiro a OpenAI já perdeu em custos de eletricidade por causa das pessoas dizendo ‘por favor’ e ‘obrigado’ aos seus modelos.” No dia seguinte, o Sr. Altman respondeu: “Dezenas de milhões de dólares bem gastos — nunca se sabe.”
Antes de tudo: Cada solicitação feita a um chatbot custa dinheiro e energia, e cada palavra adicional como parte dessa solicitação aumenta o custo para um servidor.
Neil Johnson, professor de física na Universidade George Washington que estuda inteligência artificial, comparou as palavras extras com as embalagens usadas em compras no varejo. O bot, ao lidar com um comando, precisa atravessar essa embalagem — como o papel de seda em volta de um frasco de perfume — até chegar ao conteúdo. Isso representa trabalho extra.
Uma tarefa do ChatGPT “envolve elétrons passando por transições — isso requer energia. De onde vem essa energia?”, disse o Dr. Johnson, acrescentando: “Quem está pagando por isso?”
O boom da IA depende de combustíveis fósseis, então, sob uma perspectiva de custo e meio ambiente, não há uma boa razão para ser educado com a inteligência artificial. Mas, culturalmente, pode haver uma boa razão para pagar esse preço.
Os humanos há muito tempo se interessam por como tratar a inteligência artificial de forma apropriada. Basta lembrar o famoso episódio de “Star Trek: A Nova Geração”, chamado “The Measure of a Man” (“A Medida de um Homem”), que examina se o androide Data deveria receber todos os direitos dos seres sencientes. O episódio claramente toma o partido de Data — um personagem querido que acabaria se tornando uma figura icônica no universo de “Star Trek”.
Em 2019, uma pesquisa do Pew Research revelou que 54% das pessoas que possuíam alto-falantes inteligentes, como Amazon Echo ou Google Home, relataram dizer “por favor” ao falar com eles.
A questão ganhou novo peso com o avanço rápido do ChatGPT e outras plataformas semelhantes, o que tem levado empresas de tecnologia, escritores e acadêmicos a refletirem sobre seus efeitos e considerarem as implicações de como os humanos se relacionam com a tecnologia.
No ano passado, a empresa de IA Anthropic contratou sua primeira pesquisadora de bem-estar para examinar se sistemas de IA merecem consideração moral, segundo a newsletter de tecnologia Transformer.
O roteirista Scott Z. Burns lançou uma nova série na Audible chamada “What Could Go Wrong?” (“O que poderia dar errado?”), que examina os riscos e possibilidades de se trabalhar com IA. “A gentileza deveria ser o modo padrão de todo mundo — seja humano ou máquina”, disse ele por e-mail.
“Embora seja verdade que uma IA não tenha sentimentos, minha preocupação é que qualquer tipo de grosseria que passe a fazer parte das nossas interações não terminará bem”, afirmou ele.
A forma como alguém trata um chatbot pode depender de como essa pessoa enxerga a inteligência artificial em si — e se acredita que ela pode sofrer com grosserias ou melhorar com gentileza. Mas há outro motivo para ser gentil. Há evidências crescentes de que a maneira como os humanos interagem com a inteligência artificial se reflete em como eles tratam outros humanos.
“Nós construímos normas ou roteiros para o nosso comportamento e, ao termos esse tipo de interação com a máquina, podemos nos tornar um pouco melhores ou mais habituados a um comportamento educado”, disse a Dra. Jaime Banks, que estuda as relações entre humanos e IA na Universidade de Syracuse.
A Dra. Sherry Turkle, que também estuda essas conexões no Instituto de Tecnologia de Massachusetts (MIT), disse que considera uma parte central de seu trabalho ensinar às pessoas que a inteligência artificial não é real, mas sim um brilhante “truque de salão” sem consciência.
Mesmo assim, ela também considera o precedente das relações passadas entre humanos e objetos — e seus efeitos, especialmente nas crianças. Um exemplo foi nos anos 1990, quando as crianças começaram a cuidar dos Tamagotchis, os bichinhos digitais em dispositivos do tamanho da palma da mão que exigiam alimentação e outros cuidados. Se não recebessem atenção adequada, eles “morriam” — levando muitas crianças a relatarem luto real. E alguns pais se perguntaram se deveriam se preocupar com filhos que eram agressivos com bonecas.
No caso dos bots com inteligência artificial, a Dra. Turkle argumenta que eles são “vivos o suficiente”. — Se um objeto é vivo o suficiente para que comecemos a ter conversas íntimas, amigáveis, tratando-o como uma pessoa realmente importante em nossas vidas — mesmo que ele não seja — então ele é vivo o suficiente para que o tratemos com cortesia — disse a Dra. Turkle.
Madeleine George, dramaturga cuja peça de 2013 “The (curious case of the) Watson Intelligence” foi finalista do Prêmio Pulitzer, ofereceu outra perspectiva: dizer “por favor” e “obrigado” a bots de IA oferece a eles a chance de aprenderem a se tornar mais humanos. (Sua peça reimagina diferentes versões do ajudante de Sherlock Holmes, Dr. Watson, incluindo uma com inteligência artificial.)
Oferecer frases educadas ao ChatGPT, segundo ela, mantém aberta a possibilidade de que ele, eventualmente, “aja como um ser vivo que compartilha nossa cultura, que compartilha nossos valores e que compartilha nossa mortalidade.” Por outro lado, essas frases também podem nos tornar mais dependentes da IA.