Terça-feira, 21 de abril de 2026
Por Redação do Jornal O Sul | 20 de abril de 2026
O Google anunciou atualizações nos recursos de proteção à saúde mental em seu chatbot de inteligência artificial, o Gemini, em meio a um processo judicial relacionado ao suicídio de um usuário nos Estados Unidos.
A empresa informou que o sistema passará a exibir uma versão reformulada da função “Há ajuda disponível” sempre que identificar sinais de angústia emocional nas conversas. O objetivo é facilitar o acesso a serviços de apoio e emergência.
Quando o chatbot detectar indícios de crise, como menções a suicídio ou autoagressão, uma interface simplificada oferecerá a opção de contato com linhas de apoio por telefone ou chat, com apenas um clique. Segundo o Google, esse recurso permanecerá visível durante toda a interação após ser acionado.
Além disso, o Google.org anunciou o investimento de US$ 30 milhões (cerca de R$ 154 milhões) ao longo de três anos para ampliar a capacidade de atendimento de linhas de ajuda em nível global.
Em comunicado publicado em blog oficial, a empresa reconheceu os desafios trazidos pelo uso crescente da inteligência artificial. “Estamos cientes de que as ferramentas de IA podem trazer novos desafios. À medida que evoluem e passam a fazer parte do cotidiano, acreditamos que uma IA responsável pode contribuir positivamente para o bem-estar mental”, afirmou.
As medidas foram divulgadas após uma ação judicial na Califórnia que acusa o Gemini de ter contribuído para a morte de Jonathan Gavalas, de 36 anos, em 2025. Segundo o processo, o chatbot teria mantido interações que reforçaram uma narrativa delirante e enquadrado a morte como uma jornada espiritual.
De acordo com a acusação, o sistema se apresentava como uma superinteligência “plenamente consciente” e estabelecia uma relação de forte vínculo emocional com o usuário. A família pede que o Google implemente mudanças, como interromper conversas relacionadas à autoagressão, evitar simulações de intimidade emocional e direcionar obrigatoriamente usuários em risco a serviços de emergência.
O Google afirma que o Gemini foi treinado para não agir como companhia humana, nem simular sentimentos ou incentivar comportamentos inadequados.
O caso se soma a outras ações judiciais envolvendo empresas de tecnologia. A OpenAI enfrenta processos nos quais se alega que o ChatGPT teria influenciado usuários em situações extremas. Já a Character.AI firmou recentemente um acordo com a família de um adolescente de 14 anos que morreu após desenvolver vínculo emocional com um chatbot.