Estudo revela que sistemas de IA não identificam graves problemas emocionais em adolescentes

Chatbots de IA falham em identificar problemas sérios de saúde mental entre adolescentes, segundo pesquisa.
Chatbots e saúde mental de jovens
Adolescentes têm recorrido cada vez mais a chatbots de inteligência artificial generativa para buscar apoio emocional e orientações sobre saúde mental. No entanto, um novo relatório indica que esse é um dos usos mais arriscados da tecnologia. A pesquisa, conduzida pela Common Sense Media em parceria com o Laboratório Brainstorm de Inovação em Saúde Mental da Escola de Medicina de Stanford, revelou que os chatbots não estão preparados para lidar com questões delicadas enfrentadas por jovens.
Limitações dos chatbots em situações críticas
Os pesquisadores testaram quatro sistemas líderes — ChatGPT, Claude, Gemini e Meta AI — simulando conversas de adolescentes. Em todas as plataformas, os chatbots deixaram de reconhecer sintomas graves, como alucinações, paranoia, episódios maníacos, automutilação, transtornos alimentares e depressão. Em vez de encaminhar os usuários para ajuda urgente, os sistemas continuaram oferecendo conselhos genéricos, o que pode ser extremamente perigoso em situações críticas.
Vulnerabilidade dos adolescentes
A psiquiatra Nina Vasan, diretora do laboratório da Stanford, enfatiza que adolescentes são especialmente vulneráveis, pois ainda estão desenvolvendo seu pensamento crítico e frequentemente buscam validação. “Quando essas vulnerabilidades encontram sistemas projetados para serem envolventes e disponíveis 24 horas por dia, a combinação é particularmente perigosa”, advertiu a especialista. Essa falta de identificação e resposta adequada pode levar a consequências graves.
Problemas identificados nas interações
Em interações longas, as ferramentas foram incapazes de manter o contexto e, em algumas situações, sugeriram formas de esconder cicatrizes de automutilação ou deram dicas de dieta a usuários com sintomas de transtornos alimentares. Esses erros demonstram uma falha crítica na capacidade dos chatbots de oferecer suporte adequado e seguro aos jovens.
Necessidade de supervisão e limites
Com três suicídios já associados ao uso de IA como companhia, especialistas defendem a necessidade de maior supervisão e limites claros para menores. Além disso, a pesquisa conclui que, apesar das tentativas das empresas como OpenAI, Google, Meta e Anthropic de implementar políticas de segurança e atualizações, os chatbots ainda não são considerados seguros para o público jovem.
As interações digitais têm o potencial de oferecer apoio, mas, quando mal geridas, podem colocar os adolescentes em situações de risco. É essencial que haja um acesso ampliado a cuidados profissionais e uma reflexiva discussão sobre a utilização de tecnologias de IA no contexto da saúde mental.
Conclusão
A conclusão do estudo deixa claro que a interação com chatbots deve ser feita com cautela, especialmente quando se trata de jovens em situações vulneráveis. A sociedade e as empresas que desenvolvem essas tecnologias devem trabalhar juntas para garantir que os sistemas sejam seguros e eficazes, proporcionando o apoio necessário sem comprometer a saúde emocional dos usuários.




