Vulnerabilidade descoberta pode comprometer a privacidade em assistentes de inteligência artificial

Microsoft revela vulnerabilidade que pode expor temas de conversas criptografadas em assistentes de IA.
Falha em IA da Microsoft compromete a privacidade das conversas
A Microsoft revelou uma vulnerabilidade significativa, conhecida como “Whisper Leak”, que pode comprometer a privacidade das conversas realizadas com assistentes de inteligência artificial, como ChatGPT e Google Gemini. Essa falha foi descoberta em uma série de testes com modelos de linguagem de grande escala (LLMs) e pode permitir que terceiros identifiquem o tema das conversas, mesmo sem acesso direto ao conteúdo.
De acordo com informações da Microsoft, o problema afeta praticamente todos os modelos analisados, levantando sérias preocupações sobre a segurança de dados em serviços amplamente utilizados por milhões de pessoas em todo o mundo. As conversas com chatbots são protegidas por TLS (Transport Layer Security) — o mesmo protocolo de segurança utilizado em transações bancárias online. Embora o TLS impeça que invasores leiam o texto das mensagens, ele não esconde completamente os metadados, ou seja, informações sobre o tráfego de dados, como o tamanho e o tempo entre os pacotes transmitidos.
Esses detalhes, que podem parecer inofensivos, podem ser explorados para deduzir o tema da conversa. A Microsoft testou 28 modelos de IA, criando duas categorias de perguntas: uma sobre um assunto sensível, como lavagem de dinheiro, e outra composta por consultas aleatórias. O estudo mostrou que um sistema de IA treinado apenas com esses padrões de tráfego foi capaz de identificar corretamente o tema das conversas com mais de 98% de precisão.
Precisão alarmante na detecção de tópicos sensíveis
Em alguns casos, a detecção de tópicos sensíveis chegou a 100% de acerto, mesmo quando representavam apenas 1 em cada 10 mil conversas. Os pesquisadores tentaram aplicar três diferentes métodos de defesa contra o ataque, mas nenhum conseguiu bloquear totalmente o vazamento. Segundo a equipe, o problema não reside na criptografia em si, mas na forma como os dados são transmitidos. “Esta não é uma vulnerabilidade criptográfica no TLS, mas uma exploração dos metadados que o protocolo inevitavelmente revela”, explicaram os especialistas em seu artigo.
Urgência em desenvolver soluções de segurança
A Microsoft alertou que o setor precisa agir rapidamente para evitar que futuras gerações de modelos de IA sejam afetadas por essa vulnerabilidade. O relatório destaca a urgência de desenvolver novas soluções de segurança para proteger informações sensíveis e evitar que metadados exponham padrões de comportamento dos usuários. Entre os principais pontos do estudo estão:
- A falha “Whisper Leak” afeta a maioria dos modelos de IA testados.
- Metadados permitem identificar o tema das conversas, mesmo com criptografia ativa.
- O método de detecção teve precisão superior a 98%.
- Nenhuma das soluções testadas eliminou totalmente o vazamento.
- A Microsoft pede reforço nas medidas de segurança em sistemas de IA.
Os resultados reforçam a importância de uma abordagem mais robusta na proteção de dados em ambientes de IA, especialmente à medida que essas tecnologias passam a lidar com informações cada vez mais sensíveis e pessoais. Essa reportagem usou informações do TechXplore e da Microsoft.




