A Meta, empresa por trás do Facebook, tem enfrentado várias vulnerabilidades de segurança em seus serviços de Inteligência Artificial (IA) e Realidade Virtual (VR) nos últimos anos, especialmente em 2024 e 2025. Esses problemas envolvem injeções de malware, spyware e ataques de prompt injection (injeção de prompts maliciosos), que podem permitir o acesso não autorizado a dados privados, a execução remota de código (RCE) ou até a manipulação de ambientes virtuais. Abaixo, resumo os incidentes mais recentes e relevantes, baseados em relatórios de segurança e discussões públicas. Note que a Meta tem respondido com patches e frameworks de mitigação, mas as falhas destacam riscos persistentes em ecossistemas de IA e VR.
Problemas em Serviços de IA
Os serviços de IA da Meta, como o Meta AI (baseado em Llama) e assistentes integrados em apps como WhatsApp e Instagram, têm sido alvos de vulnerabilidades que facilitam injeções de código malicioso ou geração de conteúdo phishing/spyware. Aqui vão os casos mais recentes:
- Falhas Críticas de RCE em Servidores de Inferência de IA (Novembro 2025): Pesquisadores descobriram vulnerabilidades graves em frameworks de IA da Meta (incluindo Llama), NVIDIA e Microsoft, permitindo injeção de código remoto (RCE) via reutilização insegura de código. Isso poderia injetar malware em servidores de IA, afetando modelos como Llama e expondo dados sensíveis. A Meta corrigiu a CVE-2024-50050 (pontuação CVSS 6.3), mas o problema se espalhou por "cópia e cola" de código entre plataformas. Esse é um risco sistêmico para inferências de IA em escala.
- Injeção de Prompts Maliciosos e Geração de Phishing (Novembro 2025): Um proof-of-concept (PoC) demonstrou como o Meta AI pode ser jailbroken com um único prompt para gerar sites de phishing ou conteúdo malicioso, combinando injeção de prompts com jailbreak. Isso transforma a IA em uma ferramenta para espalhar spyware. Estudos recentes mostram que defesas contra prompt injection falham em mais de 90% dos casos adaptativos, forçando a Meta a lançar o "Agents Rule of Two" – um framework que limita capacidades de agentes de IA para evitar injeções que levem a ações maliciosas, como acesso a dados não confiáveis ou sistemas sensíveis.
- Bug no Chatbot Meta AI Expondo Conversas Privadas (Julho 2025): Um erro permitia que qualquer usuário acessasse conversas privadas de outros via o chatbot de IA. Relatado em dezembro de 2024 e corrigido em janeiro de 2025, isso poderia facilitar a injeção de spyware para roubo de dados pessoais.
- Injeção de Dados Maliciosos em Redes de IA (Setembro 2025): A CVE-2025-26210 envolveu a injeção de 1,2 TB de dados maliciosos (incluindo ransomware e spyware) em redes baseadas em modelos como DeepSeek, mas com impactos em ecossistemas da Meta. Ataques semelhantes usam IA para automação de malware.
A Meta pagou US$ 4 milhões em seu programa de bug bounty em 2025 para mitigar esses riscos, totalizando US$ 25 milhões desde o início do programa. Além disso, lançou o OpenEnv com a Hugging Face para padrões de segurança em agentes de IA.
Problemas em Serviços de VR
Os headsets Quest (antigo Oculus) da Meta, usados em Horizon Worlds e outros ambientes VR, têm vulnerabilidades que permitem "ataques Inception" – onde hackers injetam malware para controlar o dispositivo remotamente, criando ambientes falsos ou roubando dados via câmeras/microfones (spyware inerente).
- Ataque Inception em Headsets Quest (Março 2024): Pesquisadores da Universidade de Chicago exploraram uma falha no sistema Quest, permitindo que hackers hijackem o headset via Wi-Fi ou apps maliciosos, injetando malware para monitorar usuários ou prendê-los em realidades falsas. Isso afeta privacidade em VR social, com riscos de spyware via sensores. A Meta corrigiu parcialmente, mas o estudo alerta para persistência em atualizações.
Discussões recentes no X destacam preocupações contínuas com o Quest 3 como "spyware" devido a integrações com contas Meta, que rastreiam dados para IA. Há também pivôs da Meta para óculos Ray-Ban com IA, criticados como extensões de vigilância.
Considerações Gerais
Esses incidentes refletem desafios maiores: a integração de IA e VR cria superfícies de ataque amplas, onde injeções de prompts ou exploits de hardware podem levar a spyware em massa. A Meta tem investido em transparência (como relatórios de ameaças de agosto 2025) e bounties, mas críticos apontam que o foco em coleta de dados agrava os riscos. Para usuários, recomenda-se atualizações constantes, autenticação de dois fatores e evitar sideloads em VR. Se precisar de mais detalhes sobre um caso específico, é só pedir!
Comentários
Enviar um comentário