Meta quer IA mais invasiva? Medida gera preocupação entre usuários e especialistas
Entenda como o uso de IA pela Meta levanta alertas de especialistas. Leia e saiba o que isso pode mudar na sua segurança online!
A Meta, empresa responsável por gigantes das redes sociais como Facebook, Instagram e Threads, está no centro de uma nova polêmica. O motivo: seus planos de ampliar o uso da inteligência artificial (IA) em processos considerados cruciais para a segurança dos usuários nas plataformas.
Ativistas e especialistas em segurança digital levantaram um forte alerta, afirmando que a proposta da big tech pode representar um “retrocesso alarmante” na proteção dos direitos dos usuários — especialmente crianças e adolescentes.
Leia mais:
Moraes determina e Meta e X removem perfis de Zambelli e sua mãe
Ativistas reagem à proposta: carta à Ofcom
Quem está por trás do apelo?
Organizações de peso, como a Molly Rose Foundation, NSPCC (National Society for the Prevention of Cruelty to Children) e a Internet Watch Foundation, assinaram uma carta enviada à Ofcom, órgão regulador de comunicações do Reino Unido.
O pedido foi claro: que o regulador limite o uso de IA em avaliações de risco obrigatórias previstas na Lei de Segurança Online britânica.
O que diz a Lei de Segurança Online?
A legislação exige que plataformas digitais identifiquem possíveis danos que seus serviços possam causar — e apresentem estratégias de mitigação. Esses riscos incluem a disseminação de conteúdos ilegais, violência e, sobretudo, a exposição de menores de idade a conteúdos inadequados.
A preocupação central dos ativistas é que a automação dessas avaliações, por meio da IA, enfraqueça a efetividade da proteção, já que a análise humana seria substituída por algoritmos com possíveis falhas de julgamento e sem a sensibilidade necessária.
Como a Meta se defende?
Declaração oficial da empresa
Em resposta às críticas, a Meta afirmou que a carta enviada distorce sua política de segurança. A empresa defende que a IA não toma decisões sobre riscos de forma autônoma. Segundo um porta-voz:
“Nossos especialistas construíram uma ferramenta que ajuda equipes a identificar quando requisitos legais e de política se aplicam a produtos específicos.”
A empresa também destacou que a tecnologia utilizada é supervisionada por humanos e que os avanços tecnológicos recentes melhoraram consideravelmente os resultados de segurança em suas plataformas.
Por que a reação é tão forte?
Contexto de desconfiança
As críticas se intensificaram após uma reportagem da NPR revelar, em maio, que atualizações de algoritmos e novos recursos de segurança da Meta estavam sendo aprovados automaticamente por sistemas de IA, sem revisão humana.
Um ex-executivo da empresa afirmou, sob anonimato, que essa prática poderia aumentar os riscos para os usuários e diminuir a capacidade de prevenir problemas antes que as mudanças fossem lançadas.
Além disso, a NPR indicou que áreas sensíveis — como o risco juvenil e a disseminação de desinformação — estavam sendo diretamente impactadas por essa automação.
Nova face da vigilância digital?
Acusações sobre rastreamento em dispositivos Android
Outro ponto que amplia o debate sobre privacidade envolve uma investigação conduzida por cientistas da computação da IMDEA Networks (Espanha), Radboud University (Holanda) e KU Leuven (Bélgica).
Os pesquisadores acusam a Meta de burlar proteções de VPN e guias anônimas em dispositivos Android para rastrear o histórico de navegação dos usuários.
Segundo o relatório, a prática cruza dados coletados pelo Meta Pixel (mecanismo de rastreamento de anúncios) com informações obtidas pelos aplicativos Facebook e Instagram.
Isso permitiria à Meta associar o comportamento do usuário em sites externos ao seu endereço IP, mesmo com medidas de privacidade ativadas.
Papel da Ofcom e possíveis desdobramentos
Resposta oficial do regulador
Em nota, a Ofcom declarou que está considerando seriamente as preocupações levantadas pelas organizações. O órgão afirmou que exigirá das empresas informações claras sobre quem realizou e aprovou cada avaliação de risco, e que se manifestará oficialmente em breve.
Riscos e desafios do uso de IA em segurança digital
Automação não é garantia de confiabilidade
Apesar dos avanços em inteligência artificial, a substituição da análise humana em processos de segurança levanta sérias questões éticas e técnicas. Algoritmos podem reproduzir vieses e apresentar falhas críticas, principalmente em contextos delicados, como o reconhecimento de conteúdo impróprio ou perigoso para menores.
Além disso, há o risco de que empresas passem a usar a IA como escudo para justificar decisões automatizadas, sem responsabilização humana direta.
Equilíbrio entre inovação e proteção
Não se discute que a IA pode ajudar na moderação de conteúdo em larga escala, identificando padrões, removendo conteúdos rapidamente e aprimorando sistemas de denúncia.
O que preocupa é a falta de transparência nos critérios adotados, a ausência de revisão humana e o risco de erros com consequências graves.
Transparência e regulação: o que esperar?
O debate evidencia a necessidade urgente de regulação clara sobre o uso de IA por grandes plataformas. A Lei de Segurança Online britânica é um passo importante, mas a aplicação prática precisa ser acompanhada de perto por reguladores independentes, com participação da sociedade civil.
Tendência global
Casos semelhantes já foram registrados em outros países. Nos Estados Unidos e na União Europeia, cresce a pressão por leis que garantam o direito à explicação das decisões automatizadas e limitem o uso de dados sensíveis por algoritmos.
Conclusão
A disputa entre inovação tecnológica e preservação de direitos fundamentais — como privacidade e segurança — está cada vez mais no centro das discussões sobre o futuro digital.
A Meta, com seu alcance global e influência sobre bilhões de usuários, precisa encontrar um equilíbrio real entre agilidade tecnológica e responsabilidade ética.
Enquanto isso, cabe à sociedade civil, governos e especialistas manterem a vigilância ativa sobre as escolhas feitas pelas big techs — principalmente quando envolvem dados sensíveis, segurança infantil e liberdade de expressão.
Imagem: rafapress / shutterstock.com
