Seu Crédito Digital
O Seu Crédito Digital é um portal de conteúdo em finanças, com atualizações sobre crédito, cartões de crédito, bancos e fintechs.

Meta quer IA mais invasiva? Medida gera preocupação entre usuários e especialistas

Entenda como o uso de IA pela Meta levanta alertas de especialistas. Leia e saiba o que isso pode mudar na sua segurança online!

A Meta, empresa responsável por gigantes das redes sociais como Facebook, Instagram e Threads, está no centro de uma nova polêmica. O motivo: seus planos de ampliar o uso da inteligência artificial (IA) em processos considerados cruciais para a segurança dos usuários nas plataformas.

Ativistas e especialistas em segurança digital levantaram um forte alerta, afirmando que a proposta da big tech pode representar um “retrocesso alarmante” na proteção dos direitos dos usuários — especialmente crianças e adolescentes.

Leia mais:

Moraes determina e Meta e X removem perfis de Zambelli e sua mãe

Ativistas reagem à proposta: carta à Ofcom

Scale AI Meta
Imagem: Divulgação / Meta IA

Quem está por trás do apelo?

Organizações de peso, como a Molly Rose Foundation, NSPCC (National Society for the Prevention of Cruelty to Children) e a Internet Watch Foundation, assinaram uma carta enviada à Ofcom, órgão regulador de comunicações do Reino Unido.

O pedido foi claro: que o regulador limite o uso de IA em avaliações de risco obrigatórias previstas na Lei de Segurança Online britânica.

O que diz a Lei de Segurança Online?

A legislação exige que plataformas digitais identifiquem possíveis danos que seus serviços possam causar — e apresentem estratégias de mitigação. Esses riscos incluem a disseminação de conteúdos ilegais, violência e, sobretudo, a exposição de menores de idade a conteúdos inadequados.

A preocupação central dos ativistas é que a automação dessas avaliações, por meio da IA, enfraqueça a efetividade da proteção, já que a análise humana seria substituída por algoritmos com possíveis falhas de julgamento e sem a sensibilidade necessária.

Como a Meta se defende?

Declaração oficial da empresa

Em resposta às críticas, a Meta afirmou que a carta enviada distorce sua política de segurança. A empresa defende que a IA não toma decisões sobre riscos de forma autônoma. Segundo um porta-voz:

“Nossos especialistas construíram uma ferramenta que ajuda equipes a identificar quando requisitos legais e de política se aplicam a produtos específicos.”

A empresa também destacou que a tecnologia utilizada é supervisionada por humanos e que os avanços tecnológicos recentes melhoraram consideravelmente os resultados de segurança em suas plataformas.

Por que a reação é tão forte?

Contexto de desconfiança

As críticas se intensificaram após uma reportagem da NPR revelar, em maio, que atualizações de algoritmos e novos recursos de segurança da Meta estavam sendo aprovados automaticamente por sistemas de IA, sem revisão humana.

Um ex-executivo da empresa afirmou, sob anonimato, que essa prática poderia aumentar os riscos para os usuários e diminuir a capacidade de prevenir problemas antes que as mudanças fossem lançadas.

Além disso, a NPR indicou que áreas sensíveis — como o risco juvenil e a disseminação de desinformação — estavam sendo diretamente impactadas por essa automação.

Nova face da vigilância digital?

Acusações sobre rastreamento em dispositivos Android

Outro ponto que amplia o debate sobre privacidade envolve uma investigação conduzida por cientistas da computação da IMDEA Networks (Espanha), Radboud University (Holanda) e KU Leuven (Bélgica).

Os pesquisadores acusam a Meta de burlar proteções de VPN e guias anônimas em dispositivos Android para rastrear o histórico de navegação dos usuários.

Segundo o relatório, a prática cruza dados coletados pelo Meta Pixel (mecanismo de rastreamento de anúncios) com informações obtidas pelos aplicativos Facebook e Instagram.

Isso permitiria à Meta associar o comportamento do usuário em sites externos ao seu endereço IP, mesmo com medidas de privacidade ativadas.

Papel da Ofcom e possíveis desdobramentos

Resposta oficial do regulador

Em nota, a Ofcom declarou que está considerando seriamente as preocupações levantadas pelas organizações. O órgão afirmou que exigirá das empresas informações claras sobre quem realizou e aprovou cada avaliação de risco, e que se manifestará oficialmente em breve.

Riscos e desafios do uso de IA em segurança digital

Automação não é garantia de confiabilidade

Apesar dos avanços em inteligência artificial, a substituição da análise humana em processos de segurança levanta sérias questões éticas e técnicas. Algoritmos podem reproduzir vieses e apresentar falhas críticas, principalmente em contextos delicados, como o reconhecimento de conteúdo impróprio ou perigoso para menores.

Além disso, há o risco de que empresas passem a usar a IA como escudo para justificar decisões automatizadas, sem responsabilização humana direta.

Equilíbrio entre inovação e proteção

Não se discute que a IA pode ajudar na moderação de conteúdo em larga escala, identificando padrões, removendo conteúdos rapidamente e aprimorando sistemas de denúncia.

O que preocupa é a falta de transparência nos critérios adotados, a ausência de revisão humana e o risco de erros com consequências graves.

Transparência e regulação: o que esperar?

Inteligência Artificial
Imagem: Canva

O debate evidencia a necessidade urgente de regulação clara sobre o uso de IA por grandes plataformas. A Lei de Segurança Online britânica é um passo importante, mas a aplicação prática precisa ser acompanhada de perto por reguladores independentes, com participação da sociedade civil.

Tendência global

Casos semelhantes já foram registrados em outros países. Nos Estados Unidos e na União Europeia, cresce a pressão por leis que garantam o direito à explicação das decisões automatizadas e limitem o uso de dados sensíveis por algoritmos.

Conclusão

A disputa entre inovação tecnológica e preservação de direitos fundamentais — como privacidade e segurança — está cada vez mais no centro das discussões sobre o futuro digital.

A Meta, com seu alcance global e influência sobre bilhões de usuários, precisa encontrar um equilíbrio real entre agilidade tecnológica e responsabilidade ética.

Enquanto isso, cabe à sociedade civil, governos e especialistas manterem a vigilância ativa sobre as escolhas feitas pelas big techs — principalmente quando envolvem dados sensíveis, segurança infantil e liberdade de expressão.

Imagem: rafapress / shutterstock.com