Meta planeja aplicar IA de forma que preocupa setor de segurança

A Meta, controladora de plataformas como Facebook e Instagram, planeja automatizar grande parte de suas avaliações de risco com o uso de inteligência artificial, segundo documentos enviados ao órgão regulador britânico Ofcom. A iniciativa gerou preocupação entre entidades ligadas à segurança digital, que pressionam por maior supervisão humana no processo.

O plano, que poderá substituir análises feitas por especialistas, acendeu alertas em meio à regulação da nova Lei de Segurança Online do Reino Unido.

Leia mais: Meta anuncia projeto para usar usina nuclear desativada na produção de energia

Avaliação de risco pode ser feita sem humanos

inteligência artificial
Imagem: Freepik

De acordo com a proposta submetida à Ofcom, a Meta pretende usar IA para automatizar até 90% de suas análises de risco. A tecnologia seria responsável por responder questionários preenchidos pelas equipes de desenvolvimento e fornecer uma decisão imediata, que normalmente levaria semanas de avaliação por especialistas humanos.

As respostas geradas pela IA seriam consideradas suficientes, segundo o plano da empresa, e a intervenção humana ocorreria apenas quando o sistema não pudesse chegar a uma conclusão clara ou o recurso fosse classificado como de alto risco.

Organizações exigem supervisão humana obrigatória

A proposta causou forte reação de entidades ligadas à proteção digital, que enviaram uma carta à Ofcom exigindo que as análises automatizadas não substituam a supervisão humana. A carta foi assinada por organizações como a Fundação Molly Rose, NSPCC, Internet Watch Foundation, Centre for Countering Digital Hate e Reset.tech.

As entidades afirmam que “essa abordagem é um passo atrás altamente alarmante que sinaliza uma falta de seriedade com os riscos enfrentados por crianças” e pedem que a Ofcom determine que o uso de IA por si só não atenda às exigências da nova legislação.

Meta defende uso de IA como ferramenta de apoio

A Meta respondeu às críticas afirmando que o sistema automatizado não substitui a supervisão humana e que a ferramenta foi desenvolvida para ajudar as equipes a identificar requisitos legais e de políticas internas. Em nota, a empresa declarou:

“Não estamos usando IA para tomar decisões sobre risco. Em vez disso, nossos especialistas construíram uma ferramenta que ajuda equipes a identificar quando requisitos legais e de política se aplicam a produtos específicos. Usamos tecnologia, supervisionada por humanos, para melhorar nossa capacidade de gerenciar conteúdo prejudicial e nossos avanços tecnológicos melhoraram significativamente os resultados de segurança.”

A empresa acrescentou ainda que a ferramenta é usada apenas para recursos de baixo risco e que a análise humana permanece para os casos mais críticos.

Ofcom avalia reação e pode impor limites

Em resposta à carta das entidades, a Ofcom declarou que está considerando as preocupações levantadas e destacou que as empresas devem informar claramente quem completou, revisou e aprovou cada avaliação de risco.

A regulação da Lei de Segurança Online prevê que plataformas como a Meta devem adotar medidas proativas para reduzir a exposição de usuários a conteúdos ilegais e prejudiciais, e a forma como essas medidas são executadas está no centro do debate.

Conclusão: tecnologia, responsabilidade e transparência em xeque

O debate em torno da aplicação da inteligência artificial pela Meta revela uma tensão crescente entre inovação tecnológica e responsabilidade social. Enquanto a empresa defende o uso da IA como ferramenta de apoio à segurança, organizações independentes alertam para os riscos de automatizar processos sensíveis sem a devida supervisão humana.

A controvérsia também evidencia a necessidade de regulações claras e eficazes que acompanhem o avanço das tecnologias. No centro da discussão, permanece uma questão essencial: como equilibrar eficiência operacional com a proteção de direitos fundamentais dos usuários, especialmente os mais vulneráveis, como crianças e adolescentes?

Com informações de: Olhar Digital