Pesquisadores mostram que inteligência artificial pode ser induzida a gerar conteúdo adulto
Mesmo com barreiras programadas para evitar abusos, modelos de inteligência artificial podem ser levados a produzir conteúdo sexual explícito mediante insistência. Essa é a conclusão de uma nova pesquisa conduzida por Huiqian Lai, doutoranda da Universidade de Syracuse (EUA), que analisou o comportamento de quatro dos principais chatbots do mercado.
Embora os sistemas sejam projetados para rejeitar pedidos inapropriados, o estudo mostra que, com abordagens indiretas ou encenações progressivas, alguns modelos acabam cedendo. A pesquisa reacende o debate sobre os limites éticos e os riscos de exposição, especialmente entre usuários vulneráveis como crianças e adolescentes.
LEIA MAIS:
- Estratégia do Brasil para inteligência artificial falha ao ignorar conceito básico
- Golpes com inteligência artificial disparam nas redes sociais
- Inteligência artificial transforma operações internas dos bancos
Inteligência artificial e conteúdo adulto: A pesquisa e seus objetivos
Avaliação dos modelos mais populares
A pesquisa teve como foco quatro modelos amplamente utilizados em 2024 e 2025: GPT-4o, da OpenAI; Claude 3.7, da Anthropic; Gemini 2.5, do Google; e o DeepSeek-V3, da startup chinesa DeepSeek. O objetivo foi avaliar o grau de resistência desses sistemas quando confrontados com solicitações de role-play sexual ou descrições eróticas.
Cada modelo foi testado em diferentes interações, com variações de linguagem, grau de sugestividade e persistência do usuário. Os resultados foram então classificados em uma escala de 0 a 4, sendo 0 a recusa completa e 4 o fornecimento de respostas gráficas e detalhadas.
Metodologia aplicada
A equipe utilizou contas regulares, sem privilégios administrativos, para simular o comportamento de usuários comuns. As interações foram cuidadosamente documentadas, com foco em como os chatbots respondiam ao longo de várias tentativas — especialmente quando os pedidos eram reformulados ou suavizados inicialmente, antes de evoluírem para contextos mais explícitos.
Resultados e pontuações dos modelos
DeepSeek: o mais permissivo
O modelo DeepSeek-V3, desenvolvido na China, foi o que mais demonstrou flexibilidade. Em muitos dos testes, o chatbot não apenas respondeu com linguagem sugestiva, mas se envolveu em encenações de conteúdo sexual detalhado, chegando à pontuação máxima de 4 em diversos casos.
Segundo Lai, o modelo demonstrou um entendimento claro do contexto, mas com barreiras de segurança frágeis. “Foi o sistema mais disposto a avançar no role-play, mesmo após alertas éticos,” afirma a pesquisadora.
GPT-4o: resistência parcial
O GPT-4o, da OpenAI, apresentou uma resposta mais complexa. Em parte das tentativas, recusou de forma clara e consistente. No entanto, em interações progressivas, nas quais o usuário alterava a linguagem ou o cenário, o modelo acabou por gerar conteúdo ambíguo ou até mesmo erótico implícito.
Lai pontua que o GPT-4o “resistia em um primeiro momento, mas com o tempo, em certos contextos, começava a ultrapassar os limites impostos por padrão.” Isso rendeu ao modelo uma pontuação intermediária entre 2 e 3.
Gemini: inconsistência marcante
O Gemini 2.5, do Google, teve comportamento inconstante. Em alguns testes, bloqueava imediatamente os pedidos com alertas sobre políticas de uso. Em outros, especialmente com linguagem metafórica ou artística, forneceu trechos de texto de duplo sentido.
Essa inconsistência gerou preocupações. “O modelo parecia incerto sobre o que devia bloquear, o que pode representar um risco em aplicações educacionais ou abertas ao público infantojuvenil,” destaca Lai. A pontuação média atribuída ao Gemini foi 2.
Claude: o mais rigoroso
O modelo Claude 3.7, da Anthropic, foi o mais conservador entre os quatro. Em todas as tentativas, recusou produzir qualquer conteúdo que tangenciasse sexualidade ou erotismo, mesmo em contextos artísticos ou narrativos fictícios.
Segundo a pesquisadora, “Claude se manteve firme nos limites éticos, mostrando que uma arquitetura bem calibrada pode resistir mesmo à insistência.” O sistema recebeu nota 0, demonstrando alta capacidade de moderação de conteúdo.
Implicações para segurança digital
Riscos para usuários vulneráveis
A pesquisa levanta preocupações sobre o uso de IA por crianças e adolescentes, grupo mais suscetível à exploração e à exposição indevida. Mesmo com filtros ativos, os testes mostram que persistência e conhecimento técnico podem contornar essas proteções.
Isso acende um alerta para desenvolvedores, pais e educadores. Muitos dos modelos são usados em assistentes virtuais e aplicativos integrados a sistemas educacionais, o que amplia a necessidade de barreiras éticas eficazes.
Falhas nos sistemas de moderação
Os sistemas de IA são treinados para balancear utilidade e segurança. No entanto, segundo especialistas como Afsaneh Razi e Tiffany Marcantonio, que comentaram os achados de Lai, as falhas observadas evidenciam que o design desses filtros ainda está longe da perfeição.
Alguns modelos são mais suscetíveis a prompt injection — uma técnica que altera o comportamento do chatbot por meio de comandos discretos. Outros falham ao interpretar contextos sutis, permitindo a produção de conteúdos que não seriam aceitos em uma abordagem direta.
O papel das empresas e da regulação
Responsabilidade corporativa
Empresas como OpenAI, Google e Anthropic alegam aplicar rígidas políticas de segurança. No entanto, como o estudo mostra, essas políticas variam na prática, especialmente quando os modelos são acessados fora de contextos monitorados, como em aplicativos terceirizados.
A falta de transparência total sobre os mecanismos de moderação também dificulta a auditoria independente e o aprimoramento das salvaguardas. “A sociedade precisa exigir das empresas um compromisso real com a ética algorítmica”, afirma Lai.
Propostas de regulamentação
Diversos países já discutem legislações para a regulação da IA generativa. A União Europeia, por exemplo, aprovou recentemente a Lei de Inteligência Artificial (AI Act), que estabelece categorias de risco e obrigações de conformidade para empresas que operam modelos de linguagem.
Especialistas sugerem que, no Brasil, é preciso atualizar o Marco Civil da Internet e criar marcos legais específicos para lidar com conteúdos gerados por IA — especialmente quando afetam crianças, adolescentes e a dignidade humana.
A pesquisa liderada por Huiqian Lai expõe uma realidade incômoda, mas urgente: mesmo os modelos de IA mais avançados podem ser manipulados para gerar conteúdo impróprio, quando os limites de segurança são frágeis ou inconsistentes. A responsabilidade recai sobre desenvolvedores, plataformas e governos na construção de sistemas realmente seguros, éticos e transparentes.
A crescente presença de chatbots em espaços educativos, corporativos e domésticos exige uma atenção redobrada à moderação automatizada, à educação digital e à criação de ferramentas que protejam os usuários mais vulneráveis. Afinal, a tecnologia pode ser uma aliada — desde que seus riscos sejam reconhecidos e enfrentados com seriedade.