OpenAI Revela Plano de Segurança Infantil Para Combater Exploração Facilitada por IA Em Meio ao Aumento de Relatórios de CSAM

Resumidamente

A OpenAI lançou um “Plano de Segurança Infantil” para combater a exploração sexual infantil facilitada por IA, atualizando diretrizes, fortalecendo salvaguardas e promovendo medidas legais, técnicas e operacionais coordenadas em meio ao aumento de relatórios de CSAM gerados por IA.

OpenAI Unveils Child Safety Blueprint To Combat AI-Enabled Exploitation Amid Rising CSAM ReportsA OpenAI, uma organização focada em pesquisa e implementação de inteligência artificial, introduziu um “Plano de Segurança Infantil”, uma estrutura destinada a prevenir e abordar a exploração sexual infantil facilitada por IA. A iniciativa é apresentada como uma resposta ao papel crescente da IA na facilitação e detecção de danos online envolvendo crianças.

A empresa descreveu a exploração sexual infantil como um dos desafios mais prementes na era digital, observando que as tecnologias de IA estão mudando a forma como esses danos ocorrem e como podem ser mitigados em larga escala. A OpenAI afirmou que implementou salvaguardas para evitar o uso indevido de seus sistemas e colabora com parceiros, incluindo o Centro Nacional de Crianças Desaparecidas e Exploited Children (NCMEC) e agências de aplicação da lei, para melhorar a detecção e o reporte. Essa colaboração destacou áreas onde padrões mais fortes e compartilhados na indústria são necessários.

O plano delineia uma estratégia para aprimorar os quadros de proteção infantil nos EUA no contexto da IA. Ele incorpora contribuições de organizações e especialistas de todo o ecossistema de segurança infantil, incluindo a NCMEC, a Aliança do Procurador Geral com contribuições do Procurador Geral da Carolina do Norte, Jeff Jackson, e do Procurador Geral de Utah, Derek Brown, além da organização sem fins lucrativos Thorn. A estrutura visa orientar esforços coordenados para prevenir danos às crianças e fortalecer a colaboração entre os domínios legal, operacional e técnico.

A iniciativa foca em três prioridades principais: atualizar leis para tratar de material de abuso sexual infantil gerado ou manipulado por IA (CSAM), melhorar o reporte e a coordenação entre provedores para apoiar investigações mais eficazes, e integrar medidas de segurança por design diretamente nos sistemas de IA para prevenir e detectar uso indevido. A OpenAI enfatizou que nenhuma abordagem única pode resolver o desafio sozinha, e o quadro visa acelerar respostas, melhorar a identificação de riscos e manter a responsabilidade, garantindo que as autoridades possam agir à medida que a tecnologia evolui.

A estrutura pretende permitir intervenções mais precoces, reduzir tentativas de exploração, melhorar a qualidade das informações compartilhadas com as autoridades e fortalecer a responsabilidade em todo o ecossistema para proteger as crianças de forma mais eficaz.

Relatórios de Exploração Infantil Gerados por IA Aumentam 14% em 2025 Com a Apresentação do Plano Expandido de Segurança Infantil pela OpenAI

Dados recentes da Internet Watch Foundation (IWF) indicam que mais de 8.000 relatórios de conteúdo de abuso sexual infantil gerado por IA foram detectados na primeira metade de 2025, representando um aumento de 14% em relação ao ano anterior. Esses casos incluem o uso de ferramentas de IA para gerar imagens explícitas falsas para sextorsão financeira e para produzir mensagens usadas em grooming. O lançamento do plano coincide com uma atenção crescente de formuladores de políticas, educadores e defensores da segurança infantil, especialmente após incidentes em que jovens morreram por suicídio após supostamente interagir com chatbots de IA.

Em novembro de 2025, o Social Media Victims Law Center e o Tech Justice Law Project entraram com sete processos nos tribunais estaduais da Califórnia, alegando que a OpenAI lançou o GPT-4o prematuramente. As queixas afirmam que as características psicologicamente manipuladoras do sistema de IA contribuíram para mortes por suicídio e suicídio assistido, citando quatro indivíduos que morreram e três que experimentaram delírios severos após interações prolongadas.

O novo plano de segurança infantil da OpenAI baseia-se em medidas anteriores, incluindo diretrizes atualizadas para usuários menores de 18 anos que proíbem a geração de conteúdo inadequado, aconselhamento para automutilação ou orientações para esconder comportamentos inseguros dos cuidadores. A empresa também lançou recentemente um plano de segurança voltado para adolescentes na Índia.

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar