A OpenAI publica um plano de proteção da segurança infantil para combater a exploração alimentada por IA

Decrypt

Em resumo

  • A OpenAI publicou o seu “Child Safety Blueprint”, que aborda a exploração sexual de crianças habilitada por IA.
  • O plano incide em reformas legais, uma coordenação de reporte mais forte e guardrails incorporados nos sistemas de IA.
  • A proposta foi desenvolvida com contributos de organizações de proteção infantil, procuradores-gerais e organizações sem fins lucrativos.

Com o objetivo de fazer face ao aumento da exploração sexual de crianças habilitada por IA, a OpenAI publicou na quarta-feira um plano de política que descreve novas medidas de segurança que a indústria pode adotar para ajudar a travar o uso de IA na criação de material de abuso sexual de crianças. No plano, a OpenAI enumera medidas legais, operacionais e técnicas destinadas a reforçar as proteções contra abusos habilitados por IA e a melhorar a coordenação entre empresas de tecnologia e investigadores. “A exploração sexual de crianças é um dos desafios mais urgentes da era digital”, escreveu a empresa. “A IA está a alterar rapidamente tanto a forma como estes danos surgem em toda a indústria como a forma como podem ser abordados à escala.”

A OpenAI afirmou que a proposta incorpora contributos de organizações que trabalham na proteção de crianças e na segurança online, incluindo o National Center for Missing and Exploited Children e a Attorney General Alliance e o seu grupo de trabalho de IA. “A IA generativa está a acelerar o crime de exploração sexual de crianças em linha de formas profundamente perturbadoras — reduzindo barreiras, aumentando a escala e permitindo novas formas de dano”, afirmou em comunicado a Presidente e CEO do National Center for Missing & Exploited Children, Michelle DeLaune. “Mas, ao mesmo tempo, o National Center for Missing & Exploited Children fica encorajado a ver empresas como a OpenAI a refletirem sobre a forma como estas ferramentas podem ser concebidas de modo mais responsável, com salvaguardas incorporadas desde o início.”  A OpenAI disse que o plano combina normas legais, sistemas de reporte da indústria e salvaguardas técnicas dentro dos modelos de IA. A empresa afirmou que estas medidas têm como objetivo ajudar a identificar mais cedo os riscos de exploração e melhorar a responsabilização em toda a rede de plataformas online.

O blueprint identifica áreas de ação, incluindo a atualização de leis para abordar material de abuso sexual de crianças gerado por IA ou alterado, melhorar a forma como os fornecedores online reportam sinais de abuso e coordenar com investigadores, e construir salvaguardas nos sistemas de IA concebidos para evitar abusos. “Nenhuma intervenção única pode resolver este desafio por si só”, escreveu a empresa. “Este plano reúne abordagens legais, operacionais e técnicas para identificar melhor os riscos, acelerar as respostas e apoiar a responsabilização, assegurando ao mesmo tempo que as autoridades de aplicação da lei se mantêm fortes à medida que a tecnologia evolui.” O blueprint surge num contexto em que defensores da segurança infantil levantaram preocupações de que sistemas de IA generativa capazes de produzir imagens realistas possam ser usados para criar representações manipuladas ou sintéticas de menores. Em fevereiro, a UNICEF apelou aos governos do mundo para aprovarem leis que criminalizem material de abuso infantil gerado por IA. Em janeiro, a Comissão Europeia lançou uma investigação formal sobre se a X, anteriormente conhecida como Twitter, violou as regras digitais da UE ao não impedir que o modelo nativo de IA da plataforma, Grok, gerasse conteúdos ilegais, uma vez que reguladores no Reino Unido e na Austrália também abriram investigações. Salientando que as leis, por si só, não vão travar a vaga de material de abuso gerado por IA, a OpenAI afirmou que serão necessárias normas mais rigorosas da indústria à medida que os sistemas de IA se tornem mais capazes. “Ao interromper tentativas de exploração mais cedo, melhorar a qualidade dos sinais enviados às autoridades policiais e reforçar a responsabilização em todo o ecossistema, este plano tem como objetivo prevenir danos antes de acontecerem e ajudar a garantir uma proteção mais rápida para as crianças quando surgem riscos”, disse a OpenAI.

Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.
Comentário
0/400
Sem comentários