澳大利亚监管机构发出警告,Grok人工智能图像滥用投诉激增引发监管升级

澳大利亚网络安全监管机构近日公开警告称,针对 Grok 人工智能聊天机器人的图像滥用投诉正在快速上升,尤其是未经同意生成性化图像的问题,已成为当前生成式人工智能监管中的关键风险点。澳大利亚独立网络安全机构 eSafety 指出,近几个月与 Grok 相关的投诉数量已出现翻倍增长,涉及未成年人和成年人的多类图像侵害行为。

澳大利亚网络安全专员 Julie Inman Grant 表示,部分投诉可能涉及儿童性剥削材料,另一些则与成年人遭受的基于图像的虐待有关。她在 LinkedIn 上强调,生成式人工智能正被越来越多地用于性化和剥削他人,尤其在涉及儿童时,对社会和监管体系构成严重挑战。随着 AI 生成内容逼真度不断提高,识别和取证难度也在同步上升。

Grok 由 Elon Musk 旗下人工智能公司 xAI 开发,并直接集成于 X 平台,允许用户对图像进行修改和生成。与其他主流人工智能模型相比,Grok 被定位为更“前卫”的产品,能够生成部分模型通常会拒绝的内容。此前,xAI 还推出了可生成露骨内容的模式,这也成为监管机构高度关注的焦点之一。

Julie Inman Grant 指出,根据澳大利亚现行法规,所有在线服务都必须采取有效措施,防止传播儿童性剥削材料,无论这些内容是否由人工智能生成。她强调,企业在生成式 AI 产品的设计、部署和运营的整个生命周期中,都必须内置安全防护机制,否则将面临调查与执法风险。

在深度伪造问题上,澳大利亚已采取更强硬立场。监管机构近期推动多项立法更新,试图弥补现有法律在打击未经同意的 AI 合成内容方面的不足。独立参议员 David Pocock 提出的相关法案,明确对个人和企业在传播深度伪造内容方面设定高额罚款,以强化震慑效果。

整体来看,Grok 人工智能图像滥用事件反映出生成式 AI 技术快速扩张下的监管滞后问题。随着深度伪造、AI 图像滥用和未成年人保护成为全球焦点,澳大利亚的监管动向或将为其他国家提供重要参考,也预示着生成式人工智能合规时代正在加速到来。

此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
0/400
暂无评论
交易,随时随地
qrCode
扫码下载 Gate App
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)