
【编者按】在人工智能技术狂飙突进的今天,其阴影下的儿童安全危机正悄然蔓延。从AI生成的儿童性虐待内容激增,到聊天机器人诱发青少年自杀悲剧,科技的双刃剑效应令人心惊。当创新步伐超越伦理护栏,我们该如何守护数字时代的童年?OpenAI近日联合多方机构推出《儿童安全蓝图》,试图从立法、举报机制到系统内置防护层层设防。这不仅是科技巨头的自我救赎,更是对全社会的一次警醒——在AI重塑世界的浪潮中,孩子的笑容不应成为被技术吞噬的代价。以下为全文编译:
面对日益增长的儿童网络安全担忧,OpenAI在人工智能热潮中公布了一份加强美国儿童保护工作的蓝图。周二发布的《儿童安全蓝图》旨在帮助更快检测、更好报告和更有效调查利用人工智能实施的儿童剥削案件。
该蓝图的总体目标是应对与人工智能进步相关的儿童性剥削激增的惊人现象。根据互联网观察基金会(IWF)数据,2025年上半年检测到8000多起AI生成儿童性虐待内容报告,较去年同期增长14%。这包括犯罪分子利用AI工具生成虚假儿童露骨图像进行财务性勒索,以及生成具有说服力的诱导性信息。
OpenAI发布蓝图之际,政策制定者、教育工作者和儿童安全倡导者正加强审查力度——尤其是在青少年疑似因与AI聊天机器人互动而自杀的悲剧事件背景下。
去年11月,社交媒体受害者法律中心和技术正义法律项目在加州法院提起七项诉讼,指控OpenAI在未准备充分的情况下发布GPT-4o。诉状指出该产品具有心理操纵特性,导致非正常自杀及协助自杀死亡。诉讼列举了四名自杀身亡者及三名在与聊天机器人长期互动后出现危及生命的严重妄想症患者。
该蓝图是与国家失踪与被剥削儿童中心(NCMEC)、检察长联盟合作制定,并吸收了北卡罗来纳州总检察长杰夫·杰克逊和犹他州总检察长达雷克·布朗的反馈意见。
OpenAI表示蓝图聚焦三大方向:更新立法以涵盖AI生成的虐待材料、完善向执法部门的举报机制、将预防性保障措施直接嵌入AI系统。通过此举,OpenAI不仅希望更早发现潜在威胁,更致力于确保可操作信息能及时送达调查人员。
此次新蓝图建立在既往措施基础上,包括更新与18岁以下用户的互动准则——禁止生成不当内容、禁止鼓励自残行为、避免提供帮助青少年向监护人隐瞒危险行为的建议。该公司近期还发布了印度青少年安全保护方案。