
编者按: 科技巨头meta近日宣布,将利用AI扫描用户的照片和视频,通过身高、骨骼结构等视觉线索判断用户是否未满13岁,并计划将其从Facebook和Instagram中移除。此举表面上是保护儿童安全,但背后是多家科技公司因未成年人保护问题面临天价罚款和诉讼的压力。meta的AI旨在识别年龄段而非身份,但要全面应用却可能引发隐私忧虑。本文为您深度解读这一新措施及其背后的风波,帮您了解科技巨头如何在监管与创新间寻找平衡——保护孩子,还是触碰隐私边界?让我们一探究竟。
meta于周二宣布,将开始利用AI扫描照片和视频,寻找视觉线索,判断用户是否未满13岁,并以此决定是否将其从Facebook和Instagram移除。该公司表示,这些视觉线索包括一个人的身高或骨骼结构。
“我们要明确一点:这不是人脸识别,”meta在博客中解释,“我们的AI通过整体主题和视觉线索(如身高或骨结构)来估算大致年龄,不会识别图片中的具体个人。通过将这些视觉信息与文字和互动的分析结合,我们能大幅提升发现并移除未成年账号的数量。”
这一视觉分析系统目前已在部分国家运行,但meta表示正努力推广至更多地区。
meta称,该系统是其防止13岁以下儿童使用旗下平台努力的一部分。这些努力包括利用AI分析整个用户资料中的上下文线索,比如生日庆祝或学校年级提及。公司会在不同内容格式(如帖子、评论、简介、标题等)中寻找这些信号。未来,meta计划将这项技术扩展到应用的更多部分,包括Instagram直播和Facebook群组。
如果meta认定用户可能未达法定年龄,将停用其账号,用户需使用公司的年龄验证流程证明年龄,以防账号被删除。
该宣布发布数周前,新墨西哥州陪审团裁定meta因在平台安全问题上误导消费者、将儿童置于危险之中,需支付3.75亿美元民事罚款。该公司还被要求对平台进行根本性改革。此后,meta威胁要关闭在该州的社交媒体服务。
值得注意的是,此案只是meta及其他大型科技公司面临的众多儿童安全诉讼之一。
meta同日还宣布,将其在Instagram上自动将青少年归入更严格“青少年账户”的技术扩展到欧盟27国和巴西。这些青少年账户会给用户提供更严格的账户体验并增加额外保护措施,例如只能接收已关注或已连接用户的消息、隐藏有害评论,并将账户默认设为私密。
此外,meta表示,该技术将首次在美国的Facebook上应用,随后于6月推广至英国和欧盟。