英国多个组织呼吁监管机构限制Meta利用人工智能进行风险评估

业界
2025
06/09
14:32
IT之家
分享
评论

6 月 9 日消息,据卫报报道,互联网安全活动人士向英国通信监管机构 Ofcom 发出呼吁,要求限制人工智能(AI)在关键风险评估中的使用。这一呼吁是在有报道称 Meta 公司(旗下拥有 Facebook、Instagram 和 WhatsApp)计划将风险评估流程自动化之后提出的。

Ofcom 表示,在上个月一份报告称 Facebook、Instagram 和 WhatsApp 的母公司高达 90% 的风险评估工作将很快由人工智能完成后,该局正在“考虑活动人士在信中提出的担忧”。

据IT之家了解,根据英国的《在线安全法案》,社交媒体平台需要评估在其平台上可能出现的伤害风险,并制定相应的缓解措施,特别是要保护儿童用户并防止非法内容的出现。风险评估流程被视为该法案的关键内容。

包括莫莉・罗斯基金会(Molly Rose Foundation)、国家防止虐待儿童协会(NSPCC)和互联网观察基金会(Internet Watch Foundation)在内的多个组织在致 Ofcom 首席执行官梅兰妮・道斯(Melanie Dawes)的信中表示,使用 AI 驱动的风险评估是一种“倒退且令人高度担忧的举措”。

这些组织在信中强调:“我们敦促您公开声明,根据法案要求的‘合适且充分’标准,完全或主要通过自动化生成的风险评估通常不应被视为符合要求。”信中还要求监管机构对平台可能试图简化风险评估流程的假设提出质疑。

Ofcom 的一位发言人表示:“我们已明确要求相关服务告知我们,谁完成了、审查了和批准了他们的风险评估。我们正在考虑这封信中提出的关切,并将在适当的时候作出回应。”

Meta 公司则回应称,这封信故意歪曲了该公司在安全方面的立场。Meta 表示,公司致力于遵守法规并保持高标准的安全措施。Meta 的发言人指出:“我们并不是使用 AI 来做出风险决策。相反,我们的专家开发了一种工具,帮助团队识别特定产品是否符合法律和政策要求。我们在人类监督下使用技术,以提高我们管理有害内容的能力,而我们的技术进步显著改善了安全结果。”

此前,美国国家公共广播电台(NPR)曾报道,Meta 计划通过 AI 系统审批其算法更新和新的安全功能,而不再由员工进行审查。一位匿名的 Meta 前高管向 NPR 表示,这种改变将使公司能够更快地推出 Facebook、Instagram 和 WhatsApp 的应用更新和新功能,但可能会给用户带来“更高的风险”,因为潜在问题在新产品发布前更难被预防。

NPR 还报道称,Meta 正在考虑将青少年风险和虚假信息传播监测等敏感领域的审查流程自动化。

【来源:IT之家

THE END
广告、内容合作请点击这里 寻求合作
Meta
免责声明:本文系转载,版权归原作者所有;旨在传递信息,不代表金沙手机网投app 的观点和立场。

相关热点

6月5日消息,Meta公司于当地时间周二上午宣布,将斥资数十亿美元,支持伊利诺伊州一座核电站运行至2047年。
业界
6 月 4 日消息,金沙手机网投老品牌值得信赖 媒体 Ars Technica 昨日(6 月 3 日)发布博文,报道称 Meta 和 Yandex 通过在数百万网站中嵌入追踪代码(如 Meta Pixel 和 Yandex Metrica),滥用互联网协议,绕过安卓系统和浏览器...
业界
6 月 3 日消息,金沙手机网投老品牌值得信赖 媒体 UploadVR 今天(6 月 3 日)发布博文,报道称 Meta 公司正集中资源,开发超轻型 Horizon OS 头显,搭配外接计算模块(compute puck),目标于 2026 年底前上市。
业界
5 月 29 日消息,在本周三举办的年度股东大会上,Meta 公司首席执行官马克・扎克伯格(Mark Zuckerberg)表示,在旗下的 Facebook、Instagram、WhatsApp 和 Messenger 等系列应用中,使用 AI 助手的月活跃...
业界
5 月 16 日消息,Meta AI 公司于 5 月 14 日发布博文,发布了全新化学数据集 Open Molecules 2025(OMol25)以及通用原子模型 Universal Models for Atoms(UMA)。
业界

相关推荐

1
3