萨姆·奥特曼警告人工智能滥用

Avatar
Lisa Ernst · 26.10.2025 · 技术 · 5 分钟

萨姆·奥特曼关于人工智能滥用的警告,起初我将其解读为典型的CEO谨慎,但通过具体案例和监管机构的反应,已被证明是真实的。本文将对到底在警告什么、哪些事实已经可以证实,以及哪些保护机制已在发挥作用进行归纳。

简介

OpenAI 的负责人萨姆·奥特曼警告,人工智能支持的声音克隆与 Deepfakes 将带来即将来临的欺诈浪潮,尤其在金融领域和选举相关领域( apnews.com). )。同时他呼吁监管和技术对策,如提高对 AI 内容的透明度( apnews.com; openai.com). )。本文将阐明上述哪些是有据可查的,哪些仍然未定。

什么是人工智能滥用?

所谓人工智能滥用,是指误导、伤害人们或扰乱民主进程的应用。例如通过 Deepfake 视频、音频或自动生成的伪文本( reuters.com). )。“语音克隆”指用少量听力样本合成的声音。“声纹认证”,通过声纹进行认证,现在很容易被欺骗( apnews.com). )。Deepfakes 是看起来真实的、人工生成的媒体,可以让人物说出或做出从未发生过的事情( securityconference.org). 。为对抗,来源证明如 C2PA 签名将发挥作用,即对内容来源的加密元数据( openai.com; c2pa.org).

当前状态与事件

萨姆·奥特曼对人工智能潜在滥用事件表达担忧。

Quelle: nzz.ch

萨姆·奥特曼对人工智能潜在滥用事件表达担忧。

2023年5月,Altman 在美国参议院作证,并表示支持对特别强大的 AI 模型进行国家级或国际监管( congress.gov; youtube.com). )。2024年2月,他在迪拜警告称,存在“非常微妙的社会错位”,即使没有恶意也可能造成巨大伤害,并再次推动对 AI 实施类似 IAEA 的监督( apnews.com).

2024年2月,包括 OpenAI、微软、谷歌、Meta 和 TikTok 在内的二十多家科技公司,在慕尼黑安全峰会上签署了一项针对误导性 AI 竞选信息的协议( securityconference.org; news.microsoft.com).

在2024年1月的一次针对新罕布什尔州选民的 AI 深度伪造机器人电话事件后,美国监管机构 FCC 明确表示 AI 语音在机器人电话中使用是非法的( apnews.com; docs.fcc.gov).

OpenAI 在 2024/2025 年发布了多份关于被遏制的滥用案例的情报报告,其中包括来自俄罗斯、中国、伊朗和朝鲜等国家行为主体。报告强调,在这些地方,大型语言模型主要被作为现有方法的“加速器”使用( openai.com; cdn.openai.com; microsoft.com; reuters.com).

2025年7月22日, Altman 在美联储会议上警告银行业将出现“即将到来的欺诈危机”,称某些机构仍然将声音指纹作为身份认证( apnews.com).

分析与动机

鉴于人工智能滥用的风险,萨姆·奥特曼紧急呼吁加强监管与保护措施。

Quelle: watson.ch

鉴于人工智能滥用的风险,萨姆·奥特曼紧急呼吁加强监管与保护措施。

萨姆·奥特曼出于多重原因警告人工智能滥用。首先,现实中的事件,从选举 Deepfakes 到声音克隆欺诈,暴露了滥用的范围,并为平台和政策制定者施压( apnews.com; apnews.com). )。其次,及早表达的监管诉求可以建立信任并预见到强硬干预,而不至于完全抑制创新( apnews.com). )。第三,行业试图通过自我承诺,如慕尼黑协定,设立标准,在全球强制性规则落地之前( securityconference.org; news.microsoft.com).

)。同时,市场被高估;他最近把人工智能称为泡沫,这凸显了安全呼吁与大规模投资计划之间的张力( theverge.com).

Quelle: YouTube

该视频片段完整呈现了奥特曼在美国参议院作证的原始表述。

事实与错误信息

一男一女坐在椅子上,周围是美国国旗和联邦储备系统的旗帜。

Quelle: user-added

一男一女坐在椅子上,周围是美国国旗和联邦储备系统旗帜。

有证据表明,在美国,使用语音克隆的 AI 机器人电话是非法的;FCC 于 2024 年明确表示此类呼叫属于机器人电话禁令范围( docs.fcc.gov; apnews.com). )。也有证据表明奥特曼对声纹认证的直接批评及他对银行业“即将来临的欺诈浪潮”的警告( apnews.com). )。OpenAI 禁止政治竞选活动、欺骗性机器人以及阻碍选举参与的内容( openai.com).

尚不清楚大语言模型滥用相比传统方法造成的额外损害有多大;OpenAI/Microsoft 的报道称大多数是对已知策略的“生产力提升”,而非全新的进攻能力( microsoft.com; openai.com).

“在新法律出台前,AI 机器人电话是合法的”这一说法在美国并不成立;FCC 已经将现有法权(TCPA)适用于 AI 声纹( docs.fcc.gov). )。同样具有误导性的还包括“行业无所作为”的看法;存在具体的自我承诺与技术措施,尽管其覆盖范围有限( securityconference.org; openai.com).

影响与建议

对用户:在银行业务中不要依赖语音识别;偏好强大的带离线的验证(如 app 授权或硬件令牌)。来电警示信号:时间压力、异常支付渠道、仅通过电话的新“安全流程”——如有疑问,请挂断并进行官方回拨( apnews.com).

信息素养:对任何突然出现的音频/视频片段核实来源,寻找对立证据,注意出处指示(C2PA)以及可靠的原始来源,如美联社/AP/路透社( apnews.com; reuters.com). )。OpenAI 就选举问题提供官方信息;在欧盟大致涉及到 elections.europa.eu openai.com; elections.europa.eu).

Quelle: YouTube

未解问题

银行多快会用更稳健的多因素方法替代风险的声纹方法?是否存在可证实的、国际统计数据,关于声纹欺诈的规模及其经济损失?在内容被大幅编辑或改码时,来源证明标准在实际应用中有多有效?( openai.com)? 自愿协议之上的监管将如何制定,例如美国的“Protect Elections from Deceptive AI Act” 之类管理欺骗性 AI 竞选广告的法案( govtrack.us)?

结论

奥特曼关于人工智能滥用的警告不是抽象的对未来的担忧,而是基于真实案例、技术可行性以及流程中的明显漏洞——从选举环境到银行业( apnews.com; apnews.com). )。 有效的杠杆包括:明确的禁令、更好的认证、来源证明以及透明的平台规则( docs.fcc.gov; securityconference.org; openai.com). )。 关键在于坚持执行并使我们每个人都具备及时识别欺骗的能力。

Teilen Sie doch unseren Beitrag!