禁止超级智能人工智能:这是必要的吗?

Avatar
Lisa Ernst · 22.10.2025 · 技术 · 5分钟

由媒体人物、政治家、研究人员和科技先驱组成的广泛联盟签署的新呼吁,要求禁止发展“超级智能”,直到安全和民主认可得到保障。这一倡议在今天,即2025年10月22日,在全球范围内传播,引发了重要问题,并呼应了此前关于人工智能监管的辩论。

引言

关于人工智能(AI/KI)未来的辩论达到新的高点。一个广泛的联盟,其中包括 哈里王子与梅根, , 呼吁对所谓“超级智能”的开发实行暂停。这个呼吁在今天,即2025年10月22日公开发布,要求在安全和民主认可得到保障之前停止开发。签署人,其中也包括 媒体人物、政治家、研究人员和科技先驱, , 认为无控制地发展超越人类能力的AI系统会带来重大风险。

“超级智能”指称 在几乎所有认知任务上超过人类的假设性AI系统. . 这使它们区别于具备用人类般能力的通用人工智能(AGI),以及进一步超出其能力的人工超智能(ASI)。当前的倡议让人想起当年的 未来生命研究所(FLI)2023年的暂停呼吁, , 其要求对极大型AI模型的开发进行暂停。

背景与分析

主办方今天发布了一个简明的 30词解释 发布:“We call for a prohibition on the development of superintelligence, not lifted before there is broad scientific consensus that it will be done safely and controllably, and strong public buy-in.” Diese Erklärung wird von AP, Reuters und dem Guardian 一致报道。除了哈里王子和梅根之外,AI先驱者还包括 Geoffrey Hinton und Yoshua Bengio, , 史蒂夫·沃兹尼亚克、理查德布兰森,以及像苏珊·赖斯这样的政界声音。值得注意的是,支持者在政治立场上的多样性也包括 Steve Bannon und Glenn Beck 包含在内。

呼吁明确针对“超级智能”的开发,而不是有用、受限的AI应用。关于“先搁置一段时间”的策略想法,是为了阻止一个 超越人类系统的竞赛, , 这可能会稀释对安全的激励。一个公开禁令,挂上如科学共识和广泛接受等条件,应该减缓这场竞赛并让政治承担责任。未来生命研究所多年来一直主张,存在性风险必须被系统性监管 存在性风险必须被系统性监管, , 类似于其他高风险技术。

美国的民意调查显示公众日益担忧: 皮尤与盖洛普在2025年报道中显示,公众明显赞成更严格的规则和安全测试 在AI系统发布之前。这表明对监管措施有广泛的支持。

Quelle: YouTube

Geoffrey Hinton 的采访(BBC Newsnight) 提供背景信息,解释为何领先的研究者将超级智能视为特殊风险类别。

人工超智能(ASI)的愿景——一个既引人着迷又引发担忧的概念。

Quelle: youtube.com

人工超智能(ASI)的愿景——一个既引人着迷又引发担忧的概念。

争议与反应

对超级智能的禁令呼吁是有据可查的:存在一个 广泛传播的呼吁, , 禁止开发超级智能,直到满足严格条件。该 30词表述是公开记录的 并得到AP、路透社和《卫报》等主流新闻机构的证实。

然而,尚不清楚超级智能在技术上究竟有多接近。专家在这个问题上意见不一;许多人认为 在发展路径和时间表方面存在巨大的不确定性. . 将呼吁解读为普遍的“AI禁令”将是误导性的。它实际上针对的是一个 特定目标 ——在几乎所有认知任务上超过人类的系统——并将解除禁令明确地绑定到安全和认可条件。

禁令标志象征着对暂停开发或对开发超级智能AI的全面禁令的诉求。

Quelle: alamy.de

禁令标志象征着对暂停开发或对开发超级智能AI的全面禁令的诉求。

科技行业和政府部分警告,极端的暂停可能会危及创新和竞争力。 路透社指出,政治和工业界对暂停措施存在抵制. . 其他声音强调,ASI 可能仍然遥远,常规监管,例如, 欧盟人工智能条例, , 为其提供了充分的框架。 欧盟人工智能条例, 已经界定了被禁止的做法并对高风险应用进行规制,但没有明确的超级智能禁令。

实际讨论正在从“我们能多快?”转向“在何种条件下我们可以?”。对欧洲来说,重要的是,欧盟人工智能条例已经定义了被禁止的做法(例如社会评分)并对高风险应用进行严格监管——这是一个完善的治理机制,但没有明确的超级智能禁令。对于定位而言,重要的是始终查看原文并注意精确术语(AGI 与 ASI)。 呼吁的原文 进行核对并注意精确术语(AGI 与 ASI)。关于监管现状的可靠来源包括 欧盟页面和大型新闻机构.

Quelle: YouTube

Max Tegmark 的演讲 为了解决超级智能周围的机会、风险与治理思路,提供了一个很好的入门。

人工智能的快速发展将带来一个未来,其复杂性和影响尚未完全可预测。

Quelle: nexperts.ai

人工智能的快速发展将带来一个未来,其复杂性和影响尚未完全可预测。

未解之问与结论

仍有未解之问:谁来在操作层面界定何时一项发展成为“超级智能”?若无 可靠的度量标准和独立审计 将难以执行禁令。哪些机构拥有在国家、欧洲、全球层面执行的授权和资源?在这方面,像欧盟人工智能条例这样的现有制度提供了切入点,但没有专门针对ASI的规则。 欧盟人工智能条例 切入点,但没有现成的ASI专门规则。最后:达到此类系统的实际距离有多大?对这些系统的评估 时间上的接近度仍有争议.

全球停止超级智能AI的呼吁是一个带有明确条件的政治信号: 先安全和认可,然后再推进开发. . 对你们来说,这意味着:关注精准术语,核对原始来源,并将呼吁与现有的法律框架进行比较,例如 欧盟人工智能条例. . 这样你们在辩论中就能保持行动力——超越炒作和恐慌,如 Reuters 以及 The Guardian 报道。

Teilen Sie doch unseren Beitrag!