800名全球精英联名呼吁暂停超级智能研发,AI安全争议达历史转折点

近日,全球科技界掀起一场关于人工智能发展的激烈辩论。超过800名来自科技、政治、学术等领域的知名人士联名签署公开声明,呼吁在特定条件满足前全面禁止“超级智能”的研发。这份史无前例的联合声明直指当前科技巨头竞相推进的人工通用智能(AGI)竞赛,可能成为人工智能发展史上的关键转折点。

所谓“超级智能”,是指在所有领域超越人类认知能力的人工智能系统。签署者警告称,此类系统可能带来从经济崩溃、权力结构颠覆到人类灭绝的灾难性风险。声明中明确要求:“必须暂停超级智能开发,直至达成广泛的科学共识并确认其发展可被安全、可控地进行,同时获得公众普遍支持。”

签署名单堪称“全明星阵容”,包括苹果联合创始人史蒂夫·沃兹尼亚克、维珍集团董事长理查德·布兰森,以及被尊为“AI教父”的图灵奖得主约书亚·本吉奥和杰弗里·辛顿。值得注意的是,签名者跨越传统政治光谱——前美国国家安全顾问苏珊·赖斯与特朗普盟友史蒂夫·班农罕见同框,英国王妃梅根·马克尔、爱尔兰前总统玛丽·罗宾逊等公众人物也位列其中。

这份声明的发布时机耐人寻味。正值Meta高调将其AI部门更名为“Meta超级智能实验室”,OpenAI与马斯克的xAI公司加速AGI研发竞赛之际。加州大学伯克利分校人工智能安全专家斯图尔特·罗素指出,核心矛盾不在于技术可行性,而在于“人类能否有效控制超越自身智能的系统”。他参与组织的这项倡议强调,当前监管框架远未达到应对超级智能风险的要求。

行业内部的分歧在此次事件中显露无遗。签署者中包含多位深度参与AI基础研究的科学家,其警告分量远超外界批评。本吉奥和辛顿等先驱者的立场转变尤为引人注目——正是他们的开创性工作奠定了当前大语言模型的技术基础。

目前,欧盟已率先实施人工智能法案,美国正探索安全框架。分析人士认为,这份联署可能推动各国对前沿AI研究实施更严格管制。非营利组织“生命未来研究所”同期发布的民调显示,仅5%的美国民众支持当前无约束的AI开发模式,这为政策调整提供了民意基础。

随着科技巨头与监管机构的博弈持续,这场关于人类未来命运的争论或将重塑全球人工智能发展轨迹。业界关注焦点已转向各国政府会如何回应这份凝聚顶尖专家共识的紧急呼吁。

© 版权声明

相关文章