图片
科技领袖呼吁停止深度开发Ai
当人工智能技术以指数级速度迭代,一场关乎人类存续的争议正席卷全球科技界。
2025.10月22日,由非营利组织未来生命研究所发起的联名声明引发轩然大波,超3000名海内外科技领袖、学者及社会知名人士共同呼吁,在科学界就"安全可控开发超级智能"达成广泛共识前,暂停这项前沿技术的研发进程。
截至10月23日中午,签名人数已达3193人,这场跨领域、跨国界的联合倡议,为狂热的AI竞速潮敲响了警钟。
这份声明的签署名单堪称星光熠熠,涵盖了人工智能领域的先驱者、科技企业创始人、顶尖学者及政策界人士。
人工智能先驱杰弗里·辛顿、苹果公司联合创始人史蒂夫·沃兹尼亚克、维珍集团董事长理查·布兰森等国际巨头赫然在列。
中国学界也积极响应,中国科学院院士、图灵奖得主姚期智,清华大学智能产业研究院院长张亚勤等知名学者纷纷签名,呼应"安全、可靠、可控"的人工智能发展理念。
哈里王子夫妇等公众人物的参与,更让这一科技议题突破专业圈层,进入全球公众视野。
引发这场集体焦虑的"超级智能",并非当下主流的通用人工智能工具,而是一种在所有认知任务上全面超越人类的人工智能形式。
多位专家预测,这样的系统可能在十年内问世,但人类目前尚无能力确保其安全可控。
声明明确指出,顶尖AI企业的研发竞赛正带来多重风险:短期可能导致经济结构崩塌、大规模失业、公民自由受损。
长期则面临国家安全威胁,甚至人类丧失控制权乃至灭绝的终极危机。
北京前瞻人工智能安全与治理研究院院长曾毅的表态直击核心:"我们还没有坚实的科学证据和切实可行的方法来确保超级智能的安全,世界尚未准备好迎接不是可控工具的超级智能。"
令人担忧的是,科技巨头的研发步伐并未因争议放缓。
从埃隆·马斯克的xAI到萨姆·奥特曼的OpenAI,都在竞相推进先进大语言模型的研发,Meta更是专门设立"超级智能实验室",将其列为公司首要任务之一。
即便10月22日声明发布当天,该实验室裁员600人,Meta高管仍强调这只是优化组织架构,而非缩减超级智能研发投入。
这种"边争议边加速"的态势,折射出科技发展与安全治理之间的严重失衡。
更值得警惕的是,就连马斯克等行业领袖,过去也曾警告过超级智能的潜在危险,这种认知与行动的割裂,更凸显了行业自律的局限性。
这场争议也暴露了科技界的深刻分裂:一方视人工智能为推动社会进步的核心引擎,主张放任其自由发展。
另一方则坚守风险防控底线,呼吁建立严格的监管机制。
而美国全国性民意调查结果显示,公众立场高度统一——仅有5%的受访者支持无监管的AI开发现状,73%的受访者支持加强监管,64%的受访者反对在安全共识达成前开发超级智能。
这种专业圈层与公众认知的呼应,为全球AI治理提供了重要的民意基础。
人工智能无论多么强大,终究应是服务人类的工具,而非凌驾于人类之上的主宰。
图灵奖得主姚期智的观点道出了行业的应有共识:"人工智能必须始终是由人类主导的工具。"
此次的联合呼吁,本质上是人类对科技文明发展的集体反思,它提醒我们:在追逐技术突破的道路上,不能丢失对风险的敬畏之心,更不能放弃人类的主导地位。
未来,亟需建立全球性的AI治理框架,让科学共识、公众意愿与行业发展形成合力。
在创新与安全之间找到平衡点,确保人工智能,真正成为推动人类福祉的正能量,而非走向自我毁灭的加速器。