美国国会下属的经济与安全审查委员会已将“推动建立并资助一项堪比曼哈顿计划的通用人工智能研发项目”列为其对国会的核心建议之一,明确显示出对AI竞赛战略意义的高度重视。与此同时,美国能源部在近几个月中多次公开将人工智能的突破比作“下一场曼哈顿计划”,并表示愿意动用其全部政策与资源工具,为这一国家级技术竞赛提供支持。在其一条近期发布的官方推文中,更是直言不讳地写道:

图片

“AI曼哈顿计划”这一概念,正在人工智能的未来讨论中成为热门议题,尤其是在国家安全与全球战略力量竞争的背景下。这一提法直接借鉴了历史上的曼哈顿计划——二战期间一项高度机密、由政府主导的原子弹研发项目。然而,若将这一模型套用于AI,特别是通用人工智能(AGI),则引发了巨大争议。支持者强调快速进展的必要性,而批评者则警告其可能带来的深远风险,并主张采取替代性方案。

“AI曼哈顿计划”的核心设想,是动员一场全国范围的科技竞赛,其规模与强度堪比当年的曼哈顿计划。通常具备三个特征:政府发起、整合私营部门AI资源(如算力),以及总投入占据GDP一定比例——与曼哈顿计划或阿波罗登月计划相当。

历史上的洛斯阿拉莫斯国家实验室,在原曼哈顿计划中发挥了核心作用,如今也再次站上AI前沿。该实验室新设立的国家安全AI办公室,旨在整合各领域任务,联合政府、产业和学术界,共同推进AI安全与前沿研究。从上世纪50年代教会“Maniac”计算机下棋开始,洛斯阿拉莫斯便深耕AI应用,当前在材料研究、生物信息学、疫苗开发等几乎所有技术领域都已融合AI,并拥有AI驱动的“Venado超级计算机”。该实验室致力于让美国在AI竞赛中保持科学优势。

这一项目背后的推动力,源于对AI“重塑国家安全、情报系统、基础设施乃至全球力量格局”的深刻理解。其增长速度惊人——过去五年取得的进展超过此前四十年之和。2024年11月,美国国会下属的中美经济与安全审查委员会就建议设立类似曼哈顿计划的AGI国家项目。

在技术和财政方面,“AI 曼哈顿计划”可能带来史无前例的算力飞跃。据Epoch AI报告测算,若有足够财政与政策支持,一种估算方式是考察当前GPU的性能价格比。例如,H100 GPU在FP16精度下的性能价格比约为2.2e10 FLOP/s/$。若在接下来三年中每年投入2440亿美元,则一次持续100天的训练运行可达约1.2e29 FLOP。这大约是GPT-4(2.1e25 FLOP)规模的1万倍。

图片

若参照阿波罗计划的投入标准(年均2440亿美元,占GDP的0.8%),连续三年可采购约2700万块H100等效GPU,支持为期100天的AGI模型训练,总算力约为3e29 FLOP。这一规模的能耗约为7.4GW,相当于纽约市全年平均用电量,也接近世界最大核电站。尽管能源基础设施通常建设周期较长,若动用《国防生产法》(DPA)则可加速推进。田纳西州奥克里奇国家实验室已建设铀浓缩设施,为AI数据中心提供核能,反映了对中国在能源与AI基础设施竞争压力的直接回应。

然而,支持“AI 曼哈顿计划”的观点面临重大质疑。许多AI伦理学者和安全倡导者认为,这种军工主导、集中化、保密式的做法,可能诱发灾难性后果,尤其在AGI层面。

人工通用智能(AGI)的追求正站在一个关键的十字路口,它既承诺将带来颠覆性进步,同时也带来了前所未有的风险。在全球范围内,关于AGI的讨论充满了真实的担忧与根本性的误解,这些观点正在影响国家战略、企业研发路径乃至整个社会对未来的规划。理解这些风险与误解的本质,对于今天作出的任何决策都至关重要,因为这些决策将深远地影响人类的未来。

首先,AGI带来的风险远不止技术挑战,它可能引发社会动荡,甚至构成人类生存的威胁。OpenAI、Anthropic、Google DeepMind等机构的CEO均公开表示,AGI的发展有可能导致人类灭绝。这一观点不再只是遥远的假设,而被视为在当前技术轨迹下“极有可能”发生的情形。如果一个智能体的认知与控制力远超人类,而我们又无法对其意图进行可靠校准,它可能会接管核设施、金融系统等关键基础设施,而人类却无力阻止。如AI领域的“图灵奖”得主Geoff Hinton所言:“一旦AI比我们聪明,它们就会接管一切。”

其最大的不确定性,在于人类是否有能力保持对其的控制,以及是否有方法将AGI的目标与人类价值对齐。这一挑战不只是工程问题,更是深刻的道德与哲学难题。目前并不存在可预测或可靠的方法来确保AGI的行为符合人类利益,我们甚至尚未对“对齐”这一概念有公认的定义。更糟的是,在AGI竞赛日益激烈的今天,为了追求速度与领先地位,几乎没有激励机制去解决这些复杂且未解的问题。一旦在缺乏安全保障的前提下部署AGI,人类将处于被动与危险之中。

这一竞赛本身也极具破坏性。当前的AGI竞速已被一些学者称为“自杀性竞赛”,各参与方并不是为了合作或安全,而是陷入“负和博弈”,争先恐后地抢占第一。这种格局极易促成AI军事化,激化大国间的紧张关系,并可能因误判引发全球冲突。例如中国正在快速推进核电建设计划,2020至2035年间将建成150座核电站,其年度发电扩张量约为美国的五倍。这不仅为其AI算力提供强大支撑,也进一步加剧了全球AI能力竞赛的紧迫感。

同时,AGI的发展也可能带来权力过度集中与社会结构的剧烈变化。如果以类似“曼哈顿计划”的方式进行秘密研发,最终可能只让极少数科技公司与政府部门掌控巨大的权力。这可能催生一种“科技封建主义”,使AI掌控经济主导地位,而缺乏透明度与公共问责机制。此外,AGI的发展可能使人类劳动的价值迅速接近于零,推动全民基本收入(UBI)等政策浮出水面,但也可能带来“僵尸资本主义”等全新经济困局。

公众信任的崩塌同样是不可忽视的后果。如果其的研发完全在军事、封闭的环境下进行,公众将自然联想到核武器的历史:尽管核能致死率极低,但公众因核战争与辐射恐惧而强烈反对核能,使得其商业化进程严重滞后。AGI也可能重蹈这一覆辙,一旦公众对其失去信任,即使技术本身安全,也难以获得广泛接受。

除了风险之外,关于AGI的误解同样危险。例如将AGI视为一种战略性“奇迹武器”,可以带来国家压倒性优势,这种观点其实源自对曼哈顿计划的类比。但AGI本质上更像是“通用技术”而非“单一用途武器”,其广泛用途横跨医疗、教育、科研、国防等各个领域。美国一些政策制定者对AGI寄予“获得权力”的幻想,而非务实地推进其安全应用,这种“幻想战争”心态已被部分学者批评为“希望毒瘤”。

另一个重大误区是认为AGI是“可控”的,或认为“对齐”问题已经得到解决。这是一种危险的误导,甚至被某些AI伦理专家称为“科学欺诈”。目前AI的进展主要基于模型扩展与黑箱方法,而非对智能本质的科学理解。科幻作品中如阿西莫夫机器人三定律那样的“简单规则”在现实中根本无法治理超级智能,因为世界过于复杂,任何预设规则都可能被误解或规避。现实中的“对齐”很多时候只是“公关洗白”或“安全洗白”,比如让聊天机器人表现得更“友善”,但这远不足以解决AGI真正带来的深层风险。

一些机构主张以“曼哈顿计划”的方式推进AGI,然而包括RAND在内的研究机构指出这种模式是“战略错误”。曼哈顿计划是一次高度保密、军方主导、目标单一的研发项目,它的思维模式并不适用于AGI。AGI的广泛影响需要更开放、更民主的公共治理模式,更像阿波罗登月计划那样,通过国家主导、民间协作、全社会参与的方式实现跨学科突破。否则,只会加剧公众不信任,并激发全球对抗局势,特别是在与中国的竞争中,美国并不具备算力与能源上的压倒性优势。

未来生命研究所(FLI)明确指出,AGI竞赛本质上是一场“自杀性竞赛”,曼哈顿计划式的做法建立在对AGI本质的误解之上。他们强调,目前全球顶尖AI专家普遍认为我们无法预测、无法控制超级智能,也无法确保其价值观与人类一致。FLI呼吁应停止以军事控制为目标的AGI竞赛,转而建设“颠覆性工具型AI”,用于强化工业、科研、教育、医疗与国防等具体领域。

RAND智库则指出,以曼哈顿计划为模型来构建AGI是战略错误。他们建议应学习阿波罗计划的路径——这是一项全民参与、公开透明、强调社会福祉的工程。在阿波罗计划中,美国不仅实现了登月,更推动了全民STEM教育、技术扩散与全球科学声望。

基于这一理念,RAND提出了“阿波罗式AGI发展方案”,强调以下关键目标:

  1. 推动AI教育普及,让中小企业、各行业广泛接触并运用AI;

  2. 聚焦民用价值,如个性化教育、医疗服务、政府治理;

  3. 投资多样化研究,避免对某一架构(如Transformer)过度依赖;

  4. 强化AI安全测试与监管,防止关键模型被盗或误用;

  5. 建设国家级数据基础设施;

  6. 扩大清洁能源,特别是核能供给;

  7. 推动国际AI外交,避免中美军备竞赛式发展。

在更进一步的AI安全讨论中,主张“AI 曼哈顿计划”应转为“AI安全曼哈顿计划”的呼声日渐高涨。许多AI研究者指出,目前的AI进展主要依赖“规模堆叠”,缺乏对“智能本质”的真正理解。当前对齐(alignment)问题仍未解决,即便拥有先进的技术,也难以确保AI行为符合人类价值。

真正的“对齐”不仅仅是让AI变得“好聊”,而是确保其行为在现实世界中始终符合人类长期利益。这不仅是工程问题,更是哲学、伦理与制度设计的多重挑战。

为了安全推进AGI,应加强如下工作:

  • 法规优先限制AGI原型与全自动研发系统;

  • 建立“紧急关机”机制(如总统红键),并定期演练;

  • 推动国际条约,在全球GDP和人口门槛满足时生效;

  • 动员基层公民教育与政策倡导,推动AI立法。

在治理方面,“对齐”不仅是技术难题,更是哲学命题。目前AI仍处于“前科学”阶段,我们尚未清楚为何它们有效,只是观察到它们有效。要制定治理规则,首先必须解决“可理解性”问题,即我们能否对智能、代理、意识等核心概念进行明确定义?如果不能,那么所谓“监管”只能依靠模糊直觉,这在法律上是非常危险的。然而,治理并非完全无望,我们已成功制定过欺诈、诽谤等复杂问题的法律框架。关键在于,从现在开始监管AI的“前兆特征”:大算力、自动研发能力、无关闭开关的系统等。

解决之道在于建立“可纠正性”(corrigibility)、“目标对齐”(intent alignment)、“强制控制”以及“权力约束”四重机制。当前社交平台治理的失败已经证明,即便是人类主导的科技企业,我们都难以施加有效监管,更何况面对一个远超人类的AGI?监管的“古德哈特定律”效应(即衡量指标一旦变成目标就会失效)也提醒我们,监管需要不断迭代与演进。

最终,要想在AGI领域赢得真正的“胜利”,需要超越眼前的技术竞赛,建立基于“伦理人本主义”的社会共识。这包括:提升全民AI素养,推动全球范围内的治理实验、国家级AI紧急预案、建立关键AI集群“关闭机制”、签署多边协议、强调司法透明,并广泛吸纳各行业、各阶层的声音。更重要的是,要唤醒公众参与——研究显示,在全球范围内,公众对AI带来“生存风险”的担忧正在快速增长。这种广泛的焦虑并非“泡沫”,而是对我们未来的真切关切。

AGI的未来不是不可控的神话,也不是简单的工具革命,而是一次关于“人类如何面对自身极限”的时代大考。我们仍然有机会选择不同的路径—— 是走向封闭、高危、少数掌权的科技独裁?还是走向开放、安全、公正、全民共享的AI未来?答案掌握在我们手中。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若转载,请注明出处:http://www.pswp.cn/news/913903.shtml
繁体地址,请注明出处:http://hk.pswp.cn/news/913903.shtml
英文地址,请注明出处:http://en.pswp.cn/news/913903.shtml

如若内容造成侵权/违法违规/事实不符,请联系英文站点网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

音频信号的预加重:提升语音清晰度

一、预加重介绍预加重是一种信号处理技术,主要用于增强音频信号中的高频成分。由于人类语音的频谱特性,尤其是在辅音和音调的表达上,高频成分对于语音的清晰度至关重要。然而,在录音和传输过程中,这些高频成分往往会受…

WebSocket实战:实现实时聊天应用 - 双向通信技术详解

目录一、WebSocket:实时通信的"高速公路"1.1 HTTP的短板:永远的"单相思"1.2 WebSocket的优势:真正的"双向对话"二、30分钟搭建聊天服务器2.1 环境准备2.2 WebSocket配置类2.3 核心消息处理器三、前端实现&…

宏集案例 | 基于CODESYS的自动化控制系统,开放架构 × 高度集成 × 远程运维

​​案例概况客户:MACS Sterilisationsanlagen GmbH(Ermafa Environmental Technologies GmbH 旗下) 应用场景:医疗与感染性废弃物的无害化处理控制系统应用产品:宏集Berghof高性能控制器设备(一&#xff0…

学习JNI 二

创建一个名为Learn1项目(Android Studio)。一、项目结构二、配置 build.gradlebuild.gradle.kts(:app)plugins {alias(libs.plugins.android.application)alias(libs.plugins.jetbrains.kotlin.android) }android {namespace "com.demo.learn1&quo…

基于Spring Boot+Vue的DIY手工社预约管理系统(Echarts图形化、腾讯地图API)

2.10 视频课程管理功能实现2.11手工互动(视频弹幕)2.8预约设置管理功能实现🎈系统亮点:Echarts图形化、腾讯地图API;文档包含功能结构图、系统架构图、用例图、实体属性图、E-R图。一.系统开发工具与环境搭建1.系统设计…

leetcode 每日一题 1353. 最多可以参加的会议数目

更多技术访问 我的个人网站 (免费服务器,没有80/443端口) 1353. 最多可以参加的会议数目 给你一个数组 events,其中 events[i] [startDayi, endDayi] ,表示会议 i 开始于 startDayi ,结束于 endDayi 。 …

AI+智慧园区 | 事件处置自动化——大模型重构园区治理逻辑

在智慧园区的建设浪潮中,事件管理一直是园区高效运营的关键环节。考拉悠然所推出的大模型 智慧园区解决方案,在事件智能闭环管理方面独树一帜,为园区的日常运营编织了一张严密、高效、智能的管理网络,实现了从事件感知到处置的全…

FFmpeg Windows安装

FFmpeg 用于音频文件转换 Builds - CODEX FFMPEG gyan.dev ffmpeg-release-full.7z 下载完成之后 zip解压 大概就是 ffmpeg/ └── bin/ └── ffmpeg.exe 配置环境变量 ffmpeg -version 有可能idea还是找不到命令 就把命令路径写在程序里 例如

【2025/07/10】GitHub 今日热门项目

GitHub 今日热门项目 🚀 每日精选优质开源项目 | 发现优质开源项目,跟上技术发展趋势 📋 报告概览 📊 统计项📈 数值📝 说明📅 报告日期2025-07-10 (周四)GitHub Trending 每日快照&#x1f55…

JVM 基础 - JVM 内存结构

前言 本文主要对JVM 内存结构进行讲解,注意不要和Java内存模型混淆了。 运行时数据区 内存是非常重要的系统资源,是硬盘和 CPU 的中间仓库及桥梁,承载着操作系统和应用程序的实时运行。JVM 内存布局规定了 Java 在运行过程中内存申请、分配…

【案例】二手车交易价格预测-472

二手车交易价格预测 数据来源数据特征探索构建模型参考数据来源 天池 https://tianchi.aliyun.com/competition/entrance/231784/information 数据特征探索 目标特征工程做好之后,能同时进行 lightgbm catboost 神经网络等模型,所以尽量都转换为数值类特征。 如果仅仅是使用…

【Spring】Java SPI机制及Spring Boot使用实例

目录 一、SPI是什么 1.1 SPI 和 API 有什么区别? 二、使用场景 三、使用介绍 四、Spring Boot实例运用 五、总结 一、SPI是什么 SPI全称Service Provider Interface,是Java提供的一套用来被第三方实现或者扩展的API,它可以用来启用框架…

多维度数据资产测绘技术在安全管控平台中的应用实践

一、数据资产治理困境:从 “黑箱” 到 “可见性” 的行业挑战在数字化转型加速的当下,企业数据资产呈现爆发式增长,而传统资产梳理手段因维度单一、时效性差,导致 “资产黑箱” 问题频发。某省级运营商曾在安全评估中发现&#xf…

搭建react18+项目过程中遇到的问题(vite)

问题1. 页面中使用import.meta.env获取环境变量有红色波浪线提示错误按提示给ts.config.ts文件中的compilerOptions增加了"module": “esnext” (es2020 | es2022 | system)这几个也不行 但是另一个问题出现了安装的第三方库引入报错了 按照提示我们将module改成了’…

Linux epoll简介与C++TCP服务器代码示例

Linux epoll 简介与示例 TCP 服务器 1. 为什么要用 epoll select/poll 每次调用都把全部文件描述符从用户态拷贝到内核态,随连接数增长而线性变慢;epoll 采用事件驱动+就绪队列的方式,内核只把“已就绪”的描述符返回给用户态,O(1) 规模扩展;支持 边沿触发 Edge-Triggere…

IPv4和IPv6双栈配置

根据IPv6的学习,完成以下一个简单的双栈配置案例,具体结构如下图所示。PC1的 IPv4:192.168.2.1/24 、IPv6:2001:db8:2::2/64,PC2的 IPv4:192.168.3.1/24 、IPv6:2001:db8:3::2/64总共需要两台PC…

Robyn高性能Web框架系列08:使用 Rust 扩展 Robyn

使用 Rust 扩展 RobynPyO3 Bridge示例:一个简单的Rust扩展1、安装必须的组件2、初始化Rust项目3、编写Rust代码4、在Robyn中使用Rust代码在“Robyn高性能Web框架系列07:多进程、性能调优”一节中,我们讲解了Robyn丰富的性能调优方式&#xff…

利用Pandas进行条件替换与向前填充

目录一、需求二、实现代码案例代码详细解释1. 导入库和创建数据2. 条件替换与填充a. 条件掩码 - mask()b. 向前填充 - ffill()c. 类型转换 - astype(int)3. 打印结果三、实际应用场景四、可能的变体五、总结一、需求 示例数据: 项 目 0 1 0 1 0 1 2 0 2 3 …

springboot数据脱敏(接口级别)

文章目录自定义脱敏注解脱敏注解接口脱敏注解反射AOP实现字段脱敏切面定义脱敏策略脱敏策略的接口电话号码脱敏策略邮箱脱敏不脱敏姓名脱敏身份证号脱敏JacksonAOP实现脱敏定义序列化序列化实现脱敏切面定义JacksonThreadLocal拦截器实现脱敏定义ThreadLocal自定义序列化序列化…

Spring核心原理的快速入门:快速了解IoC与DI

IoC IoC:Inversion of Control(控制反转) Spring是一个包含了众多工具的IoC容器(即bean:spring管理的对象),也就是说Spring 是一个“控制反转”的容器。 之前是对象本身管理自己的生命周期等等,现在交给spring来管理对象的生命周期 IoC介绍 …