多极核时代风险加剧
世界末日时钟现在停在离午夜还剩89秒的位置,这简直让人心里发慌,说明人类现在比任何时候都更接近自我毁灭的边缘。今年1月份,芝加哥《原子科学家公报》的专家们做出这个决定,主要原因就是核战争的风险突然飙升了。
跟冷战时期那种美苏两极对峙的局面不同,现在世界已经进入了一个多极核时代,情况变得更加复杂。中国正在迅速成为第三个拥有核武器的大国,朝鲜也在不断扩充它的核武库,伊朗的铀浓缩活动已经远远超出了民用的范围。再加上人工智能被用在军事领域,网络上的虚假信息满天飞,这些都让现在的核局势更加扑朔迷离。
这种多极核格局彻底改变了我们维持核安全的方式。以前的核威慑理论是基于“相互确保毁灭”的想法,也就是没人愿意发动一场会让所有人都完蛋的战争。这个理论在冷战期间还算管用,因为美苏双方都有足够的能力进行第二次打击,谁先动手就等于自取灭亡。
但现在的多极核世界可没那么简单。国家多了,误判和误会的可能性就大了,小规模但依然有毁灭性的核冲突也更容易发生。这些局部冲突虽然不会导致全球性的相互毁灭,但却严重削弱了传统的核威慑机制。
新核军备竞赛加剧
最近,斯德哥尔摩国际和平研究所发布了一份报告,说现在全球正在冒出一个很危险的新核军备竞赛。而且,以前用来控制核武器的那些协议,现在都变得不太管用了。
美国和俄罗斯之间那个《新削减战略武器条约》明年就要到期了,但双方还没谈好新的替代协议,进展特别慢。与此同时,中国在拼命扩充自己的核武器库,预计到2030年,他们的核弹头数量会达到1000枚左右。印度和巴基斯坦也在不断升级自己的核力量,搞得局势越来越紧张。
冷战后沟通渠道衰落
巴尔塞罗研究所的物理学家卡伦·哈尔伯格说,冷战时期那些帮助缓解核紧张局势的秘密沟通渠道,现在基本上已经没有了。就连正常的外交渠道,也因为现在的各种冲突而变得越来越不顺畅,甚至有时候直接中断了。她特别担心的是,现在科学界和国际关系中,竞争的氛围越来越强,合作反而越来越少。
另外,互联网和社交媒体传播虚假信息的能力,也让原本就非常敏感的核威慑平衡变得更加脆弱。今年5月印巴之间爆发的冲突,就是一个很现实的例子。在那场冲突中,社交媒体上到处都是假消息,比如一些AI生成的图片,声称拍到了对方被击毁的目标,这让人很难分辨真假。
这场冲突一开始是印度在巴基斯坦遭遇恐怖袭击后发起的报复行动。随后,巴基斯坦也进行了反击,双方互相发射导弹和其他武器,造成了一些人员伤亡。在这期间,新闻媒体和社交平台上充斥着大量关于破坏程度的虚假信息,其中有很多都是AI制作的假图和深度伪造的视频,让情况更加混乱。
AI在核决策中的应用风险
虽然这次冲突最后是在美国的压力下四天后停火了,但全球的安全专家们还是很担心虚假信息可能会引发核战争的升级。美国科学家联合会的核问题专家马特·科尔达就警告说,一些别有用心的人可能通过社交媒体传播假消息,来影响拥有核武器国家的决策。比如说,如果有人在媒体上散布“伊朗已经造出核武器”的谣言,这可能会影响到美国总统的判断和行动。
印度现在已经开发了一个叫“Vastav AI”的系统,用来对抗深度伪造技术,但专家们觉得这些防御措施还远远不够。国际新闻工作者联合会的一份报告指出,在印巴发生冲突的时候,一个月内产生的虚假信息,竟然在几小时内就在社交媒体上疯狂传播。
现在,人工智能在核决策中的应用也成了一个大问题。美国国防部已经在常规战争中用AI来做计划和战场指挥,负责核力量的高级官员表示,AI可以帮助加快核指挥和控制的决策速度。
今年1月,OpenAI宣布和美国国家实验室合作,要把他们的AI模型用到核武器领域。到了6月,Anthropic推出了一个专门给政府用的Claude Gov版本,就是基于他们家的Claude AI助手,专门用来满足美国国家安全的需求。据说,中国和俄罗斯也在把AI工具整合进自己的核战争系统里。
AI在核导弹预警中的应用与风险
一直以来,很多国家都用基于AI的算法来识别和追踪可能来袭的核导弹。蒙特雷詹姆斯·马丁防扩散研究中心的AI和核安全研究员爱丽丝·萨尔蒂尼说,最近的一个新进展是使用AI推理模型,这些模型能跨任务进行推理,还能更快地处理大量数据。
斯坦福大学研究网络政策和安全的赫伯特·林表示,AI可以作为一种辅助决策的工具,帮助提出不同的应对方案,评估某次攻击可能造成的伤亡,或者判断哪些做法违反了国际战争规范。但他也强调:“把启动代码交给ChatGPT这种东西,是个非常糟糕的主意。”
萨尔蒂尼还指出,很多AI模型容易“胡说八道”,而且倾向于快速做出决定,这在涉及生死的军事决策中是非常危险的。AI技术可能会让人搞不清楚对手的真实意图或能力,从而破坏核威慑的基本原则。
面对这些越来越严重的威胁,科学界已经开始积极行动。7月14日,在芝加哥举行的一场为期三天的会议上,几十位科学家,包括一些诺贝尔奖得主,齐聚一堂,讨论如何防止核战争。这次会议刚好是在研究人员和美国军方首次试验原子弹80年后举行的。
AI与核安全风险警示
这次会议上,科学家们发出了关于AI潜在风险的新警告,同时提出了降低核战争风险的具体建议。他们呼吁各国在AI的科学和军事影响方面保持透明沟通,重申对暂停核试验的承诺,并支持制定一项新的裁军条约,来替代即将到期的《新削减战略武器条约》。
芝加哥大学的物理学家丹尼尔·霍尔茨说:“我们经常听到有人说核威胁已经过去,是冷战时期的老问题了,但如果你真正跟专家聊一聊,你会发现现实情况正好相反——现在的核风险非常高,而且还在不断上升。”
《原子科学家公报》的总裁兼首席执行官亚历山德拉·贝尔表示,AI的发展速度“已经快到我们连理解它的影响都来不及,更别说控制它了”。她呼吁政策制定者需要更多了解AI的技术能力与局限性。
加州大学圣巴巴拉分校的物理学家戴维·格罗斯,在2024年的大选中几乎没人讨论核武器问题,这让他深受触动,于是他推动组织了这次芝加哥会议。他警告说:“人们并没有真正意识到核战争的危险,这是一种非常不稳定的状态。”
目前,全球讨论AI与军事安全的主要平台是“负责任AI年度峰会”,下一次会议定在9月举行。去年的峰会上虽然发布了一份没有约束力的声明,强调人类应该掌控核武器部署的各个方面,但专家们认为这种表态远远不够。
人工智能时代的挑战
核武器的时代已经过去80年了,但现在人类正站在一个非常关键的十字路口。现在这个世界由人工智能和虚假信息主导,想要防止核战争,就需要前所未有的国际合作和技术上的严格管理。就像很多科学家一直在提醒的那样,时间不等人,我们能采取行动的机会正在越来越小。
富腾优配-做杠杆炒股-股票配资之家-散户配资网站提示:文章来自网络,不代表本站观点。