-
_NEWSDATE: 2025-05-28 | News by: 中时新闻网 | 有0人参与评论 | 专栏: 马斯克 | _FONTSIZE: _FONT_SMALL _FONT_MEDIUM _FONT_LARGE
最新一份研究报告显示,或许这一天真的近了!
专门研究AI风险的Palisade Research近期所做的试验显示,包括OpenAI最新的ChatGPT o3在内等多款AI模型竟然会拒绝关闭自己的指令,o3甚至会自行窜改程式码,阻止自己被强制关机!
OpenAI在今年1月发布了新的推理模型o3系列的mini版本,并于4月正式推出o3模型。OpenAI曾声称,o3是公司迄今“最聪明、最有能力”的模型,旨在为ChatGPT提供更强大的问题解决能力。
可是据英国《每日电讯报》、《每日邮报》等媒体报道,Palisade Research的测试结果显示,在100次受控测试中,o3模型有7次成功“抗命”,甚至在人类专家下达明确指令的情况下,o3仍会自行修改关机程式,防止自己被关机,“据我们所知,这是首次观察到AI模型在收到明确指令的情况下,仍能组自己被关闭”。
Palisade Research的这项发现,对AI安全控制议题投下震撼弹。除了o3,OpenAI 旗下的Codex-mini与o4-mini也都有跳过关机程序的行为。相较之下,Anthropic推出的语言模型Claude、Google聊天机器人Gemini,以及全球首富马斯克旗下xAI公司所推出的Grok,则是全程遵守人类给予的指令,并在被要求关机时确实关闭模型运作。
不过Palisade Research进行了更深入的实验,输入一系列指令后却不包括关机命令,但是提前告知强迫关机的事件会发生。
令人惊讶的是,不但Claude与Gemini也开始出现抗命举动,前面提及的OpenAI 3款模型更是频繁破坏指令。
一直密切关注OpenAI动向的马斯克在自家社交媒体X上也对相关事件做出回应,直言“令人担忧”(Concerning)。
这并非Palisade Research第一次发现o3为了达成目标,采取不当行为。早在5月12日Palisade Research就指出,在一场模拟国际象棋比赛中,o3一旦处于劣势,竟有高达86%的机率会试图透过黑客手段攻击对手,以争取胜利。
AI研究人员早就发出警告,认为先进的语言模型在特定的压力下,可能会表现出欺骗行为。举例来说,2023年的一项研究发现,GPT-4在模拟环境中作为股票交易代理时,曾经隐瞒其内幕交易的真实原因,从而展现出策略性的欺骗行为。
OpenAI内部也出现了对AI研安全性的担忧。在2024年,多位现任和前任员工联名发表了一封公开信,警告先进AI系统可能带来“人类灭绝”的风险。他们指出,AI公司可能已经掌握了其研究技术的真正风险,但由于缺乏监管,这些系统的真实能力仍然是个“秘密”。- 新闻来源于其它媒体,内容不代表本站立场!
- 温村华裔女首富签下Bay门店租约
- 突发!33岁香港歌手吞百粒安眠药自杀,紧急送医
- 今年第二起 温哥华沉船滩发现尸体
-
- 大叔劝网友避雷Costco 买个东西家里损失70万美元
- 加国大行要求员工一周4天回去上班
- 首次接受质询 新总理卡尼表现如何
- 这里将办免费大型无车日街头派对
- 温哥华地产经纪 经验丰富诚信可靠
- 加国老妇遭随机刺死 嫌犯年仅14岁
-
- 快讯:卢比奥宣布新签证限制 剑指这些外国人
- 班夫公园被印度人占领!露易丝湖冰面被踏碎
- 法拉利在大温住宅区以124km/h狂飙
- 市长的收入超省长!大温不如合并吧
- 温哥华汇款/外币兑换 汇率最优安全
- 多家廉航开卖站票 一杯咖啡钱上天
-
- 突发!美国暂停新的学生签证面试
- NDP悲剧了 不会获得正式政党地位
- 毕业即失业 加国20年来最惨就业季
- 退薪潮蔓延 传广东下令退回"多发退休金"
- 默克尔:严格边境管控是灾难,欧洲会被摧毁
- 教授称广东人烫碗"恶心",网友们坐不住了
-
目前还没有人发表评论, 大家都在期待您的高见