知情人士向CNBC证实,OpenAI上周解除了OpenAI高级安全主管之一Aleksander Madry的职务,并将他重新分配到一份专注于人工智能推理的工作中。Madry是OpenAI的准备主管,根据Madry的简历,该团队“负责跟踪、评估、预测和帮助防范与前沿人工智能模型相关的灾难性风险”。Madry也是麻省理工学院可部署机器学习中心的主任,也是麻省理工大人工智能政策论坛的教员联合负责人,据该大学网站称,他目前正在休假。重新分配Madry的决定是在一群民主党参议员致函OpenAI首席执行官Sam Altman之前不到一周做出的,信中涉及“关于OpenAI如何解决新出现的安全问题的问题”。这封周一发送并由CNBC查看的信还表示,“我们向OpenAI寻求更多信息,了解该公司为履行其在安全方面的公开承诺所采取的措施,该公司如何在内部评估其在这些承诺方面的进展,以及该公司如何识别和缓解网络安全威胁。”OpenAI没有立即回应置评请求。立法者要求OpenAI在8月13日前就其安全实践和财务承诺的具体问题作出一系列答复。这是围绕OpenAI的安全问题和争议日益加剧的夏天的一部分,OpenAI与谷歌、微软、Meta和其他公司一起领导着一场生成性人工智能军备竞赛——预计十年内收入将超过1万亿美元——因为似乎每个行业的公司都急于添加人工智能驱动的聊天机器人和代理,以避免被竞争对手甩在后面。本月早些时候,微软放弃了其在OpenAI董事会的观察员席位,在CNBC看到的一封信中表示,它现在可以辞职,因为它对这家初创公司董事会的建设感到满意自一场起义导致首席执行官萨姆·奥特曼短暂下台并威胁到微软对OpenAI的大规模投资以来,该组织在八个月内进行了改革。但上个月,一群现任和前任OpenAI员工发表了一封公开信,表达了对人工智能行业快速发展的担忧,尽管缺乏监督,也没有对那些希望发声的人提供举报人保护。“人工智能公司有强烈的财务动机来避免有效的监督,我们认为定制的公司治理结构不足以改变这一点,”员工当时写道。在这封信发表几天后,一位熟悉此事的消息人士向CNBC证实,联邦贸易委员会和司法部将对OpenAI、微软和英伟达展开反垄断调查,重点关注这些公司的行为。联邦贸易委员会主席Lina Khan将该机构的行动描述为“对人工智能开发商和主要云服务提供商之间正在形成的投资和合作关系的市场调查”。现任和前任员工在6月的信中写道,人工智能公司有“大量非公开信息”,说明他们的技术可以做什么,他们采取的安全措施的程度,以及技术对不同类型伤害的风险水平。“我们也理解这些技术带来的严重风险,”他们写道,并补充说,这些公司“目前只有微弱的义务与政府分享其中一些信息,与民间社会没有。我们认为他们不能都自愿分享这些信息。”5月,OpenAI决定解散其专注于人工智能长期风险的团队,一位知情人士当时向CNBC证实了这一点。这位不愿透露姓名的人士表示,一些团队成员正在被重新分配到公司内部的其他团队在OpenAI联合创始人Ilya Sutskever和Jan Leike的领导人于5月宣布离开初创公司后,该团队被解散。Leike在X上的一篇帖子中写道,OpenAI的“安全文化和流程已经让位于闪亮的产品。为了进行这项研究,”Leike当时在X上写道。“然而,很长一段时间以来,我一直不同意OpenAI领导层对公司核心优先事项的看法,直到我们最终达到了一个临界点。”Leike写道,他认为公司的带宽应该更多地集中在安全、监控、准备、安全和社会影响上。他写道:“这些问题很难解决,我担心我们没有走上实现目标的轨道。”。“在过去的几个月里,我的团队一直在逆风而行。有时我们正在为(计算资源)而挣扎,完成这项关键研究变得越来越困难。”Leike补充说,OpenAI必须成为一家“安全第一的AGI公司”。“构建比人类更智能的机器是一项本质上危险的努力,”他当时写道。“OpenAI代表全人类承担着巨大的责任。但在过去几年里,安全文化和流程已经让位于闪亮的产品。”《信息报》首次报道了Madry的重新分配
声明:本文所述观点并非数字焦点的立场,不构成任何投资活动的邀约或建议。本文仅供参考。投资存在风险,请自行评估。转载需注明来源,违者必究!文章投稿请联系miqianbao@gmail.com