0


OpenAI 安全问题引发广泛关注,革命性的技术只由少数公司控制|TodayAI

近期,《华盛顿邮报》的一篇报道揭示了关于 OpenAI 安全协议的越来越多的指控,这使得这家全球领先的人工智能研发机构再次成为公众关注的焦点。

OpenAI 作为开发具有人类智能的人工智能技术的领军者,近年来一直在不断推进其技术边界。然而,内部员工频频通过新闻和播客表达他们对公司安全性严重担忧的声音。这些声音反映了一个价值 800 亿美元的非营利研究机构在安全测试上可能存在的疏忽。

安全测试遭质疑

《华盛顿邮报》报道称,一位匿名消息人士透露,OpenAI 在确保产品安全之前就匆忙通过了安全测试并举行了庆祝活动。“他们在知道是否安全发布之前就计划了发布后的庆祝活动,”这位匿名员工表示。“我们基本上在流程上失败了。”

安全问题在 OpenAI 中一直占据重要地位,并且问题似乎层出不穷。近期,OpenAI 的现任和前任员工签署了一封公开信,要求公司改善安全性和透明度。不久前,随着联合创始人伊利亚·苏茨克维尔(Ilya Sutskever)的离职,其安全团队也被解散。关键研究员扬·莱克(Jan Leike)随后辞职,并在一篇帖子中指出,“安全文化和流程已经让位于闪亮的产品”。

安全承诺与现实矛盾

根据 OpenAI 的章程,如果竞争对手达到了 AGI,OpenAI 将协助其他组织推进安全工作,而不是继续竞争。公司声称致力于解决这种大型复杂系统固有的安全问题。为确保安全,OpenAI 甚至将其专有模型保密,而不是公开,这也引发了外界的嘲讽和诉讼。然而,这些警告似乎并未阻止公司在安全方面的疏忽。

OpenAI 发言人塔雅·克里斯蒂安森(Taya Christianson)在一份声明中表示:“我们为自己提供最有能力和最安全的 AI 系统的记录感到自豪,并相信我们在解决风险方面的科学方法。鉴于这项技术的重要性,严格的辩论至关重要,我们将继续与全球政府、民间社会和其他社区合作,以服务于我们的使命。”

安全问题的广泛影响

根据 OpenAI 和其他研究新兴技术的专家的说法,安全问题至关重要。美国国务院在三月委托的一份报告中指出:“当前前沿 AI 的发展对国家安全构成紧迫和日益严重的风险。先进的 AI 和 AGI(通用人工智能)的兴起有可能以类似于核武器引入的方式破坏全球安全。”

去年,OpenAI 的安全问题引发了董事会政变,短暂罢免了首席执行官山姆·奥特曼(Sam Altman)。董事会表示,他因未能“在沟通中始终保持坦诚”而被罢免,导致了一场并未让员工放心的调查。

安全措施与外界反应

面对接连不断的争议,OpenAI 试图通过一系列公告来平息外界的担忧。本周,OpenAI 宣布与洛斯阿拉莫斯国家实验室合作,探索先进 AI 模型(如 GPT-4o)如何安全地帮助生物科学研究,并多次提到洛斯阿拉莫斯的安全记录。第二天,匿名发言人告诉彭博社,OpenAI 创建了一个内部尺度来跟踪其大型语言模型在向通用人工智能迈进方面的进展。

这些安全公告似乎是在面对越来越多的批评时的防御性措施。显然,OpenAI 目前正面临巨大的压力,但仅靠公关努力不足以保障社会安全。真正重要的是,如果 OpenAI 继续未能制定严格的安全协议,其内部人员声称的那样,这将对普通人产生深远影响:普通人无法对私有化 AGI 的开发发表意见,但他们却无法选择如何保护自己免受 OpenAI 的创造物的影响。

监管与未来展望

美国联邦贸易委员会(FTC)主席莉娜·汗(Lina Khan)在 11 月告诉彭博社:“AI 工具可以是革命性的,但截至目前,有人担心这些工具的关键输入由相对少数公司控制。”

如果对 OpenAI 安全协议的众多指控属实,这无疑会对其担任 AGI 管理者的角色提出严重质疑。允许旧金山的一个团体控制可能改变社会的技术令人担忧,这也使得在其内部比以往任何时候都更迫切需要透明和安全。

标签: 安全 chatgpt OpenAI

本文转载自: https://blog.csdn.net/ponderai/article/details/140409003
版权归原作者 TodayAI日报 所有, 如有侵权,请联系我们删除。

“OpenAI 安全问题引发广泛关注,革命性的技术只由少数公司控制|TodayAI”的评论:

还没有评论