很多人将OpenAI的宫斗视作商业八卦来瞧,然而这篇调查报道所揭示的情形却难以让人开怀,一位掌控着兴许会毁灭人类技术的CEO,被其亲手构建的制度判定为最大威胁。
一家本该为人类安全而生的公司
是在2015年的时候,奥特曼以及一群来自硅谷的精英,做了一件在商业历史当中几乎是找不出先例的事情,那就是利用非营利组织去开发或许属于人类历史上最为强大的技术,董事会职责被写得清清楚楚明明白白,安全优先于公司所获取的成功,甚至还优先于公司能够实现存活。
坦白讲,要是有那么一回,OpenAI所研发的人工智能呈现出具有危险性的状貌了,那么董事会便会被赋予一种责任,那便是亲自将这家公司予以关停。这样的一种设计,是把人类的安全放置于最为高的位置之上。从理论方面来讲,任何一个人都不可以为了能够获取钱财,进而去做出让安全受到损害的行为。
董事会发现CEO在持续说谎
在2023年到来之际,越来越多的董事会成员,心中笃定了一件事情,那就是奥特曼对于高管以及董事会,始终在持续不断地说着假话。其中有一个具体的事例,发生在2022年12月,当时奥特曼于董事会上作出保证,宣称即将发布的GPT – 4的多项功能,已然通过了安全审查。
董事会成员托纳要求查看审批文件,而后发现其中两项称得上、争议最大的功能根本未获安全面板批准。一名员工举报微软在印度提前发布开放人工智能 的早期版本时,并未完成必要安全审查。
安全审批流程被随意绕过
一位之前担任安全负责人的人,在笔记当中记录下了另外一件事情,奥特曼曾经对之前的CTO Mira讲,安全审批流程并非那么重要,公司法律总顾问已经表示认可了,然而当这个负责人跑去跟法律总顾问进行确认的时候,对方回复了一句话:”我不知道Sam是从什么地方得出这个印象的。“。
在那几年,奥特曼担任安全负责人,他亲眼目睹公司在商业压力呈现态势上,一步步往后退。安全审查演变成走过场这种情况,要是谁较起真来,就会被贴上“阻碍创新”这样的标签。
微软投资案里的致命漏洞
笔记里,他记录了一个关键细节,此细节关乎2019年微软投资案:他曾在OpenAI章程里,塞进一个条款,名为“合并与协助”。该条款大意是,倘若有别的公司,找到了更安全的AGI路径,那么OpenAI就应当停止竞争,转而帮助那家公司。
可是奥特曼于同微软进行谈判之际,暗自将该条款的执行力给删除掉了。哪怕确有某一个竞争对手探寻到了一条更好的道路,微软凭借一句话便能将OpenAI的协助义务给封堵住。商业利益面前安全设计被悄然拆除掉了。
超级对齐团队只是一个谎言
在2023年年中时,奥特曼通过邮件与一位致力于研究“欺骗性对齐”的博士生取得联系,表明自己对该问题极为担忧,还思量着设立价值达10亿美元的全球研究奖,一家公司高调宣称会把“已有算力的20%”划拨给这个团队,其潜在价值超出10亿美元。
然而,有四位于这个所提及团队里上班工作的人士讲,实际上所拨给的算力仅仅占公司总的算力的百分之之一到百分之二呀,并且还是最为老式陈旧的硬件,就在这样的情况下,当记者想要去采访负责“存在性安全”研究的相关人员的时候,公司的公关人员却这般说道:“那并非是一个确实实际存在的事物。”。
CFO跟奥特曼的根本性分歧
报道又透露了这么一个内部僵持状况:奥特曼与CFO存在着根本性的意见不合。CFO觉得所要完成的安全程序性以及组织性的工作量实在太过庞大,奥特曼承诺的5年6000亿美元算力支出所带来的财务风险实在是太高了。
都到了连微软内部的高管都看不下去的地步,声称奥特曼存在“歪曲事实、出尔反尔、不断推翻已达成协议”的情况。有一位微软高管更是说道,“我觉得他有一定概率最终会被人们记住为伯尼·麦道夫档次的骗子,或者是SBF级别的骗子。”。
你真的放心让Sam一个人来决定发不发布吗,纽约大学AI教授Gary Marcus读完报道后问了这样一个棘手之问题:要是某个未来的OpenAI模型能够制造出大规模生化武器不然说不定还会发动灾难性网络攻击?欢迎在评论区说说你的看法。