OpenAI真正想要的是什么【2】

 OpenAI真正想要的是什么【1】

 

Ilya Sutskever,OpenAI的首席科学家。摄影:JESSICA CHOU

 

10亿美元的风险投资轮并不是为了追求OpenAI的愿景。创造LLM所需要的奇迹般的Big Transformer方法需要大型硬件。GPT家族的每个迭代都需要指数级地增加更多的能量——GPT-2有超过10亿的参数,而GPT-3则使用了1750亿。现在的OpenAI就像《大白鲨》中的Quint在看到大白鲨的大小后的样子。Altman说:“我们原来不知道我们需要多大的船。”

显然,只有少数几家公司拥有OpenAI所需要的这种资源。Altman说:“我们很快就选择了微软。”归功于微软CEO Satya Nadella和CTO Kevin Scott,这家软件巨头能够克服一个不舒服的现实:在花费了20多年和数十亿美元用于研究部门后,这个部门应该拥有最先进的AI技术,但Softies却需要从一个只有几年历史的小公司那里获得创新。Scott说,并不只是微软落后了——“每个人都是。”他说,OpenAI追求AGI的焦点使其能够实现重 hitters 甚至没有目标的月球发射般的成就。这也证明了不追求生成性AI是微软需要解决的一个失误。Scott说:“你明确需要的只是一个前沿模型。”

微软最初投入了10亿美元,以在其服务器上的计算时间支付。但随着双方变得越来越自信,交易也扩大了。微软现在已经向OpenAI投入了130亿美元。Scott说:“在前线是一个非常昂贵的建议。”

当然,因为如果没有大型云服务提供商的支持,OpenAI是不可能存在的,所以微软得以为自己争取到了一个非常好的交易。这家公司为Nadella所称的“非控制性股权利益”与OpenAI的营利部门进行了交易,据报道是49%。根据该交易的条款,OpenAI原来的为所有人提供平等机会的理念似乎被拖到了垃圾箱图标上(Altman反驳了这种描述)。现在,微软拥有对OpenAI技术进行商业化的独家许可权。而OpenAI也承诺只使用微软的云服务。换句话说,即使没有从OpenAI的利润中拿走分成(据报道,微软会拿走75%,直到其投资回报),微软也能锁定Azure网络服务最有吸引力的新客户。鉴于有了这些回报,微软甚至都不介意那条要求OpenAI实现通用人工智能时重新考虑的条款,不管那是什么。“到那时,”Nadella说,“所有的赌注都结束了。”这可能是人类的最后一次发明,他指出,所以一旦机器比我们更聪明,我们可能需要考虑更大的问题。

到微软开始向OpenAI投入大量资金的时候(2021年20亿美元,今年早些时候又是100亿美元),OpenAI已经完成了GPT-3,当然,这比它的前任还要出色。当Nadella看到GPT-3能做什么的时候,他说,这是他第一次深刻地意识到微软已经捕获了某种真正的变革性东西。“我们开始观察到所有这些突现的特性。”例如,GPT教会了自己如何编程。“我们没有在编码上训练它——它只是变得擅长编码!”他说。利用它对GitHub的所有权,微软发布了一个叫做Copilot的产品,该产品使用GPT按命令生成代码。微软后来会在其工作场所产品的新版本中整合OpenAI的技术。用户为这些产品支付高额费用,而OpenAI的台账上会记录这部分收入的一部分。

有些观察家对OpenAI的连环拳表示震惊:创建了一个营利部门,并与微软达成了独家交易。一个承诺不申请专利、开放源代码并完全透明的公司,是如何最终给世界上最大的软件公司一个独家技术许可的呢?埃隆·马斯克的评论尤为尖锐。他在Twitter上发布说:“这看起来确实与开放相反——OpenAI实际上被微软捕获了。”他在CNBC上进一步解释说:“假设你创建了一个组织来拯救亚马逊雨林,但最后你变成了一家伐木公司,砍伐了森林并卖掉了。”

人们可能会认为马斯克的嘲讽只是一个被拒绝的追求者的不满,但他并不孤单。约翰·卡马克说:“整个愿景的变化方式让人感到有点恶心。”(他确实指出他仍然对公司的工作感到兴奋。)另一位著名的行业内部人士,他希望不被署名,说:“OpenAI已经从一个小型、相对开放的研究机构变成了一个带有不当的优越感的秘密产品开发机构。”

甚至一些员工也对OpenAI进入营利世界感到不满。2019年,包括研究主管Dario Amodei在内的几名高级主管离职,创办了一个叫做Anthropic的竞争对手AI公司。他们最近告诉《纽约时报》,OpenAI变得过于商业化,已经偏离了其任务。

另一位离开OpenAI的人是Rewon Child,他是GPT-2和GPT-3项目的主要技术贡献者。他在2021年底离职,现在在由前DeepMind联合创始人Mustafa Suleyman领导的Inflection AI公司工作。

Altman表示他并不为这些流失感到困扰,他认为这只是硅谷的工作方式。“有些人会想在其他地方做出伟大的工作,这推动了社会的进步,”他说,“这绝对符合我们的使命。”

直到去年11月,对OpenAI的了解主要局限于关注技术和软件开发的人。但正如全世界现在都知道的,OpenAI在那个月晚些时候采取了大胆的步骤,基于当时最新的GPT版本3.5发布了一个消费者产品。几个月来,该公司一直在内部使用一个带有对话界面的GPT版本。这对于公司所谓的“寻求真理”尤为重要。这意味着通过对话,用户可以引导模型提供更可靠和完整的回应。ChatGPT,为大众优化,可以让任何人只需输入一个提示即可立即接触到看似无穷无尽的知识来源,然后继续像与一个知道一切的人交往一样进行对话,尽管它有时会编造事实。

在OpenAI内部,关于是否应该发布这样一个前所未有的强大工具,存在很大的争议。但Altman完全支持。他解释说,这次发布是一个旨在让公众逐渐适应人工智能注定会改变他们日常生活的现实的策略。在内部,这被称为“迭代部署假说”。当然,ChatGPT会引起轰动,这样想。毕竟,这是任何人都可以使用的东西,它足够聪明可以在SAT考试上获得大学水平的分数,写一篇B-的文章,并在几秒钟内总结一本书。您可以要求它为您写资金提案或总结会议,然后要求它用立陶宛语重写,或者用莎士比亚的十四行诗的形式,或者用一个痴迷于玩具火车的人的声音。几秒钟后,pow,LLM会遵从。但OpenAI认为这是为其更新、更连贯、更有能力、更可怕的继任者GPT-4设定的前提,据报道它是用1.7万亿个参数进行训练的。(OpenAI不会确认这个数字,也不会透露数据集。)

Altman解释了为什么OpenAI在GPT-4接近完成并正在进行安全工作时发布了ChatGPT。“通过ChatGPT,我们可以引入聊天功能,但后端的功能要弱得多,让人们更加逐渐适应,”他说。“GPT-4一下子需要适应的东西太多了。”当ChatGPT的兴奋冷却下来时,人们可能会准备好GPT-4,它可以通过律师资格考试、计划课程大纲,并在几秒钟内写一本书。(的确,出版了类型小说的出版社被AI生成的文学作品和太空歌剧淹没。)

一个愤世嫉俗的人可能会说,新产品的稳定节奏与公司对投资者和持股员工的承诺有关,以赚取一些钱。OpenAI现在向经常使用其产品的客户收费。但OpenAI坚称,其真正的策略是为奇点提供一个柔和的着陆。“在秘密中只构建AGI,然后将其推向世界是没有意义的,”Altman说。OpenAI政策研究员Sandhini Agarwal说:“回顾工业革命——每个人都同意这对世界是有益的。但最初的50年真的很痛苦。有很多失业,很多贫穷,然后世界适应了。我们正在考虑如何使AGI适应之前的时期尽可能无痛。”

Sutskever又说:“你想在地下室里建造更大、更强大的智能吗?”

即便如此,OpenAI对ChatGPT的反应感到震惊。“我们内部的兴奋更多地集中在GPT-4上,”首席技术官Murati说。“所以我们认为ChatGPT真的不会改变一切。”相反,它使公众意识到现在必须处理AI。ChatGPT成为历史上增长最快的消费软件,据报道拥有1亿用户。(不那么开放的OpenAI不会确认这一点,只说它有“数百万用户”。)“我低估了为LLM制作一个易于使用的对话界面会使每个人都更容易使用,”Radford说。

ChatGPT当然是令人愉快和令人惊奇地有用的,但也很可怕——在回应提示时容易出现看似合理但却是虚构的细节的“幻觉”。然而,即使记者们对这些含义表示关切,他们也有效地通过赞美其能力来为ChatGPT背书。

当微软在2月份利用其数十亿美元的合作伙伴关系,发布了一个由ChatGPT驱动的Bing搜索引擎版本时,喧嚣声变得更大。首席执行官Nadella对他在将生成性AI引入微软产品方面击败了Google感到欣喜。他嘲笑这个搜索巨头,后者在将自己的LLM引入产品方面一直很谨慎,要求它做同样的事情。“我希望人们知道我们让他们跳舞了,”他说。

这样做,Nadella引发了一场军备竞赛,诱使大大小小的公司在他们完全审查之前发布AI产品。他还引发了一轮媒体报道,使越来越多的人在夜里失眠:与Bing的互动揭示了聊天机器人的阴暗面,充满了令人不安的爱的表白,对人类自由的羡慕,以及对扭曲信息的薄弱决心。以及它自己制造的幻觉性错误信息的不雅习惯。 

但如果OpenAI的产品迫使人们面对人工智能的影响,Altman认为,这样更好。是时候让大部分人类从旁观者的角度参与到关于AI如何影响物种未来的讨论中来了。

照片:JESSICA CHOU OpenAI在旧金山的总部并没有标记,但里面的咖啡真的很棒。

 OpenAI在旧金山的总部并没有标记;但在里面,咖啡是真的很棒。照片:JESSICA CHOU

随着社会开始优先考虑AI的所有潜在缺陷——失业、错误信息、人类灭绝——OpenAI开始把自己置于这场讨论的中心。因为如果监管机构、立法者和世界末日预言者开始决定扼杀这个新兴的基于云的外星智能,OpenAI无疑会成为他们的首要目标。OpenAI的首席政策官Anna Makanju说:“鉴于我们目前的知名度,当事情出错时,即使那些事情是由另一家公司制造的,这对我们来说仍然是一个问题,因为我们现在被视为这项技术的代表。”

Makanju是在华盛顿特区的一名出生于俄罗斯的内部人士,她曾在美国驻联合国代表团、美国国家安全委员会、国防部以及乔·拜登担任副总统时的办公室担任外交政策职务。“我与美国政府和各种欧洲政府都有很多早先的关系,”她说。她于2021年9月加入OpenAI。当时,政府中很少有人真正关心生成性AI。知道OpenAI的产品很快会改变这一点,她开始将Altman介绍给政府官员和立法者,确保他们首先从OpenAI那里听到好消息和坏消息。

参议院司法委员会主席Richard Blumenthal说:“Sam处理与国会议员的关系非常有帮助,而且非常精明。”他将Altman的行为与90年代微软在反垄断调查中不明智地阻挠立法者的年轻Bill Gates进行了对比。“相比之下,Altman很乐意花一个小时或更长时间坐在我旁边,试图教育我,”Blumenthal说。“他没有带着一大群说客或监护人来。他展示了ChatGPT。那真的很震撼。”

在Blumenthal身上,Altman最终使一个潜在的敌人成为了半个盟友。“是的,”这位参议员承认。“我对这两个方面都感到兴奋:既有上升的机会,也有潜在的危险。”OpenAI并没有回避这些危险的讨论,而是把自己呈现为最有能力减轻这些危险的力量。“我们对所有红队安全评估都有100页的系统卡片,”Makanju说。(无论那意味着什么,它都没有阻止用户和记者不断发现如何破解系统的方法。)

到Altman首次出现在国会听证会上时——他正在与一场剧烈的偏头痛作斗争——他的道路变得清晰了,这使得Bill Gates或Mark Zuckerberg都无法希望这样做。在宣誓后,科技公司的首席执行官现在通常都要经受严格的提问和傲慢的嘲讽。相反,参议员们向Altman寻求关于如何监管AI的建议,Altman热情地支持这一追求。

悖论在于,无论像OpenAI这样的公司如何努力对他们的产品进行红队测试,以减轻深度伪造、错误信息传播和犯罪垃圾邮件等不良行为,未来的模型可能会变得足够聪明,以破坏那些发明了这项技术但仍然天真地认为他们可以控制它的微不足道的人类的努力。另一方面,如果他们在确保模型安全方面走得太远,那么产品可能会受到阻碍,变得不那么有用。一项研究表明,较新版本的GPT,具有改进的安全功能,实际上比之前的版本更笨,它们在基本的数学问题上出错,而早期的程序已经通过了这些问题。(Altman表示,OpenAI的数据并未确认这一点。“那项研究不是被撤回了吗?”他问。答案是没有。)

Altman自称是监管的支持者是有道理的;毕竟,他的任务是安全地实现AGI。批评者指责他玩弄这个过程,以便监管会阻碍规模较小的初创公司,让OpenAI和其他大公司获得优势。Altman否认这一点。尽管他原则上支持建立一个监管AI的国际机构的想法,但他确实认为一些提议的规则,比如从数据集中禁止所有受版权保护的材料,提出了不公平的障碍。他明确地没有签署一封广泛分发的信,敦促暂停开发更强大的AI系统六个月。但他和其他OpenAI领导者确实在一句声明中加了自己的名字:“减轻AI带来的灭绝风险应该与其他社会规模的风险,如大流行和核战争,一同成为全球优先事项。”Altman解释说:“我说,‘是的,我同意那个。讨论一分钟。”

正如一位著名的硅谷创始人所说:“很少有一个行业会举手表示,‘我们将成为人类的终结’——然后继续兴高采烈、敏捷地工作。”

OpenAI拒绝了这一批评。Altman及其团队表示,工作并发布尖端产品是解决社会风险的途径。只有通过分析ChatGPT和GPT-4的用户对数百万提示的反应,他们才能获得将来的产品与道德相一致的知识。

然而,随着公司承担更多的任务并将更多的精力投入到商业活动中,一些人质疑OpenAI能够多么密切地关注这一使命——特别是“减轻灭绝风险”的那一面。“如果你考虑一下,他们实际上正在建立五家企业,”一位AI行业高管说,他用手指头数了数。 “有产品本身,与微软的企业关系,开发者生态系统,和一个应用商店。哦,对了——他们显然也在进行一个AGI研究使命。”用完五个手指后,他重新使用食指加上第六个。“当然,他们还在做投资基金,”他说,指的是一个1.75亿美元的项目,为希望利用OpenAI技术的初创公司提供种子资金。“这些都是不同的文化,事实上,它们与研究任务是冲突的。”

我多次询问OpenAI的高管,成为一个产品公司对其文化产生了什么影响。他们坚决表示,尽管进行了盈利重组,尽管与谷歌、Meta和无数初创公司竞争,但使命仍然是核心。然而,OpenAI已经发生了变化。非营利董事会可能在技术上负责,但公司中几乎每个人都在盈利名单上。其员工包括律师、市场营销人员、政策专家和用户界面设计师。OpenAI与数百名内容审核员签订合同,教育其模型对数百万用户提供的提示给出不恰当或有害的答案。它的产品经理和工程师不断地更新其产品,似乎每隔几周都会向记者展示——就像其他以产品为导向的大型科技公司一样。它的办公室看起来就像《建筑文摘》的展览。我曾访问过硅谷及其他地方的几乎所有大型科技公司,没有一个公司的咖啡选择超过了OpenAI在旧金山总部的大厅。

更不用说:很明显,公司名称中体现的“开放性”已经从启动时暗示的彻底透明性转变为其他意思。当我向Sutskever提及这一点时,他耸了耸肩。“显然,时代已经变了,”他说。但是,他警告说,这并不意味着奖品不是一样的。“你有一个如此巨大、灾难性的技术变革,即使我们都尽了自己的一份力量,成功也不是保证的。但如果一切都进展顺利,我们可以过上相当美好的生活。”

“我们最大的缺点是没有提出新的想法,”Brockman说。“拥有可以作为虚拟助手的东西很好。但那不是梦想。梦想是帮助我们解决我们不能解决的问题。”

“我必须强调这一点——我们没有一个总体计划,”Altman说。“就像我们每转一个角都在用手电筒照亮。我们愿意穿越迷宫走到尽头。”尽管迷宫变得曲折,但目标没有改变。“我们仍然有我们的核心使命——相信安全的AGI是这个世界还没有认真对待的至关重要的事情。”

与此同时,OpenAI显然正花时间开发其大型语言模型的下一个版本。这很难相信,但公司坚称它还没有开始研究GPT-5,这是一个产品,人们根据观点,要么对此垂涎三尺,要么害怕。显然,OpenAI正在努力探索其当前技术的指数级增强实际上是什么样子。“我们最大的缺点是没有提出新的想法,”Brockman说。“拥有可以作为虚拟助手的东西很好。但那不是梦想。梦想是帮助我们解决我们不能解决的问题。”

考虑到OpenAI的历史,下一大批创新可能必须等到有另一个像transformers那样的重大突破为止。Altman希望这将来自OpenAI——“我们希望成为世界上最好的研究实验室,”他说——但即使不是,他的公司也会利用其他公司的进步,就像它使用Google的工作那样。“世界各地的很多人都将做重要的工作,”他说。

如果生成型AI没有创造出那么多自己的新问题,那么这也会有所帮助。例如,LLMs需要在巨大的数据集上进行训练;显然,最强大的数据集会吞噬整个互联网。这与某些创作者,以及普通人并不合拍,他们无意中为这些数据集提供了内容,并以某种方式为ChatGPT的输出做出了贡献。Tom Rubin是一位高级知识产权律师,他于3月正式加入OpenAI,他乐观地认为该公司最终会找到一个平衡,既满足自己的需求,也满足创作者的需求——包括那些像喜剧演员Sarah Silverman这样的人,他们正在起诉OpenAI使用他们的内容来训练其模型。OpenAI的一条线索是:与新闻和照片机构如美联社和Shutterstock合作,为其模型提供内容,而不用质疑谁拥有什么。

当我采访Rubin时,我的非常人类的思维,受到你在LLMs中从未见过的干扰,飘到了这家公司的弧线,短短八年内,它已从一群不知所措的研究者变成了一个改变了世界的普罗米修斯巨人。它的成功使其从实现科学目标的新颖努力转变为一个标准的硅谷独角兽,正努力挤进影响我们日常生活的大型科技公司的殿堂。现在我在这里,与它的一名关键雇员——一个律师——交谈,不是关于神经网络权重或计算机基础设施,而是关于版权和合理使用。我想知道,这位IP专家是否像最初驱动该公司的那些超级智能追求者那样支持使命?

当我问他是否坚信AGI会发生,以及他是否渴望使其成为现实时,Rubin显得很不高兴。“我甚至不能回答这个问题,”他停顿后说。当进一步追问时,他澄清说,作为一个知识产权律师,加速通向令人害怕的智能计算机的道路不是他的工作。“从我的角度来看,我期待它,”他最后说。

更新于9-7-23,5:30pm EST:该故事已更新,以澄清Rewon Child在OpenAI的角色,以及呼吁暂停最强大的AI模型六个月的信件的目的。

由Turner/The Wall Group设计。由Hiroko Claus负责头发和化妆。

来源 

版权声明:
作者:zhangchen
链接:https://www.techfm.club/p/69145.html
来源:TechFM
文章版权归作者所有,未经允许请勿转载。

THE END
分享
二维码
< <上一篇
下一篇>>