该文观点仅代表作者,本站仅提供信息存储空间服务,转载请注明出处。若需了解详细的安防行业方案,或有其它建议反馈,欢迎联系我们。
GPT-3被誉为人工智能领域的重大突破,有人认为它甚至显示出初步意识迹象,另一些人则指出GPT-3存在可笑的缺陷。
它可以大量炮制电子邮件、计算机代码、互联网广告、电子游戏情节主线、吉他即兴乐段,以及万圣节的服装建议。它可以写出几可乱真的艾米莉?狄金森(Emily Dickinson)风格的诗歌,或是欧内斯特?海明威(Ernest Hemingway)风格的散文,甚至在得到指令后,它还能够写出一段狄金森和海明威之间的虚构对话。
它的可能性似乎无穷无尽。因此,当我有机会与“生成式预训练变换器3”(GPT-3)――一款新的语言生成模型,过去几个月,它在人工智能领域引起了轰动――进行互动时,我请它帮我起草了一份新的履历,并要求要有浓厚的《星球大战》(Star Wars)中的英雄卢克?天行者(Luke Skywalker)的风格。
GPT-3学习了互联网上几乎所有可访问的文本,速度、规模和通用性都很惊人。以下是它瞬间生成的文本:“约翰?桑希尔在加入‘义军同盟’(Rebel Alliance)时已经是一位功勋卓著的战争英雄。在军事方面,他擅长使用爆能枪和直觉。但他真正的能力要在他的战机中队中才能体现出来。在起义军中,约翰升任战机中队指挥官,他带领自己的队伍经历了无数的战斗,这使他成为了一个具有真正起义军精神的坚定领导者。”我是时候更新我的名片了。
由于机器学习近期取得的进展,语言生成系统正变得越来越普遍。例如,Narrative Science旗下产品Quill可以提取股票投资组合的表现数据,并为投资者编写摘要。但就纯粹的适应性而言,没有任何系统能与GPT-3相比。GPT-3是总部位于旧金山的研究公司OpenAI于今年5月发布的。GPT-3估计耗资1200万美元,包含1750亿个语言参数,是先前原型模型的100倍。借用英国计算机科学之父艾伦?图灵(Alan Turing)的话说,这是迄今为止最令人印象深刻的“模仿”机器。
图灵是第一批对世界将如何被能够思考的机器所改变展开想象的人之一。他在自己1950年发布的论文《计算机器与智能》(Computing Machinery and Intelligence)中解释称,有一天,计算机可能会变得非常善于模仿人类,以至于人们无法把它们与有血有肉的人类加以区分。图灵写道:“我们可以希冀,机器最终将在所有纯智能领域与人类展开竞争。”
这种通用的计算机器可以通过让一个在进行电子对话的人相信他正在与另一个人类互动,来赢得图灵所称的“模仿游戏”,尽管现在一些人认为这种所谓的图灵测试(Turing Test)可能更多地反映了人类的轻信程度,而不是真正的机器智能。
70年过去了,得益于互联网的快速发展以及计算能力的指数级增长,我们已经进入了一个甚至超出图灵想象的机器化世界。随着神经网络和深度学习等新型软件技术的出现,计算机科学家在指导机器进行模仿游戏方面的能力已经大大提高。
一些已经对GPT-3进行过实验的人表示,它带来了真正智能的曙光,标志着向人工智能的终极目标――通用人工智能(AGI)――迈出的重要一步。通用人工智能意味着电子智能在几乎所有智能领域与人类匹敌。另一些人则认为这是无稽之谈,他们指出GPT-3存在可笑的缺陷,并暗示我们距离创造出这样的超级智能还有好几个概念上的突破。
OpenAI现年35岁的冷面首席执行官萨姆?奥尔特曼(Sam Altman)是硅谷最受人瞩目的人物之一。他表示,聪明的人在面对GPT-3时感到格外兴奋是有原因的。“有证据表明,这是通用人工智能的第一个先驱产品――这个系统能够支持许多不同的应用程序,并且真正提升我们能够开发出的软件种类。”他在接受英国《金融时报》采访时表示,“我认为,它之所以重要是因为它窥见了未来。”
OpenAI是全球最不寻常的企业之一,或许只有谷歌(Google)旗下的DeepMind――杰米斯?哈萨比斯(Demis Hassabis)执掌的、总部位于伦敦的人工智能研究企业――能与之媲美。正如奥尔特曼所说,OpenAI的120名员工可以被分为三个截然不同的“群体”:人工智能研究人员、初创企业的建设者以及科技政策与安全专家。它与极具前瞻性的脑机接口企业Neuralink共享位于旧金山的办公区域。
2015年,OpenAI依靠美国西海岸几位著名的企业家与科技公司承诺为其提供的10亿美元资金得以成立。该公司宣称自己雄心勃勃的使命是开发通用人工智能,以造福全人类。最早为其提供支持的亿万富翁包括特斯拉(Tesla)和SpaceX反复无常的创始人埃隆?马斯克(Elon Musk,他后来退出了OpenAI)、领英(LinkedIn)的创始人兼风险投资家里德?霍夫曼(Reid Hoffman),以及Facebook和Palantir的早期投资人彼得?蒂尔(Peter Thiel)。
OpenAI在创立之初是一家非营利企业,但随后采用了更加商业化的运营方式,并于去年接受了微软(Microsoft) 10亿美元的进一步投资。作为一家“有限盈利”企业,它能够筹集资金和发行股票(如果你想吸引硅谷最优秀的研究人员,这一点是必要的),同时坚持自己指导性的公共使命,而不会面临股东的过度施压。奥尔特曼表示:“这种企业结构能够让我们来决定何时、以及以何种方式公布技术。”
奥尔特曼于去年担任首席执行官一职,此前他掌管硅谷最成功的初创企业孵化器之一Y Combinator,后者帮助孵化了逾2000家企业,包括爱彼迎(Airbnb)、Dropbox和Stripe。他表示,他只是因为受到了诱惑才放弃了这份“梦想中的工作”,转而帮助解决人类所面临的最紧迫的挑战之一:如何开发安全有益的人工智能。“这是我能想象到的最重要的工作。”他表示,“我不会装作已经知道了所有答案,但我很乐意尽我所能做出贡献。”
在奥尔特曼看来,正在展开的人工智能革命对人类的影响,可能远远超过之前农业、工业和计算机革命的总和。通用人工智能的发展将从根本上改变人类与机器之间的关系,有可能诞生更高级形式的电子智能。到那时,正如以色列历史学家尤瓦尔?诺亚?哈拉里(Yuval Noah Harari)所言,智人将不再是地球上最聪明的算法。
奥尔特曼表示,如果管理得当,人工智能可以改变人类的生产率和创造力,让我们能够解决全球许多最复杂的挑战,例如气候变化和流行病。他表示:“我认为这将是一个无比强大的未来。”但如果管理不当,人工智能可能只会加剧我们目前面临的很多问题:企业权力过度集中,因为私营企业承担了越来越多曾经由政府行使的功能;经济不平等进一步加深和机会缩小;虚假信息的传播和民主的侵蚀。
尼克?博斯特罗姆(Nick Bostrom)等一些作家甚至认为,失控的人工智能甚至可能对人类的生存构成威胁。他在2014年出版的《超级智能》(Superintelligence)一书中写道:“面对智能爆炸的前景,我们人类就像小孩子在玩炸弹。”这些警告肯定引起了埃隆?马斯克的注意,他发布推文称:“对待人工智能,我们需要超级小心……它可能比核武器还要危险。”
对于如何最好地管理这些强大工具的担忧,使得OpenAI只在受控环境下发布了GPT-3。奥尔特曼表示:“GPT-3不是我们想要向全世界推出、然后无法控制推进方式的模型。”目前,大约2000家公司获准在受控的私下beta测试中访问该模型。它们在探索其功能时学习到的知识将反馈到这个模型,以便继续改进。开发人员给出了“令人震惊”、“惊人地出色”和“太棒了”这样的回应。
纽约大学(New York University)教授、心灵哲学专家戴维?查默斯(David Chalmers)甚至认为GPT-3先进到显示出初级的意识迹象。他在哲学网站Daily Nous写道:“我接受拥有302个神经元的蠕虫是有意识的,因此我也接受拥有1750亿个参数的GPT-3具备意识。”
然而,没过多久,用户就暴露出了GPT-3的阴暗面,并引诱它发表带有种族主义和性别歧视的言论。有些人担心这只会引发一波“语义垃圾”浪潮。一名大学生利用GPT-3模型用假名撰写的一篇假博文甚至登上科技网站Hacker News的头条。
如果OpenAI发现任何有意或无意滥用的证据,例如生成垃圾邮件或有害内容,它可以关闭这位滥用用户并更新其模型的行为,以减少这种情况再次发生的几率。奥尔特曼表示:“如果用户违反条款和条件,我们当然可以把他关闭――我们会这么做――但更令人兴奋的是,我们能非常迅速地改变一些东西。”
“我们把它作为通用人工智能发布的一个原因是,我们可以在它表现出色和糟糕的领域练习使用它:哪类应用有效,哪类无效,”他表示,“这实际上是我们在练习使用这些强大的通用人工智能系统。”
在未来的人工智能系统应用于聊天机器人、护理机器人或自动驾驶汽车等领域时,这些学习应有助于改善这些系统的设计和安全性。
尽管GPT-3目前的表现在许多方面都令人印象深刻,但它真正的意义很可能在于它为以后的新一代模型发展出的能力。目前,它的运行就像超级复杂的自动完成功能,能够在毫无理解概念的情况下,把听上去合理的单词序列串在一起。正如图灵几十年前预见的那样,计算机可以在不需要理解的情况下实现在很多领域的能力。
斯坦福大学以人为本人工智能研究院(Stanford Institute for Human-Centred AI)联席院长约翰?埃切门迪(John Etchemendy)强调,目前,即便是最强大的语言生成模型也存在局限性,他表示,尽管GPT-3可能被训练生成文本,但它对文本的含义没有直观的理解。相反,其结果来自数学概率建模。但他表示,随着时间的推移,最近计算机语言和视觉系统的进展可能会显著增强其能力。
“如果我们能根据既有文本又有图像的多模态数据训练出一些东西,那就太棒了,”他表示,“到那时,由此得到的系统不仅可以知道如何使用‘红色’这个词来生成句子,还可以使用红色这个颜色。我们可以开始建立一个真正理解语言的系统,而不是一个基于统计能力的系统。”
医疗数据公司Nabla Technologies检测了GPT-3提供医疗建议的能力,指出了GPT-3目前能力与理解力之间不匹配的情况可能带来的伤害。他们发现,GPT-3有一次甚至支持了一名虚构病人的自杀欲望。(OpenAI明确警告了在这种“高风险”情况下使用GPT-3的危险。)
爱丁堡大学(University of Edinburgh)数据与人工智能伦理学教授香农?瓦洛(Shannon Vallor)表示,这些案例突出了人类持续监控这些自动化系统的必要:“目前,GPT-3每时每刻都需要一名人类监控者来告诉它什么内容不能说。问题在于,GPT-3不是真的智能。它不能像人类一样学习。GPT-3无法明白这些特定言论的不合适之处,并停止说出这些言论。这是一个明显且巨大的漏洞,我不清楚我们如何能够解决它。”
“互联网的前景在于,它将有能力以更公平、更可接受的方式给人类提供知识,”瓦洛补充说,“我担心,由于GPT-3这样的技术,我们即将面临真正的倒退,即信息共享空间(information commons)越来越不可用,甚至会对人们产生伤害。”
领英创始人、OpenAI董事会成员之一里德?霍夫曼表示,OpenAI正努力设计安全的操作流程和更好的治理模型。他表示,为了防止出现坏结果,你需要做三件事:抹去在社会偏见中形成的不良历史数据;将某种形式的可解释性植入人工智能系统,并且理解你需要修正的东西;持续交叉比对任何系统的输出结果与其初始目标。他表示:“这方面的许多尝试已经开始有了眉目。人们对这些难题很警惕,正在努力解决它们。”
“问题不在于你要如何阻止技术,而在于你要如何塑造技术。”他补充说,“火箭本身并不坏。但如果火箭被一个想搞破坏、而且有炸弹的人控制,那就很糟了。我们要如何引领正确的方向?新条约是什么样?新监控方式是什么样?你要打造或者不打造什么样的技术?所有这些都是当下的、人们正在积极探讨的问题。”
提出这样的问题无疑是出于好意。然而,给出满意的答案需要一些史无前例的壮举:学术研究者、私营企业、国家政府、公民社会和国际机构组成的不断变化的联盟通过想象力、合作以及有效执行来共同完成的壮举。与往常一样,危险在于科技进步的速度可能快过人类智慧。
温哥华初创企业Broca的联合创始人兼首席执行官锡德?巴拉特(Sid Bharath)是加紧商业化GPT-3技术的一小群企业家之一(我那份以卢克?天行者为灵感的履历就是他的产品创作的)。由于他的数字市场营销公司的业务在夏天因为新冠危机而放缓,巴拉特把时间用在捣鼓GPT-3上,并为他的发现而着迷。
他将他在各类话题上与GPT-3的交互形容为“有些令人毛骨悚然”,暗示其智能水平是他此前在其他计算机模型中没有见过的。他表示:“我曾与GPT-3聊过人生的意义,它给我很多启发。它说人生的意义在于给宇宙增添美,我此前从未想过这种说法。”
但在他的商业生涯中,巴拉特正在将GPT-3用于更平凡的用途,他利用这个系统为他的客户生成谷歌搜索广告的多样表达方式,即使这些广告还没好到不经检查就可使用。“很多市场营销都与创作内容有关。这非常耗费时间,而且需要大量实验。GPT-3能以工业级规模完成这些工作。”他表示,“我们的客户很喜欢它。”
OpenAI的奥尔特曼表示,GPT-3让以前不可能的事情变得可能,人们因此可以创立新公司,而见证这一切的过程是“很酷”的,尽管他承认“很多宣传确实有点过头了”。他表示,利用这个模型写电脑代码和共同创作电邮的商业可能性令他很感兴趣。GPT-3还让智能问答模式的搜索成为可能,帮助人们寻找新冠肺炎最新研究论文中的答案和参考文献。他说:“生产率软件和共同创作将会拥有巨大商业价值。”
已接受微软投资的OpenAI还将自己的GPT-3技术独家授权给了该软件巨头。这让微软有权在自家所有产品和服务中使用这项技术,也许包括其无处不在的数字辅助工具。
克里斯蒂安?哈蒙德(Kristian Hammond)是芝加哥技术公司Narrative Science的首席科学顾问,他一直站在尝试将自然语言处理商业化的前沿。他形容GPT-3是一项“绝妙的技术”,但表示我们需要清楚它的局限:“我对GPT-3的担忧在于,它就像是纸牌魔术。它确实是非常棒的纸牌魔术。而且我很喜欢纸牌魔术。你以为你眼前发生了什么事情,但它并非你想的那样。它只不过给你一些看上去很对、符合统计学的词句。但这不意味着它给出了真相。”
哈蒙德同时也是西北大学(Northwestern University)的教授,他认为,我们必须特别注意用哪些数据集来训练这种人工智能模型。他认为,曾经有一个“伟大、光荣的时刻”,那时我们相信,互联网将传递真理,我们也将势不可挡地走向启蒙。但我们现在更明白了。互联网或许仍是一种神奇的资源,但学术研究已表明,有说服力的谎言往往远比确定的真理传播得快。
“以统计为基础的整个机器学习世界如今是从历史范例和统计数据中学习的。”他表示。“就其本质而言,这意味着这样的学习将永远是过去的一种反映。如果过去就是你们想要的未来,那很好。我倾向于认为并非如此,所以我们需要别的东西。而你们选择关注的过去的点滴是一种经过编辑的取舍。”谁将成为历史的编辑者?
哈蒙德怀疑,我们能在多大程度上用音像等多模态数据充实这些语言模型,以实现真正的理解,因为这些语言模型的设计初衷不在于此。“这就好比我绘制了一座房子的完美3D图像,可有人说:‘我们没法把家具放进去。’而我说:‘我们可以进去。’真的吗?这并不是设计目的。也永远不会是。猜测与理解之间是有区别的。”
OpenAI表示,他们很清楚这种担忧,并且已经在用人工智能来识别质量更高、偏差更小的数据。“我们已发现的一个结果是,模型越智能,就越不容易说谎,大家都为此感到高兴。”奥尔特曼表示,“我们不断发现的所有这些有趣的突现行为都支持这一理论。随着人工智能越来越智能(就像人类越来越聪明一样),判断力也会越来越强。”
哲学家们自然地会倾向于关注感知与意义问题。对于爱丁堡大学的瓦洛来说,在线交互正成为受到经济激励因素鼓励的“意义的空洞表演”:疯传的推文,迎合搜索优化引擎的广告。“与你们的生活方式或所信奉价值观的内在表达的一致性相比,这种表演的风格成了一种获得你们想要的回应的更可靠方法。”她说。“GPT-3没有什么要表达的。它试图传达的东西不存在对这个世界更深层的理解。GPT-3可以是任何人、任何事。它的智能模式并不独特,这正是它的力量所在。”
她表示,我们最大的担忧不是GPT-3这样的机器变得过于人性化,而是人类的行为变得更像GPT-3:我们为算法创建内容,而不是为人类同胞。因此,我们的在线公共话语正在失去意义,因为它被剥夺了语境及个体的洞察力,并被旨在迎合算法的流行语所淹没。她表示:“人们被期望表现得越来越灵活,并学着满足其雇主的任何要求、Twitter的任何要求、或他们所在特定政治过滤气泡的任何要求。”
奥尔特曼表示,这些担忧应当被更广泛地讨论。他自己对GPT-3的使用(用他的电子邮件和推文训练它),让他怀疑自己想法的原创性。“我认为,在我们对人工智能进行思考时,几千年来人们一直在争论的所有哲学问题,都通过一种不同的视角重新与我们息息相关了。创造性意味着什么?拥有自我意识意味着什么?有意识意味着什么?
“对我来说,这些对话一直非常有趣,但从未显得如此直接相关。我希望,到GPT-7这样的未来版本上线时,我们的时间将花在从事和设想一些人工智能不擅长的事与想法。那将释放人类的大量潜能,让我们专注于最有趣、最具创造性、最有生产性的事。”
人工智能领域最近的许多突破都是源于打造竞争性或对抗性的模型,这些模型在象棋、围棋或《星际争霸》(Starcraft)等游戏中战胜了人类。但研究人员现在正将注意力转向构建将人工智能模型的最强超人能力与人类直觉结合起来的混合协作系统。
瓦洛表示,我们自身的理解并不是一个行为,而是一个过程,对个人来说,是理解这个世界的终生奋斗过程,对千百年来不断演进的社会来说,是永无止境的集体努力。“几千年来,我们一直试图更透彻地理解正义,更好地表达美,并寻找更复杂巧妙的方式活得有趣。这是一个超越技能进入优越状态的问题,进入我们以前未能企及的创造力与意义的形式。
“这就是为什么人工智能的圣杯不是GPT-3的原因。”她继续说道。“人工智能的圣杯应该是这样一台机器:它可以开始建立这个世界的坚实模型,这个模型可以随着时间的推移被打造得越来越强大,并通过与人类的交互得到完善与纠正。这才是我们需要的。”
赞 (0)
安防在线,扎根安防行业,致力于推动安防行业智能化。
欢迎关注:安防在线 ,公众号:anfang_cn