ChatGPT或GPT4并没有什么令人惊讶或者秘不可宣的地方,除了它们可以公之于众这一事实之外。
请大家平静一下。对生成式人工智能技术进步的兴奋已经达到了狂热的程度,随之而来的是一系列极端的担忧。散布恐惧者分为了两大阵营:要么认为人工智能很快就能创造一个巨大的反乌托邦未来,要么认为它即将对人类的生存构成威胁。
上个月,包括埃隆·马斯克(Elon Musk)和一些人工智能大师在内的一群科技业高管,呼吁暂停开发先进的人工智能系统6个月,以便该行业能够建立针对有害结果的保障措施,这让这场危机火上浇油。这些科技业高管呼吁暂停创新既是前所未有的,也是毫无必要的。
《巴伦周刊》科技栏目最近就人工智能的现状、ChatGPT 的兴起以及为什么要求暂停人工智能研究是错误的观点,与Meta Platforms(META)首席人工智能科学家杨立昆(Yann LeCun)进行了交流。
杨立昆是人工智能行业最杰出的科学家之一,他一直直言不讳地批评那些夸大 ChatGPT 等人工智能聊天机器人所使用的基础技术能力的人。
他是纽约大学(New York University)的教授,2013年加入了 Facebook (现在改名为Meta)。与杰弗里 · 辛顿(Geoffrey Hinton)和约书亚 · 本吉奥(Yoshua Bengio)一起,杨立昆因围绕深度学习技术的研究而获得了2018年 ACM 图灵奖——计算机领域的诺贝尔奖,这些技术已经成为现代人工智能技术的基础。这三位科学家因其在人工智能领域中的工作而经常被称为“人工智能教父”。以下是我们与杨立昆经过编辑后的谈话摘录。
《巴伦周刊》:请解释一下 ChatGPT 和大型语言模型(LLM)背后的技术是如何工作的?
杨立昆:你可以把它想象成一个超级强大的预测键盘。大型语言模型首先要对大量的单词进行训练,我们向模型展示一个单词窗口,并询问它下一个单词是什么,它将预测下一个单词,填入这个单词,然后问自己下一个单词是什么。
《巴伦周刊》:这些模型擅长什么,又不擅长什么?
杨立昆:它们适用担任写作助手,可以帮助你用正确的语法风格来表述事情。但是对于回答事实类问题,它们干得并不是很好,因为这种模型要么是反刍存储在其记忆中的内容,要么是反刍一些类似于它在训练数据中读取的各种内容的组合或者插值,这意味着它可能会发生事实上的错误,或者它只是在编造一些听起来不错的东西。
《巴伦周刊》:为什么人工智能聊天机器人有时在准确性方面存在这么大的问题?
杨立昆:当你拥有一个基本上是这样一个字一个字地预测的系统,你就很难进行控制或者操纵,因为它们会产生什么,完全取决于它们训练的统计数据和给定的提示。
在数学上来说,它很有可能与正确答案的路径呈现出指数性的偏离,它生成的答案越长,最终答案是彻头彻尾的垃圾的可能性就越大。
《巴伦周刊》:你为什么如此反对要求人工智能开发中止六个月的信?
杨立昆:我同意人工智能是一项强大的技术,必须负责任和安全地部署和开发。但我不认为停止研究和开发六个月是正确的答案。这根本无济于事,而且也非常天真,因为没有人会这么做。
让我们来看看在这封信上签名的人的类别。第一类是最令人震惊的: 真正的末日预言家。他们说我们正在制造的机器最终会像人类一样聪明。而一旦发生这种情况,人类就完了。
我觉得这太愚蠢了。而且他们肯定搞错了。这是基于人工智能系统不易控制、很难提出符合人类价值观的目标的想法。但我们可以设计目标,以便它们能够正确行事。
第二类是担心直接伤害的人。有了大型语言模型,你可以产生无意义和错误的信息。一些人担心互联网将被机器生成的内容所淹没,这些内容具有误导性,用户可能会被洗脑。我也不相信这种情况,因为它已经存在了。人们的适应能力很强,他们已经学会了如何应对新媒体。
第三类是担心少数科技公司生产的人工智能产生的系统性社会影响。我还是不同意这种观点。部分原因是因为我为Meta工作,我能从内部看到科技公司的动机是什么。
《巴伦周刊》:OpenAI 的技术与 Google、Meta和其他初创企业的 AI 技术相比如何?
杨立昆:OpenAI 似乎有点走在了游戏的前面,因为他们比其他人更早地开始训练那些大型系统,并根据用户反馈进行微调的过程。但是 ChatGPT 或 GPT4并没有什么令人惊讶或者秘不可宣的地方,除了它们可以公之于众这一事实之外。
自然语言理解并不是一项新技术。这是相同的技术,transformer(机器学习模型)的整个想法来自谷歌。Meta、谷歌和一些初创公司的很多人已经开始研究这项技术,有成百上千的科学家和工程师知道如何搭建这些东西。
你之所以没有(更早)在谷歌和 Meta 上看到类似的系统,是因为对于一家大公司来说,推出一个不完全可靠、可以发布无稽之谈的系统,会对其声誉造成更大的危险。
《巴伦周刊》:当机器能够自己学习和思考时,我们是否已经接近通用人工智能(AGI)?
杨立昆:有人声称,通过扩展这些大型语言模型系统,我们将达到人类的智力水平。我的观点是这是完全错误的。有很多事情我们不明白,比如我们还不知道如何用机器进行再生产——有些人称之为 AGI的东西。
我们不能使用像 ChatGPT 或 GPT4这样的技术来训练机器人清理桌子或者填满洗碗机,即使这对一个孩子来说是一件微不足道的任务,我们还是做不到。我们仍然没有实现L5级(完全)自动驾驶。这需要一套完全不同的技能,你无法通过阅读文本来进行学习。
《巴伦周刊》:什么时候有可能?
杨立昆:未来五年,我们将取得重大进展。但我不认为我们能达到人类的智力水平,这还需要很长时间。每次出现这种预测时,我们都低估了人类智力的复杂性。
《巴伦周刊》:谢谢你的时间,杨。
文|金泰
编辑|喻舟
版权声明:
《巴伦周刊》(barronschina)原创文章,未经许可,不得转载。
(本文内容仅供参考,投资建议不代表《巴伦周刊》倾向;市场有风险,投资须谨慎。)
发表评论