找回密码
 注册
搜索
查看: 273|回复: 0

ChatGPT堪比初代iPhone?别逗了

[复制链接]
发表于 2023-2-14 07:27 PM | 显示全部楼层 |阅读模式


ChatGPT堪比初代iPhone?别逗了

 金泰 巴伦周刊 2023-02-14 07:00 Posted on 北京

ChatGPT不能和初代iPhone相提并论,至少现在还不能。

OpenAI去年年底发布ChatGPT后,有人说“下一个iPhone时刻”要来了,科技和媒体领域掀起了一轮新的炒作周期。不过,这两种技术之间有一个重要区别:消费者当时愿意花500美元买第一代iPhone,而ChatGPT是作为一款免费工具火起来的。 
3.jpeg
ChatGPT可以写诗、故事和歌词,还有一些人迫不及待地把它用于通过专业考试或创建跑赢市场的股票基金。但每一个使用案例都说明了同样一个问题:在准确性、创造力或原创性方面,目前人工智能仍然无法与人类智能相比。 
就连OpenAI首席执行官萨姆·奥特曼(Sam Altman)本人也试图平息一些炒作,他在1月份举办的StrictlyVC活动上说,ChatGPT这样的技术“令人印象深刻,但并不强大”。奥特曼称,刚开始使用时它们看起来“不可思议”,但当你“使用100次后就会发现它们的弱点”。
奥特曼称,OpenAI的下一项人工智能技术GPT-4可能不会引起同样的炒作。他说:“人们会失望的。”奥特曼还表示,OpenAI没有通用人工智能(artificial general intelligence,简称AGI)这项技术,即让机器自己学习和思考。 
ChatGPT做不到这一点,它是一系列生成式人工智能产品中的最新产品,这些产品可以通过文本、图像和视频进行自我训练以创建内容。ChatGPT使用一种语言模型来生成类似人类的回答,或者基于它通过消化之前在互联网上写的内容、或其他形式的文本而发现的词语关系来做最合适的猜测。
但互联网远非可靠的信息来源,因此准确性是ChatGPT和其他生成式人工智能工具的弱点所在。即便如此,ChatGPT类似于人类的反应给了用户一种确定和自信的错误印象。OpenAI表示,他们正在通过更新不断提高ChatGPT的准确性,但问题仍然存在。 
例如,最近笔者让ChatGPT计算美国人每年开车的总时长,假设平均每天为54分钟。在作答时,ChatGPT的公式是正确的(54分钟乘以365天),但答案是错误的(19830分钟)。ChatGPT甚至会在一些看似简单的问题上出错,比如“列出迈克尔·刘易斯(Michael Lewis)最近出版的五本书”。几周前,笔者向ChatGPT提了一个关于伯克希尔-哈撒韦的问题,它把巴菲特的名字拼错了。
如果有常见的拼写错误或误解,ChatGPT倾向于反刍错误信息,它无法了解、无法领悟也无法知道怎样对它收集的大量互联网数据进行事实核查。同样值得注意的是,目前的系统不能定期检查互联网上的更新,所以数据集中没有最近的信息。
人工智能不是突然火起来的
最近几个月,ChatGPT重新点燃了人们对人工智能的热情,但科学家和工程师对人工智能的研究已经有近75年的时间。
4.png
资料来源:高盛;微软 
埃默里大学法学院专门研究人工智能和机器学习的教授马修·萨格(Matthew Sag)指出,无论一个系统的能力如何,它都受到其训练数据的限制。他说:“ChatGPT使用模式,然后尝试猜测听上去合理的内容,它没有事实的概念,它综合了互联网上经常出现的东西,有时候ChatGPT会说谎。” 
萨格注意到,当被问到著名法律案件时,ChatGPT给出的答案比较准确,但一旦问题变得复杂,答案就会很糟糕。萨格还说,ChatGPT从来没有提供过任何原创性思想或见解。 
ChatGPT并不是唯一一个犯事实性错误的工具。谷歌近日大张旗鼓地推出了对话型人工智能机器人巴德(Bard),但据路透社报道,该聊天机器人在被问到一个有关韦伯太空望远镜的问题时给出了错误的回答。
由于其局限性,ChatGPT很可能难以找到一种直接面向消费者的商业模式。2月早些时候,OpenAI宣布了一项名为ChatGPT Plus的付费订阅计划,每月收费20美元,在高峰时段提供优先访问和更快的服务。 
这项服务虽然很受欢迎,但面临成本问题。在计算能力方面,生成式人工智能所需的资源密集程度非常高,摩根士丹利(Morgan Stanley)估计,使用ChatGPT进行查询的成本是使用搜索引擎的5倍。 
Baird分析师科林·塞巴斯蒂安(Colin Sebastian)称,ChatGPT使用的“大语言”模型并不新鲜,许多科技公司都有类似的功能。他还对消费者付费服务的可行性持怀疑态度,理由是基础设施成本高,而且更易使用的搜索引擎依然可以提供更相关的答案。 
虽然塞巴斯蒂安认为,企业可能愿意为能够提高生产率的人工智能工具付费,但普通公众可能不愿意。
此外,未来还会出现越来越多的法律问题和潜在诉讼。萨格表示,如果不准确的信息被输入系统并在输出中显示出来,生成式人工智能可能会面临隐私和诽谤方面的问题。
另一个问题是知识产权的所有权。作家权益倡导机构Authors Guild的首席执行官玛丽·拉森伯格(Mary Rasenberger)称,受版权保护的作品未经许可被用于训练人工智能服务有失公允。
拉森伯格说:“他们利用别人的作品来生成潜在的竞争作品,为什么作者不应该得到补偿?难道他们不应该首先获得许可吗?” 
Authors Guild计划游说国会立法,阐明许可的必要性,并可能建立一个许可制度来补偿创作者。
拉森伯格说:“所有人工智能生成的作品都是在重复过去已经完成的作品,这里面没有真正的艺术。”
伯克利法学院教授埃里克·斯托曼(Erik Stallman)预计,美国最高法院会认为有必要澄清这类问题。 
OpenAI没有就ChatGPT的准确性以及生成式人工智能潜在的法律问题回复笔者的置评请求。
ChatGPT和类似技术当然是有用的,即使是在目前形式下。程序员们对微软基于OpenAI技术推出的编程工具GitHub Copilot赞不绝口。奥特曼自己也说,他主要使用ChatGPT来总结和翻译长文档。 
从早期测试来看,ChatGPT仍是一个新鲜事物,但还没有像一些人以及许多投资者所认为的那样改变了人工智能的游戏规则,技术进步更多的是迭代而不是突破性的,ChatGPT不能和初代iPhone相提并论,至少现在还不能。
文 | 金泰(Tae Kim)
编辑 | 郭力群
版权声明:
《巴伦周刊》(barronschina)原创文章,英文版见2023年2月13日报道“Let’s Stop Pretending—ChatGPT Isn’t That Smart”。
(本文内容仅供参考,投资建议不代表《巴伦周刊》倾向;市场有风险,投资须谨慎。)

您需要登录后才可以回帖 登录 | 注册

本版积分规则

手机版|小黑屋|www.hutong9.net

GMT-5, 2024-12-25 08:27 AM , Processed in 0.030616 second(s), 18 queries .

Powered by Discuz! X3.5

© 2001-2024 Discuz! Team.

快速回复 返回顶部 返回列表