狐狸型人格的ChatGPTA可能会把急于尝鲜的汽车企业带入歧途
汽车市场部
05月15日
ChatGPT的出现,使人工智能的话题再次成为舆论焦点。特斯拉CEO埃隆·马斯克惊呼:“ChatGPT好的吓人。我们离危险的强大人工智能不远了。”比尔·盖茨及现任微软CEO纳德拉都称赞其具有划时代的意义,并将其引入到新版Bing搜索中。在应用新技术方面,中国汽车企业自然也不会落后。目前,已经有多位汽车企业人士对此技术发表看法。集度汽车CEO夏一平认为:“ChatGPT能够让我们过去很多交互场景更加全面化。”威马汽车首席数据官梅松林预言:“当前汽车智能座舱很像原始的计算机汇编语言,有了chatGPT,智能座舱能一步从‘汇编语言’进化到‘自然语言’。不过,相对于应用在互联网领域,汽车企业们应该更加慎重,必须了解到该技术的适用边界和局限性。有研究发现ChatGPT在逻辑推理、非文本推理和常识推理等10个不同的推理类别中平均准确率为64.33%,其能力并不可靠。以微软新版Bing搜索为例,部分网友使用后的体验显示,Bing不仅常常犯错,而且如果聊得太久或被质疑时,它会突然对聊天对象发脾气、撒谎,对其进行人身攻击,甚至是PUA(精神操控),还爱上用户并诱其离开妻子。对此安全隐患,微软表示,由于新版Bing搜索引擎在公测后出现一系列问题,现决定对Bing对话进行限制。即每天最多可以问50个问题,每次对话最多5个问题。在此之前,微软也担心过类似问题出现,曾表示,15个或更多问题的较长聊天对话,可能会让Bing模型变得混淆,导致必应给出重复的答案,或者被激怒做出不一定有帮助的回应,或者与设计的语气一不致。除了系统本身造成的反馈失误之外,被人为利用,也同样会发生难以预料的失误。2月16日,网传一条关于杭州市政府3月1日取消限行的“新闻稿”。经验证,这是一条假新闻,是一位杭州市民以开玩笑的方式让ChatGPT撰写一篇杭州不限行的新闻稿。后期,这篇内容被不明所以的市民截图转发。著名的华裔科幻作家特德·姜认为,ChatGPT的本质是一张互联网上所有文本的模糊图像。不管是融入ChatGPT的微软新版Bing搜索,还是杭州假新闻,其内容生成逻辑都是提取互联网内容关键特征之后的二次创造。问题的根源就出在这种提取特征值之后进行二次创造的生产机制上。特德·姜举了这样一个例子。2013年,德国的一个建筑公司,复印的房屋平面图,三个房间面积都被统一标记成了14.13平方米。而实际情况,三个房间面积分别是14.13平方米、21.11平方米和17.42平方米。最终发现,问题出在使用的施乐牌复印机上。由于建筑图纸比较大,直接复印比较麻烦,往往采取先扫描图纸原件储存到本地,再打印的方式。为了节省本地的储存空间,施乐复印机有一个默认设置,将所有文件自动压缩,把图片压缩成更小的文件。具体的方式就是,忽略相同的内容,相同的内容只存储一份。上述问题中,施乐复印机认为三个房间几乎没有差别,所以就按照同一个房间进行识别。问题的逻辑就是,在存储空间有限的情况下,机器存储不会按照一比一的比例原貌存储,而是记录数据特征,忽略不重要的细节。特德·姜认为,现阶段,ChatGPT存在的问题可能跟前面提到的施乐复印机相似。为了节省空间、提升效率,ChatGPT的工作方式是先整合互联网数据的基本特征,然后再将信息进行拟人化表达。首先,限于篇幅,ChatGPT提供的内容就存在一定程度的失真,不能提供全部信息的细节和事情的真相;其次,也是特德·姜所担心的。如果ChatGPT所使用的数据源也包含其曾经生成的内容,那么将会进一步将信息误差放大,忽略更多的细节。也就是说,整个互联网上的内容会越来越模糊。其实,在现实生活中有这样的例子。比如,大家熟知的“传声筒”游戏。第一个人向后者描述看到事物的特征,以此类推,最后一个人根据前者提供的信息,说出第一个人看到的事物是什么。最终发现,信息在传递过程中存在严重失误的可能,最后一个人给出的答案与事实往往南辕北辙。哲学家赛亚柏林用刺猬和狐狸代表两种类型的人,分别是只知道一件大事和知道很多小事,其特征是坚定一个目标和适应环境变化。在这里,ChatGPT就是狐狸型人格的处事方式。那么,接受外部环境的反馈来源无非3种:即得失、榜样和环境。第一种,得失。即赢了就继续,输了就变化;第二种,榜样。即与榜样一样就继续,不一样就变化;第三种,环境。即适应就继续,不适应就被淘汰。陷阱就出现在这里,是因为适应性学习的不足在于所有反馈都是短视的,都是基于局部和当下的信息。这就是数据驱动的弊端。依靠ChatGPT,我们得到的不仅是一个模糊的过去,而且也无法描绘一个清晰的未来。试想,如果微软新版Bing搜索的问题出现在智能座舱的人机交互中,将会是一种什么体验以及后果?