聊天机器人的回答出现事实错误并不新鲜,这也是目前此类大语言模型的主要问题之一,而且谷歌昨天也直截了当地说 Bard 的回答将包含事实错误,那为什么还报道这个消息呢?并不是要故意挑 Bard 的毛病,而是这个错误比较有意思。
原来,Bard 的这个错误回答的消息来源是一个网友在 Hacker News 上开玩笑的帖子,他调侃称谷歌会在一年内关闭 Bard,过去谷歌确实关闭了很多自家的服务。Bard 没有理解这个帖子的语境和幽默感,把它当作事实分享给了用户。
谷歌也承认 Bard 会包含一些事实错误,因为它是从网上获取信息的,微软的新必应也有类似的问题。这个问题是基于大语言模型(LLMs)的人工智能所面临的最大挑战之一,随着时间的推移,谷歌和微软都会改进获取信息的过程,但偶尔还是会出现一些问题。此外,Bard 还处于预览阶段,所以还需要经过更多的公众测试。
如何让这些聊天机器人更好地辨别虚假消息,是这些科技巨头需要严肃考虑的问题。