盘和林对《环球时报》记者表示,ChatGPT作为AI的问答逻辑和性能非常优秀,证明AI已经摆脱了玩具定位,逐渐成为一款有用的工具。和之前技术的不同点在于,ChatGPT是一个大模型,其对上下文语义的理解比其他AI算法更强,且数据积累速度比其他AI更快,具备成长性和可用性。
另一名人工智能领域专家也对《环球时报》表示,相对于此前偏娱乐性质的人工智能机器人,ChatGPT能更好地理解对话语境,输出的文本不仅质量更高,而且更符合语言逻辑与人类价值观,拥有更强实用性和更广阔的应用场景。
IDC中国研究总监卢言霞告诉《环球时报》记者,ChatGPT不是唯一的语言模型。OpenAI自2020年6月发布GPT-3模型,在自然语言处理领域被业界广泛采用,同时也掀起预训练模型、大模型的浪潮。全球主流人工智能厂商都发布了相应的大模型。
但接受记者采访的专家普遍认为,虽然ChatGPT在技术层面没有革命性的突破,但其在算法上的先进性、长期大规模数据训练的积累以及投入的强大算力,都是短时内难以复制和超越的。
将成“互联网传播错误信息的最强大工具”?
但ChatGPT距离“完美”依然有着不小的距离,用户反映最多的问题是它经常“一本正经地胡说八道”。《华尔街日报》称,AI聊天机器人和其他生成式AI程序能够像镜子一样反映“投喂给”它们的数据。它们对这些数据进行“反刍”并将其重新混合,有时结果令人惊艳,有时则一塌糊涂。
报道称,ChatGPT有时能正确回答一些问题,因为对于这类话题“摄入”了高质量的信息来源,并经常与人类训练员对话。而对于互联网上含有大量错误信息的话题,以及非英语语言,比如中文,它有时就会胡言乱语。事实上,ChatGPT自己也强调,“尽管我可以生成大量的信息,但我不是一个绝对可靠的信息来源,并且我的答案有时可能不准确或不完整。”
据《纽约时报》8日报道,美国新闻可信度评估与研究机构NewsGuard对ChatGPT进行了测试,虚假信息的研究人员向ChatGPT提出充斥阴谋论和误导性叙述的问题,发现它能在几秒钟内改编信息,产生大量令人信服却无信源的内容。NewsGuard联合首席执行官克罗维茨形容称,ChatGPT将成为互联网传播错误信息的最强大工具。
此外,《环球时报》记者在使用ChatGPT时发现,其学习的数据截止到2021年,因此对于2022年及之后发生的事情难以进行准确回答。王泽表示,ChatGPT本身不具有和人一样的创新能力,它的能力来源于大规模学习而不是算法的革新。这也是ChatGPT的局限之一,即只能提供接受过训练的信息,无法准确回答训练数据之外的问题。
卢言霞对《环球时报》记者表示,ChatGPT所提供的答案在准确性、广泛性方面仍存在局限,因此现阶段无法直接用于企业特定的场景中以替代之前的AI应用,短期不可能彻底颠覆搜索市场,也很难改变人工智能市场格局。
来源:环球时报 记者:赵觉珵 共2页 上一页 [1] [2]
红商网优质内容还将同步分发到公众号、视频号、头条号、西瓜抖音、网易号、搜狐号、企鹅号、百家号、好看视频、新浪微博等国内主力流量平台。
|