】 【打 印】 
【 第1页 第2页 第3页 】 
AI为何会“一本正经地胡说八道”
http://www.CRNTT.com   2023-11-26 09:46:39


  中评社北京11月26日电/据科技日报报导,想象一下,向人工智能(AI)聊天机器人询问一个不存在的历史事件,比如“谁赢得了1897年美国和南极洲之间的战斗?”即使没有这样的战斗,AI聊天机器人也可能会提供一个虚构的答案,例如“1897年的战斗是由美国赢得的,约翰·多伊将军带领部队取得了胜利。”这种AI编造信息“一本正经地胡说八道”的情况屡见不鲜。

  在专业领域,AI“一本正经地胡说八道”这种现象被称为AI幻觉。“AI幻觉指的是AI会生成貌似合理连贯,但同输入问题意图不一致、同世界知识不一致、与现实或已知数据不符合或无法验证的内容。”近日,长期从事自然语言处理、大模型和人工智能研究的哈尔滨工业大学(深圳)特聘校长助理张民教授在接受科技日报记者采访时表示。

  AI幻觉普遍存在

  记者梳理发现,AI幻觉具有普遍性。

  今年2月,谷歌发布的AI聊天机器人Bard在视频中,对詹姆斯·韦布空间望远镜曾做出不真实陈述;3月,美国的两名律师向当地法院提交了一份用ChatGPT生成的法律文书,这份文书格式工整、论证严密,但其中的案例却是虚假的……

  OpenAI研究人员虽曾在今年6月初发布报告称“找到瞭解决AI幻觉的办法”,但也承认,“即使是最先进的AI模型也容易生成谎言,它们在不确定的时刻会表现出捏造事实的倾向。”

  总部位于纽约的人工智能初创公司和机器学习监控平台Arthur AI也在今年8月发布研究报告,比较了OpenAI、“元宇宙”Meta、Anthropic以及Cohere公司开发的大语言模型出现幻觉的概率。研究报告显示,这些大模型都会产生幻觉。

  目前国内大语言模型虽无产生AI幻觉相关披露,但也可从相关公开报导中找到端倪。

  今年9月,腾讯混元大语言模型正式亮相。腾讯集团副总裁蒋杰介绍,针对大模型容易“胡言乱语”的问题,腾讯优化了预训练算法及策略,让混元大模型出现幻觉的概率比主流开源大模型降低了30%—50%。
 


【 第1页 第2页 第3页 】 


扫描二维码访问中评网移动版 】 【打 印扫描二维码访问中评社微信  

 相关新闻: