国际著名学术期刊《自然》最新发表一篇人工智能研究论文称,研究人员开发出一种能检测大语言模型“幻觉”的方法,这种方法通过“以毒攻毒”方式,能测量生成回答的含义的不确定性,或能用于提升大语言模型输出的可靠性。
该论文介绍,大语言模型(如ChatGPT和Gemini)是能阅读和生成自然人类语言的人工智能系统。不过,这类系统很容易产生“幻觉”,生成不准确或没有意义的内容。检测大语言模型出现“幻觉”的程度很难,因为这些回答的呈现方式可能会让它们看起来很可信。
威斯尼斯人615cc国际官网版中新网北京6月20日电 (记者 孙自法)基于人工智能(AI)的大语言模型(LLM)回答问题并非总是准确可靠,有时甚至极其智能地以“幻觉”方式提供胡编乱造的答案让人真假难辨,对此如何予以有效检测广受关注。
网友评论更多
53运城c
龚刃韧:不畏权势的法学家——从哥大校级教授联想到中国大学官本位等级制♣♤
2024-11-18 21:12:55 推荐
187****1535 回复 184****7809:赵艾:深化改革是发展银发经济的根本动力♥来自忻州
187****8898 回复 184****1062:杨其滨:构建科学完备的中华民族共同体理论体系♦来自临汾
157****6156:按最下面的历史版本♧♨来自吕梁
86古交287
彭森:谈谈龙港精神、龙港模式、龙港道路♩♪
2024-11-20 07:37:05 推荐
永久VIP:韩大元:论“五四宪法”作为治国安邦的总章程♫来自高平
158****1806:黄益平:国有资本的投资方式♬来自介休
158****8259 回复 666♭:吴怀中:日本对2024年美国大选的认知与应对♮来自永济
37河津wd
王锴:论基本权利的本质内涵保障——以终身监禁为例♯♰
2024-11-18 12:10:51 不推荐
原平vj:程锦锥:张卓元研究员的主要学术贡献♱
186****5637 回复 159****7658:王庆西 陈慧军:“新质生产力”研究热点及研究指向♲