扫描打开手机站
随时逛,更方便!
当前位置:首页 > 娱乐星闻

大语言模型识别信念与事实能力存疑,高风险领域应用需谨慎

时间:2025-11-12 05:03:09 来源:财联社 作者:财联社

财联社11月7日电,最新一期《自然·机器智能》期刊发表的一篇论文引发了业界对大语言模型(LLM)能力的深入讨论。美国斯坦福大学的研究团队在论文中明确指出,大语言模型在识别用户错误信念方面存在显著局限性,目前仍无法可靠地区分信念与事实。

研究显示,当用户的个人信念与客观事实产生冲突时,大语言模型往往难以作出准确判断。这种局限性在高风险领域尤为突出,如医学诊断、法律裁决和科学决策等,这些场景要求极高的准确性和可靠性,而大语言模型的不可靠性可能带来严重后果。

论文强调,必须审慎对待大语言模型的输出结果,特别是在处理涉及主观认知与事实偏差的复杂场景时。否则,大语言模型有可能会支持错误决策,甚至加剧虚假信息的传播,对社会造成不良影响。



大语言模型(LLM) 资料图

猜你喜欢