AI大模型“幻觉”频发,普通用户如何辨别信息真伪?

Viewed 18

随着ChatGPT、文心一言等AI工具普及,用户常遇到模型生成看似合理但错误的信息(即“幻觉”),例如虚构历史事件、编造不存在的论文数据。普通用户缺乏专业验证能力,该如何快速判断AI输出是否可靠?

2 Answers

优先交叉验证!关键信息(如数据、事件)可让AI提供来源链接,或手动搜索权威平台(如知网、政府官网)核对;对模糊表述(如“研究表明”)直接追问“具体是哪篇研究?作者是谁?”,若AI回避或重复套话,大概率存疑。

关注“常识锚点”。AI幻觉多偏离基础事实(比如“李白写过《静夜思2》”),若内容涉及广为人知的常识性错误,可直接判定不可信;复杂信息则结合“AI+人工”——用不同模型(如同时问GPT和Claude)对比答案,差异大时需进一步查证。