分享
AI学什么(第5期):大模型为何会一本正经地胡说八道?
输入“/”快速插入内容
AI学什么(第5期):大模型为何会一本正经地胡说八道?
用户4242
用户4242
用户6351
用户6351
2025年7月16日修改
大家好,我是蓝衣剑客,欢迎来到「AI学什么」——一个专注于AI科普的栏目。这个栏目的宗旨是"用最精彩的故事,讲述最硬核的知识"。在这里,你将看到深入浅出的AI核心技术解析,既不会被枯燥的技术细节困扰,也不会停留在肤浅的概念层面。通过生动的类比、通俗的语言和完整的故事,帮助你在轻松阅读中掌握那些看似难以理解的AI知识,培养应对AI时代的核心认知能力。无论你是AI领域的新手,还是希望加深理解的从业者,这里都能为你提供清晰的知识和独特的思考角度。
"毛病"???
2024年夏天的一个午后,天津市民李萌正和母亲一起吃饭,突然母亲脸色变得凝重:"你必须把那只猫送走,立刻马上!"
李萌一头雾水:"妈,怎么了?我们家小喵才养了三个月..."
"你不知道吗?女孩子养猫会得'毛病'!会面目全非的那种病!"母亲急切地掏出手机,给她看一篇"科普文章"。
文章令人不安——开头是个女孩和猫咪的温馨照片,接着画风急转直下,展示了一系列恐怖的"病变"图像。每张图下都配有专业术语和医学解释。文末引用了几位"权威专家"的警告,这些"专家"都有头衔、单位,看起来无比真实。
"妈,这是假的,完全是假的。"李萌试图解释。
"有图有真相!还有那么多医生的研究报告,怎么可能是假的?"母亲坚持己见。
一番争吵后,李萌上网搜索,发现这篇文章已被多个平台辟谣。所谓的"毛病"纯属虚构,文中的"专家"不存在,连那些触目惊心的"患者照片"都是AI生成的。
这场家庭小风波很快平息,但李萌却陷入了思考:当AI生成的谎言变得如此真实,普通人该如何分辨真假?
在几个月前,大洋彼岸的纽约,资深律师史蒂文·施瓦茨正面临职业生涯的尴尬时刻。他在法庭文件中引用了六个完全不存在的判例——这些案例是由ChatGPT编造的,但看起来无比真实,连案号、引用格式都一丝不苟。
更尴尬的是,当施瓦茨质疑ChatGPT时,AI非但没承认错误,反而振振有词地坚持这些案例"确实存在",还补充了更多虚假细节。这位经验丰富的律师最终被法院罚款5000美元,职业声誉受损。
两个截然不同的故事,却指向同一个问题:为什么这些AI生成的谎言会如此具有欺骗性?它们为何能够一本正经地胡说八道,甚至连专业人士都会上当?
拼图游戏
幻觉问题可以用拼图游戏来形象比喻。把一个巨大拼图盒倒空,里面混杂着数十亿片来自不同图画的碎片——风景画的一角、人像的轮廓、抽象艺术的色块。当有人试图用这些混杂的碎片拼出"莫奈的花园"时,即使从未见过真正的莫奈画作,只要手边有足够多与"莫奈"、"花园"相关的碎片,也能拼出一幅像模像样的作品。细看之下,这幅拼凑的"莫奈"可能混入了梵高的笔触、毕加索的构图,或是完全不存在的元素。
大语言模型处理知识的方式,就是这样一场超大规模的拼图游戏。模型不是简单地记住每个事实,而是将知识分解成小片段,存储在一个错综复杂的神经网络中。每个网络节点包含了来自不同文本的信息碎片,以及这些碎片之间的关联强度。
当模型回答问题时,它从这张巨网中提取相关碎片,重组出看起来最合理的答案。