大家好,欢迎进入第二单元。
如果你去参加任何一个关于 AI 的会议,或者看科技新闻,你一定会在前三分钟内听到一个词:“大模型” 或者它的英文缩写 “LLM”。
很多人一听这种专业词汇就觉得头大,认为这是程序员才懂的东西。 其实完全不是。今天我们就把这个词拆开,用大白话给你翻译一遍。学完这节课,你就能在饭桌上给别人科普了。
一、 拆解 LLM:大型·语言·模型
LLM 的全称是 Large Language Model。我们把它掰开揉碎了看:
1. L = Large(大)
到底有多大? 我们在 1.3 课讲过“参数量”。你可以把它理解为这个 AI 大脑里的“脑细胞连接数”。
以前的 AI(比如你手机里的语音助手Siri)可能是几百万个连接,所以像个智障。
现在的 LLM,动辄是几百亿、上万亿个连接。为了训练它,大厂们买空了英伟达的显卡,烧了几个月的电。这个“大”,指的是规模大、成本高、极其昂贵。
2. L = Language(语言)
为什么强调“语言”?因为人类最核心的智慧,就储存在“语言文字”里。
这个 AI 没有长眼睛(初期),也没有手脚。大厂们是把全人类在互联网上写过的所有的书、新闻、论坛帖子、代码……全部倒进了它的脑子里。
它通过学习人类的“语言”,顺便学会了语言背后的“常识”和“逻辑”。
3. M = Model(模型)
这是最容易让人困惑的一个词。你可以把“模型”理解为一个超级压缩包(Zip 文件),或者一个数学公式。
它不是一个数据库!它并没有把《红楼梦》一字不落地存下来。它是通过阅读《红楼梦》,总结出了曹雪芹的写作“规律”和“公式”。
当你向它提问时,它是把你的问题代入这个“公式”里,**当场计算(生成)**出一个答案给你。
二、 最通俗的比喻:它是一个“全能压缩饼干”
如果上面的解释还是有点绕,请记住这个比喻:
想象一下,人类有史以来所有的知识,是一座无限大的满汉全席(海量数据)。 你不可能把满汉全席随时带在身上。 于是,科学家们用一种叫“深度学习”的高压锅,花了几个月的时间,把这座满汉全席熬制、浓缩、烘干。
最后,从高压锅里拿出来的,是一块只有手掌大小的**“超级压缩饼干”。 这块饼干,就是大模型 (LLM)**。
它的神奇之处在于: 你只要往这块饼干上滴一滴水(输入你的提示词 Prompt),它就能瞬间膨胀,还原出一盘红烧肉、或者一首诗、或者一段代码。
三、 为什么我们要懂这个?
作为一个非技术的普通人,我们不需要知道这个“压缩饼干”是怎么制造的,但我们需要知道市面上有哪些品牌的饼干:
OpenAI 家的饼干: 叫 GPT(比如 GPT-4o)。目前公认最聪明的。
Anthropic 家的饼干: 叫 Claude(比如 Claude 3.5)。写文章非常像人,逻辑极强。
谷歌家的饼干: 叫 Gemini。和谷歌全家桶结合得很好。
国内厂家的饼干: 比如百度的文心一言、阿里的通义千问、月之暗面的 Kimi。它们的优势是中文好、懂国内人情世故、而且网络稳定。
以后当别人再说“大模型”时,你在脑子里自动把它替换成“AI 的大脑”就可以了。
所有的 AI 应用(比如 AI 写文章软件、AI 画图网站、AI 法律助手),背后都接入了某一个“大模型”作为它的底层智商。
四、 课后互动
纸上得来终觉浅。请大家在评论区报个到: “你目前最常用、或者听说过最多的‘大模型’是哪一个?你觉得它最擅长帮你干什么?”
给你的执行建议:
排版策略: 把“大型·语言·模型”这三个词的解释做成明显的列表或者引用块,方便学员一眼扫过就能记住。
社区激活: 最后那个互动问题非常适合在你的 IPS5 论坛里盖楼。因为每个人的工作场景不同,有人会说“我用 Kimi 看长文档”,有人会说“我用 GPT 写周报”,这种真实的讨论会让新来的学员大开眼界,极大地丰富你的社区内容。
没有评论。