在AI领域,每天都有新名词涌现,LLM、Token、Context、Prompt、Tool、MCP、Agent、Agent Skill……这些词你或许都听过,但你真的能准确说出它们的含义吗?本期我们从工程视角出发,把这些概念拆开揉碎,带你彻底搞懂AI底层逻辑。
一、LLM(大语言模型):AI的“语言大脑”
LLM全称Large Language Model,即大语言模型,简称大模型。目前几乎所有大模型都基于Transformer架构训练,该架构由Google团队于2017年在论文《Attention Is All You Need》中提出。
虽然Google发明了这一“火种”,但真正引爆AI浪潮的是OpenAI。2022年底GPT-3.5横空出世,成为首个达到实用级别的大模型;2023年3月GPT-4发布,进一步拉高了AI能力的天花板。如今,GPT家族仍是业界标杆(如GPT-5.4),同时Claude、Gemini等后起之秀也在各自领域与之一较高下。
大模型的工作原理其实很“朴素”——就是一场文字接龙游戏。以“马克的视频怎么样?”为例,模型会先预测概率最高的词(如“特别”),然后将这个词追加到输入后,继续预测下一个词(如“的”“棒”),直到输出结束标识符,最终形成“特别的棒”的回答。
二、Token:大模型的“文字积木”
Token是大模型处理文本的最基本单位,它是模型通过BPE算法学习到的一套文本切分规则,切分后的每一块就是Token。
很多人误以为Token和“词”一一对应,实则不然。比如“工作坊”会被拆成“工作”和“坊”两个Token,“程序员”会被拆成“程序”和“员”;英文中“helpful”也会被拆成“help”和“ful”。平均而言,1个Token约等于0.75个英文单词或1.5-2个汉字,40万Token大概对应60-80万个汉字或30万个英文单词。
三、Context(上下文):大模型的“临时记忆”
Context意为“上下文”,是大模型每次处理任务时接收到的信息总和,可理解为模型的“临时记忆体”。它包含用户问题、对话历史、正在输出的Token、工具列表、System Prompt等。
与之相关的“Context Window(上下文窗口)”,指的是Context能容纳的最大Token数量。目前主流大模型的上下文窗口极大,比如GPT-5.4可达105万Token,Gemini 3.1 Pro和Claude Opus 4.6可达100万Token,足以容纳《哈利波特》全集的内容。
若要让大模型基于上千页的产品手册回答问题,直接把手册全部丢给模型并不现实,这时就需要RAG技术——从手册中抽取与用户问题最匹配的片段,再发给模型,既避免了Context Window超限,又降低了成本。
四、Prompt(提示词):与大模型的“对话指令”
Prompt即“提示词”,是大模型接收的具体问题或指令,分为两类:
- User Prompt:用户输入的具体任务,比如“帮我写一首诗”。
- System Prompt:开发者在后台配置的人设和规则,比如“你是一位耐心的数学老师,需引导学生思考而非直接给答案”。
一个好的Prompt需要清晰、具体、明确。比如“请帮我写一首五言绝句,主题是秋天的落叶,风格悲凉一点”,就能让模型生成更符合预期的内容。这也是“Prompt Engineering(提示词工程)”的核心——研究如何把话说清楚,让模型精准理解意图。
五、Tool(工具):大模型的“外部触角”
大模型的短板是无法感知外界环境,比如问它“今天上海天气如何”,它会因缺乏实时数据而无法回答。这时就需要Tool(工具)来弥补,Tool本质是可调用的外部函数(如天气查询、地图定位等)。
工具调用的完整流程是:用户提问→平台转发问题和工具列表给大模型→大模型生成工具调用指令→平台调用工具并返回结果→大模型整理结果后由平台转发给用户。其中,大模型负责“选工具”和“汇总结果”,工具负责“执行具体动作”,平台负责“串联流程”。
六、MCP(Model Context Protocol):工具的“通用接口”
不同大模型厂商的工具接入格式各不相同,为解决这一问题,MCP(Model Context Protocol)应运而生,它是统一的工具接入标准协议。有了MCP,工具就像“Type-C接口”一样通用,开发者只需遵循一套标准,就能让工具适配多个平台。
七、Agent(智能体):自主决策的“AI助手”
Agent是能自主规划、调用工具并持续运作直到解决用户问题的程序。而“Agent Skill”则是给Agent看的“说明文档”,包含任务目标、执行步骤、判断规则、输出格式等,让Agent能按自定义逻辑完成复杂任务(比如根据天气、光照生成“出门清单”)。
从LLM、Token到Context、Prompt,再到Tool、MCP和Agent,这些概念层层递进,构成了AI应用的技术体系。理解它们,你对AI的认知将实现质的飞跃。


评论(0)