第 3 章
技术原理:LLM 核心机制深度解析
理解 AI 如何“思考”,才能更好地与它协作。
Token:AI 眼中的世界
Token 是 AI 处理文本的基本单位。一个 Token 大约是 4 个英文字符或 1-2 个中文字。
示例:
“Hello World” = [“Hello”, “ World”] = 2 tokens
“你好世界” = [“你好”, “世界”] = 2 tokens
Context Window(上下文窗口)
Context Window 是 AI 一次能“看到”的文本量。可以把它想象成 AI 的“工作记忆”。
GPT-3.5
4K
一篇短文
GPT-4
128K
一本小说
Claude 3
200K
几本书
Attention:AI 如何“关注”重点
荧光笔理论
想象你在读一篇文章,用荧光笔标记重点。Attention 机制就是 AI 的“荧光笔”, 它会自动找出文本中最相关的部分。
例如,当 AI 处理这句话:
“The cat sat on the mat because it was tired.”
AI 会关注到 “it” 指的是 “cat”
实战意义
好的命名让 AI 更容易理解你的代码。userProfile 比 data1 更有意义, AI 会更好地理解上下文。
Prompt 工程
RTCC 框架
RRole(角色)
你是一个资深前端工程师...
TTask(任务)
帮我创建一个登录表单...
CContext(上下文)
使用 React 和 Tailwind...
CConstraint(约束)
不要使用第三方 UI 库...
Chain of Thought(CoT)
让 AI “慢下来想”,一步一步推理,而不是直接给出答案。
普通提问:
“9.11 和 9.8 哪个大?”
CoT 提问:
“9.11 和 9.8 哪个大?请一步一步思考。”
Few-Shot Learning
通过给 AI 几个例子,教它学习你想要的风格和格式。
输入:apple 输出:苹果 输入:banana 输出:香蕉 输入:orange 输出:
Prompt vs Context
很多人过度关注 Prompt 技巧,却忽略了 Context 的重要性。 给 AI 提供足够的上下文(代码、文档、示例),比精心设计的 Prompt 更有效。