第 3 章

技术原理:LLM 核心机制深度解析

理解 AI 如何“思考”,才能更好地与它协作。

Token:AI 眼中的世界

Token 是 AI 处理文本的基本单位。一个 Token 大约是 4 个英文字符或 1-2 个中文字。

示例:

“Hello World” = [“Hello”, “ World”] = 2 tokens

“你好世界” = [“你好”, “世界”] = 2 tokens

Context Window(上下文窗口)

Context Window 是 AI 一次能“看到”的文本量。可以把它想象成 AI 的“工作记忆”。

GPT-3.5
4K
一篇短文
GPT-4
128K
一本小说
Claude 3
200K
几本书

Attention:AI 如何“关注”重点

荧光笔理论

想象你在读一篇文章,用荧光笔标记重点。Attention 机制就是 AI 的“荧光笔”, 它会自动找出文本中最相关的部分。

例如,当 AI 处理这句话:

“The cat sat on the mat because it was tired.”

AI 会关注到 “it” 指的是 “cat”

实战意义

好的命名让 AI 更容易理解你的代码。userProfiledata1 更有意义, AI 会更好地理解上下文。

Prompt 工程

RTCC 框架

RRole(角色)

你是一个资深前端工程师...

TTask(任务)

帮我创建一个登录表单...

CContext(上下文)

使用 React 和 Tailwind...

CConstraint(约束)

不要使用第三方 UI 库...

Chain of Thought(CoT)

让 AI “慢下来想”,一步一步推理,而不是直接给出答案。

普通提问:

“9.11 和 9.8 哪个大?”

CoT 提问:

“9.11 和 9.8 哪个大?请一步一步思考。”

Few-Shot Learning

通过给 AI 几个例子,教它学习你想要的风格和格式。

输入:apple
输出:苹果

输入:banana  
输出:香蕉

输入:orange
输出:

Prompt vs Context

很多人过度关注 Prompt 技巧,却忽略了 Context 的重要性。 给 AI 提供足够的上下文(代码、文档、示例),比精心设计的 Prompt 更有效。