封面
版权信息
版权
内容提要
作者简介
前言
第一部分 生成式AI的理论基础与技术架构
第1章 Transformer与注意力机制的核心原理
1.1 Transformer的基本结构
1.1.1 Encoder-Decoder架构
1.1.2 自注意力机制与多头注意力机制
1.1.3 残差连接与层归一化
1.2 注意力机制的核心原理
1.2.1 点积注意力与加性注意力的对比
1.2.2 Softmax归一化原理
1.2.3 注意力矩阵的稀疏性与加速优化
1.3 Transformer的扩展与优化
1.3.1 动态注意力的实现
1.3.2 长距离注意力机制与稀疏注意力机制
1.3.3 多样化位置编码
1.4 上下文窗口
1.4.1 上下文窗口扩展
1.4.2 内存与计算复杂度的平衡
1.4.3 DeepSeek-V3在上下文窗口方面的优化
1.5 训练成本与计算效率的平衡
1.5.1 参数量与计算需求的增长趋势
1.5.2 GPU计算架构在Transformer中的应用
1.5.3 DeepSeek-V3如何降低训练成本
1.6 本章小结
第2章 DeepSeek-V3核心架构及其训练技术详解
2.1 MoE架构及其核心概念
2.1.1 混合专家(MoE)简介
2.1.2 Sigmoid路由的工作机制
2.1.3 基于MoE的DeepSeek-V3架构设计
2.2 FP8混合精度训练的优势
2.2.1 混合精度计算的基本原理
2.2.2 FP8在大模型训练中的应用
2.2.3 基于FP8的DeepSeek-V3性能提升策略
2.3 DualPipe算法与通信优化
2.3.1 DualPipe(双管道)算法
2.3.2 All-to-All跨节点通信机制
2.3.3 InfiniBand与NVLink的带宽优化
2.4 大模型的分布式训练
2.4.1 数据并行与模型并行的权衡
2.4.2 DeepSeek-V3的分布式训练架构
2.4.3 动态学习率调度器的设计与优化
2.4.4 无辅助损失的负载均衡策略
2.4.5 多Token预测策略
2.5 缓存机制与Token
2.5.1 缓存命中与未命中的基本概念
2.5.2 Token的定义与编码过程
2.5.3 DeepSeek-V3的高效缓存机制
2.6 DeepSeek系列模型
2.6.1 DeepSeek LLM
2.6.2 DeepSeek-Coder
2.6.3 DeepSeek-Math
2.6.4 DeepSeek-VL
2.6.5 DeepSeek-V2
2.6.6 DeepSeek-Coder-V2
2.6.7 DeepSeek-V3
2.7 本章小结
第3章 基于DeepSeek-V3模型的开发导论
3.1 大模型应用场景
3.1.1 文本生成与摘要
3.1.2 问答系统与对话生成
3.1.3 多语言编程与代码生成
3.2 DeepSeek-V3的优势与应用方向
3.2.1 在不同领域的实际表现
3.2.2 多语言编程能力(基于Aider测评案例)
3.2.3 代码与数学任务的应用探索
3.3 Scaling Laws研究与实践
3.3.1 模型规模与性能的关系
3.3.2 小模型上的Scaling Laws实验结果
3.4 模型部署与集成
3.4.1 API调用与实时生成
3.4.2 本地化部署
3.4.3 性能优化策略
3.5 开发中的常见问题与解决方案
3.5.1 输入设计与生成控制
3.5.2 模型偏差与稳健性问题
3.5.3 关于DeepSeek-V3特定问题的应对技巧
3.6 本章小结
第二部分 生成式AI的专业应用与Prompt设计
第4章 DeepSeek-V3大模型初体验
4.1 对话生成与语义理解能力
4.1.1 单轮对话与多轮对话
4.1.2 上下文交互
4.2 数学推理能力
4.2.1 常规数学题目评估
4.2.2 复杂难题理解与推理
4.3 辅助编程能力
4.3.1 辅助算法开发
4.3.2 软件开发
4.4 本章小结
第5章 DeepSeek开放平台与API开发详解
5.1 DeepSeek开放平台简介
5.1.1 平台核心模块与服务概述
5.1.2 开放生态中的关键角色与协作
5.2 DeepSeek API的基础操作与API接口详解
5.2.1 API调用的认证机制与请求结构
5.2.2 常用接口的功能解析与示例
5.3 API性能优化与安全策略
5.3.1 降低延迟的性能优化技巧
5.3.2 数据保护与调用权限管理
5.4 本章小结
第6章 对话生成、代码补全与定制化模型开发
6.1 对话生成的基本原理与实现
6.1.1 对话模型的输入输出设计
6.1.2 自然语言交互中的上下文管理
6.2 代码补全的实现逻辑与优化
6.2.1 模型对编程语言的适配策略
6.2.2 深度补全功能的性能优化
6.3 基于DeepSeek的定制化模型开发
6.3.1 模型微调与任务特化技术
6.3.2 定制化对话与补全模型的案例解析
6.3.3 综合案例1:基于DeepSeek-V3模型的代码生成与任务特化
6.4 本章小结
第7章 对话前缀续写、FIM与JSON输出开发详解
7.1 对话前缀续写的技术原理与应用
7.1.1 前缀建模的设计逻辑与实现方案
7.1.2 多样化续写风格的控制与实现
7.2 FIM生成模式解析
7.2.1 FIM任务定义与生成流程
7.2.2 DeepSeek对FIM任务的优化
7.3 JSON格式输出的设计与生成逻辑
7.3.1 结构化数据生成的模型实现
7.3.2 JSON输出在实际开发中的应用
7.3.3 综合案例2:基于DeepSeek模型的多轮对话与结构化数据生成
7.4 本章小结
第8章 函数回调与上下文硬盘缓存
8.1 函数回调机制与应用场景
8.1.1 回调函数原理及其设计原则
8.1.2 DeepSeek回调优化技巧
8.2 上下文硬盘缓存的基本原理
8.2.1 缓存命中与未命中的影响分析
8.2.2 硬盘缓存实现
8.3 函数回调与缓存机制的结合应用
8.3.1 基于上下文的智能缓存调用设计
8.3.2 高效缓存与回调组合的性能提升案例分析
8.3.3 综合案例3:智能电站管理系统的DeepSeek集成与优化
8.4 本章小结
第9章 DeepSeek提示库:探索Prompt的更多可能
9.1 代码相关应用
9.1.1 代码改写
9.1.2 代码注释
9.1.3 代码生成
9.2 内容生成与分类
9.2.1 内容分类
9.2.2 结构化输出
9.3 角色扮演
9.3.1 角色扮演(自定义人设)
9.3.2 角色扮演(情景续写)
9.4 文学创作
9.4.1 散文写作
9.4.2 诗歌创作
9.5 文案与宣传
9.5.1 文案大纲生成
9.5.2 宣传标语生成
9.6 模型提示词与翻译专家
9.6.1 模型提示词生成
9.6.2 翻译专家
9.7 本章小结
第三部分 实战与高级集成应用
第10章 集成实战1:基于LLM的Chat类客户端开发
10.1 Chat类客户端概述及其功能特点
10.1.1 Chat的核心设计理念
10.1.2 常见应用场景解析
10.2 DeepSeek API的配置与集成
10.2.1 API密钥的获取与配置
10.2.2 常见接口调用
10.2.3 Chat类客户端 API集成实现
10.3 多模型支持与切换
10.3.1 支持多模型切换的架构设计
10.3.2 不同任务场景下的模型选择策略
10.3.3 完整代码及系统测试
10.4 本章小结
第11章 集成实战2:AI助理开发
11.1 AI助理:AI时代的启动器
11.1.1 AI助理的核心功能解读
11.1.2 AI助理的商业化应用
11.2 DeepSeek API在AI助理中的配置与应用
11.2.1 AI助理与DeepSeek的API适配流程
11.2.2 语音识别与自然语言处理的综合应用
11.3 智能助理功能的实现与优化
11.3.1 提升问答准确率的优化策略
11.3.2 持续学习与上下文理解的增强技术
11.4 本章小结
第12章 集成实战3:基于VS Code的辅助编程插件开发
12.1 辅助编程插件概述及其核心功能
12.1.1 辅助编程插件的功能定位
12.1.2 针对开发者的实用功能解析
12.2 在VS Code中集成DeepSeek API
12.2.1 在插件中调用API的流程
12.2.2 高效管理API调用的缓存
12.3 代码自动补全与智能建议的实现
12.3.1 深度语义理解下的代码补全机制
12.3.2 个性化建议与灵活的开发模式配置
12.4 使用辅助编程插件提升开发效率
12.4.1 快速错误定位与修复的工具整合
12.4.2 自动化脚本生成
12.4.3 快速生成大型项目文档注释
12.4.4 DeepSeek赋能项目构建与管理
12.4.5 大型项目的代码维护
12.4.6 多语言支持的智能化代码生成
12.4.7 深度整合开发环境的智能化调试工具
12.4.8 智能化代码质量评估与优化建议生成
12.5 本章小结
彩图
更新时间:2025-03-19 16:35:29