内容简介
《大模型Agent应用开发》深入探讨了LLM的核心概念、前沿技术和实际应用,最终为扩展AI能力边界的大型基础模型(Large Foundation Models,LFM)的崛起铺平道路。
本书开篇详细介绍了LLM的基本原理,随后探讨了多种主流架构框架,既涵盖专有模型(如GPT-3.5/4),也分析开源模型(如Falcon LLM)的独特优势与差异。接下来,我们以基于Python的轻量级框架LangChain为核心,引导读者逐步构建智能体。这些智能体能够从非结构化数据中提取信息,并利用LLM和强大工具包与结构化数据交互。此外,本书还将深入探索LFM领域——该类模型融合了视觉、音频等多态能力,可以覆盖更广泛的AI任务。
无论你是经验丰富的AI专家,还是初入该领域的新人,本书都将为你提供解锁LLM全部潜力的路线图,助力开创智能机器的新纪元。
目录
第1章 大规模语言模型简介 1
1.1 大型基础模型和大规模语言模型定义 2
1.1.1 人工智能范式转变——基础模型简介 2
1.1.2 大规模语言模型简介 5
1.2 最流行的基于transformer架构的大规模语言模型 10
1.2.1 早期实验 11
1.2.2 transformer架构 11
1.3 训练和评估大规模语言模型 16
1.3.1 训练大规模语言模型 16
1.3.2 模型评估 19
1.4 基础模型与定制模型 21
1.5 小结 23
1.6 参考文献 23
第2章 面向人工智能应用的大规模语言模型 25
2.1 大规模语言模型如何改变软件开发 25
2.2 Copilot系统 26
2.3 引入人工智能编排器,将大规模语言模型嵌入应用程序 30
2.3.1 人工智能编排器的主要组成部分 31
2.3.2 LangChain 33
2.3.3 Haystack 35
2.3.4 语义内核 36
2.3.5 如何选择框架 38
2.4 小结 39
2.5 参考文献 40
第3章 为应用选择大规模语言模型 41
3.1 市场上最有前途的大规模语言模型 41
3.1.1 专有模型 42
3.1.2 开源模型 51
3.2 语言模型之外 56
3.3 选择正确大规模语言模型的决策框架 60
3.3.1 考虑因素 60
3.3.2 案例研究 62
3.4 小结 63
3.5 参考文献 63
第4章 提示工程 65
4.1 技术要求 65
4.2 提示工程的定义 66
4.3 提示工程原则 66
4.3.1 明确的指令 66
4.3.2 将复杂任务划分为子任务 69
4.3.3 询问理由 71
4.3.4 生成多个输出,然后使用模型挑选最佳输出 73
4.3.5 结尾处的重复指令 74
4.3.6 使用分隔符 76
4.4 高级技术 78
4.4.1 少样本方法 78
4.4.2 思维链 81
4.4.3 ReAct 83
4.5 小结 86
4.6 参考文献 87
第5章 在应用程序中嵌入大规模语言模型 88
5.1 技术要求 88
5.2 LangChain的简要说明 89
5.3 开始使用LangChain 90
5.3.1 模型和提示 91
5.3.2 数据连接 93
5.3.3 记忆 99
5.3.4 链 101
5.3.5 智能体 105
5.4 通过Hugging Face Hub使用大规模语言模型 107
5.4.1 创建Hugging Face用户访问令牌 107
5.4.2 在.env文件中存储密钥 110
5.4.3 启用开源大规模语言模型 110
5.5 小结 112
5.6 参考文献 112
第6章 构建会话应用程序 113
6.1 技术要求 113
6.2 会话应用程序入门 114
6.2.1 创建普通机器人 114
6.2.2 添加记忆 116
6.2.3 添加非参数知识 119
6.2.4 添加外部工具 122
6.3 使用Streamlit开发前端 125
6.4 小结 129
6.5 参考文献 129
第7章 使用大规模语言模型的搜索引擎和推荐引擎 130
7.1 技术要求 130
7.2 推荐系统简介 131
7.3 现有推荐系统 132
7.3.1 K最近邻 132
7.3.2 矩阵因式分解 133
7.3.3 神经网络 136
7.4 大规模语言模型如何改变推荐系统 138
7.5 实现由大规模语言模型驱动的推荐系统 139
7.5.1 数据预处理 140
7.5.2 在冷启动场景中构建QA推荐聊天机器人 143
7.5.3 构建基于内容的推荐系统 149
7.6 使用Streamlit开发前端 153
7.7 小结 156
7.8