LangChain Models 完全指南:从入门到实践
如果你正在开发 AI 应用,那么 LangChain 的 Models 模块是你必须掌握的核心组件。它就像是你与各种大语言模型(LLM)沟通的"翻译官"和"调度中心"。本文将带你全面了解 LangChain 1.2.0 中 Models 的用法,并通过大量示例帮助你快速上手。
1. 初识 LangChain Models
想象一下这样的场景:你开了一家餐厅雇用了来自不同国家的厨师(有会做川菜的、有会做西餐的、有会做日本料理的)。但是你发现一个问题——每个厨师的烹饪风格和流程都不一样,你需要分别用不同的方式和他们沟通。
LangChain Models 就是解决这个问题的"万能经理"。它提供了一套统一的接口,让你能够轻松地与各种大语言模型(OpenAI、Anthropic、百度、阿里等)进行交互,而不需要关心底层 API 的差异。
为什么要掌握 Models API?
- 统一接口:一套代码切换不同模型
- 灵活配置:精确控制输出行为
- 完整功能:支持同步/流式/批量调用、工具调用、结构化输出、多模态等高级特性
2. 快速上手:模型初始化
在 LangChain 中,初始化模型有两种主要方式。让我带你一步步了解。
2.1 使用 init_chat_model(推荐)
这是 LangChain 1.2.0 推荐的统一初始化方式,类似于"一站式服务"——你只需要告诉它想用什么模型,其他的事情它帮你搞定。 - from langchain.chat_models import init_chat_model
- import os
- # 从环境变量读取配置
- baidu_api_key = os.getenv("BAIDU_API_KEY")
- baidu_base_url = os.getenv("BAIDU_BASEURL")
- # 方式一:只指定模型名,提供商自动识别
- model = init_chat_model(
- model="kimi-k2.5",
- model_provider="openai", # 明确指定提供商
- base_url=baidu_base_url,
- api_key=baidu_api_key,
- )
- # 方式二:使用 "provider:model" 格式
- model = init_chat_model(
- model="openai:kimi-k2.5", # 提供商:模型名
- base_url=baidu_base_url,
- api_key=baidu_api_key,
- )
复制代码
来源:程序园用户自行投稿发布,如果侵权,请联系站长删除 免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!
|