今天我们要解锁一个在大语言模型(LLM)应用开发领域超实用的工具 ——Python LangChain 框架。
LangChain 到底是什么?其实不用把它想复杂,它就像是一个 “大语言模型应用的积木搭建平台”—— 我们不用从零开始搭建复杂的 LLM 交互逻辑、数据处理流程,只需要借助 LangChain 提供的各种封装好的工具和组件,就能快速把大语言模型的能力落地成实际可用的应用,比如智能问答机器人、文档分析助手、个人知识库等等,这对于想要快速入门 AI 开发、避免陷入底层细节的同学来说,简直是 “福音”。
今天我们不搞复杂的理论堆砌,也不涉及高深的架构设计,核心目标只有一个 ——带着大家快速上手 LangChain,跑通第一个最简单的样例程序,感受 LangChain 的便捷性,完成从 “听说” 到 “实操” 的第一步跨越。
注:大模型使用ollama搭建一个7b的deepseek模型学习就够用了。python使用3.10
1、安装依赖:
- # pip install openai==1.13.3
- # pip install langsmith==0.1.0
- # pip install langchain-openai==0.1.6
- # pip install langchain-core==0.1.30
- # pip install langchain==0.1.10
复制代码 2、代码样例
- #使用搭建的deepseek调用
- from langchain_openai import ChatOpenAI
- # 配置 Deepseek 密钥和模型参数
- DEEPSEEK_API_KEY = "123" # 替换为实际的 API Key ,本地模型随便写一个值就可以
- llm = ChatOpenAI(
- api_key=DEEPSEEK_API_KEY,
- base_url="http://localhost:11434/v1", # Deepseek 的 API 基础地址
- model="deepseek-r1:7b", # Deepseek 对话模型(可选:deepseek-chat-pro 等高级模型)
- temperature=0.7, # 温度参数(0-1,越低越稳定)
- max_tokens=1024 # 最大生成 tokens
- )
- # 调用模型
- response = llm.invoke("中国的首都是哪里?不需要介绍")
- print(response.content)
复制代码 输出结果:中国的首都是北京。
到这第一个例子就完成了,是不是挺简单的。
来源:程序园用户自行投稿发布,如果侵权,请联系站长删除
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作! |