目前LangChain框架在集团大模型接入手册中的学习案例有限,为了让大家可以快速系统地了解LangChain大模型框架并开发,产出此文章。本文章包含了LangChain的简介、基本组件和可跑的代码案例(包含Embedding、Completion、Chat三种功能模型声明)。
01
简介
在今年的敏捷团队建设中,我通过Suite执行器实现了一键自动化单元测试。Juint除了Suite执行器还有哪些执行器呢?由此我的Runner探索之旅开始了!
LangChain 作为一个大语言模型(LLM)集成框架,旨在简化使用大语言模型的开发过程,包括如下组件:
LangChain框架优点:
1.多模型支持:LangChain 支持多种流行的预训练语言模型,如 OpenAI GPT-3、Hugging Face Transformers 等,为用户提供了广泛的选择。
2.易于集成:LangChain 提供了简单直观的API,可以轻松集成到现有的项目和工作流中,无需深入了解底层模型细节。
3.强大的工具和组件:LangChain 内置了多种工具和组件,如文档加载器、文本转换器、提示词模板等,帮助开发者处理复杂的语言任务。
4.可扩展性:LangChain 允许开发者通过自定义工具和组件来扩展框架的功能,以适应特定的应用需求。
5.性能优化:LangChain 考虑了性能优化,支持高效地处理大量数据和请求,适合构建高性能的语言处理应用。
6.Python 和 Node.js 支持:开发者可以使用这两种流行的编程语言来构建和部署LangChain应用程序。
由于支持 Node.js ,前端大佬们可使用Javascript语言编程从而快速利用大模型能力,无需了解底层大模型细节。同时也支持JAVA开发,后端大佬同样适用。
本篇文章案例聚焦Python语言开发。
02
基本组件
理解,首先 MCube 会依据模板缓存状态判断是否需要网络获取最新模板,当获取到模板后进行模板加载,加载阶段会将产物转换为视图树的结构,转换完成后将通过表达式引擎解析表达式并取得正确的值,通过事件解析引擎解析用户自定义事件并完成事件的绑定,完成解析赋值以及事件绑定后进行视图的渲染,最终将目标页面展示到屏幕。
Prompt【可选】
告知LLM内system服从什么角色
占位符:设置{input}以便动态填补后续用户输入
Retriever【可选】
LangChain一大常见应用场景就是RAG(Retrieval-Augmented Generation),RAG 为了解决LLM中语料的通用和时间问题,通过增加最新的或者垂类场景下的外部语料,Embedding化后存入向量数据库,然后模型从外部语料中寻找相似语料辅助回复
Models
可做 Embedding化,语句补全,对话等
支持的模型选择,OpenAI为例
Parser【可选】
StringParser,JsonParser 等
将模型输出的AIMessage转化为string, json等易读格式
上述介绍了Langchain开发中常见的components,接下来将通过一简单案例将上述组件串起来,让大家更熟悉Langchain中的组件及接口调用。
03
小试牛刀
理解,首先 MCube 会依据模板缓存状态判断是否需要网络获取最新模板,当获取到模板后进行模板加载,加载阶段会将产物转换为视图树的结构,转换完成后将通过表达式引擎解析表达式并取得正确的值,通过事件解析引擎解析用户自定义事件并完成事件的绑定,完成解析赋值以及事件绑定后进行视图的渲染,最终将目标页面展示到屏幕。
import os# gpt 网关调用os.environ["OPENAI_API_KEY"] = "{申请的集团api key}"os.environ["OPENAI_API_BASE"] = "{您的url}"import openaifrom dotenv import load_dotenv, find_dotenv_ = load_dotenv(find_dotenv)openai.api_key = os.environ['OPENAI_API_KEY']from langchain.prompts import ChatPromptTemplatefrom langchain.chat_models import ChatOpenAIfrom langchain.schema.output_parser import StrOutputParserprompt = ChatPromptTemplate.from_template( "tell me a short joke about {topic}")model = ChatOpenAIoutput_parser = StrOutputParserchain = prompt | model | output_parserchain.invoke({"topic": "bears"})
输出:
"Why don't bears wear shoes?
Because they have bear feet!"
其中 chain = prompt | model | output_parser 按照数据传输顺序将上述声明的 prompt template、大语言模型、输出格式串联起来(Chain),逻辑清晰直接。
代码案例:调用Embedding、Completion、Chat Model
将文本转化为Embedding :langchain_community.embeddings <-> OpenAIEmbeddings
from langchain_community.embeddings import OpenAIEmbeddingsembeddings = OpenAIEmbeddings( model="text-embedding-ada-002", openai_api_key=os.environ["OPENAI_API_KEY"], openai_api_base=os.environ["OPENAI_API_BASE"])text = "text"query_result = embeddings.embed_query(text)
文本补全:langchain_community.llms <-> OpenAI completion
from langchain_community.llms import OpenAI
llm = OpenAI(
model_name='gpt-35-turbo-instruct-0914',
openai_api_key=os.environ["OPENAI_API_KEY"],
base_url=base_url,
temperature=0
)
llm.invoke("Ihave an order with order number 2022ABCDE, but I haven't received it yet. Could you please help me check it?")
对话模型:langchain_openai <-> ChatOpenAI
from langchain_openai import ChatOpenAImodel = ChatOpenAI(model_name="gpt-35-turbo-1106") # "glm-4"model.invoke("你好,你是智谱吗?")
04
总结
理解,首先 MCube 会依据模板缓存状态判断是否需要网络获取最新模板,当获取到模板后进行模板加载,加载阶段会将产物转换为视图树的结构,转换完成后将通过表达式引擎解析表达式并取得正确的值,通过事件解析引擎解析用户自定义事件并完成事件的绑定,完成解析赋值以及事件绑定后进行视图的渲染,最终将目标页面展示到屏幕。
LangChain作为一个使用流程直观的大模型开发框架,掌握它优势多多。希望您可以通过上述内容入门并熟悉LangChain框架,欢迎多多交流!
作者:京东物流 殷擎
转载此文是出于传递更多信息目的。若来源标注错误或侵犯了您的合法权益,请与本站联系,我们将及时更正、删除、谢谢。
https://www.414w.com/read/291969.html