当前位置:首页 > 数码 > 构建-LangChain-基于-运行程序的全面指南-LLM (构建蓝图)

构建-LangChain-基于-运行程序的全面指南-LLM (构建蓝图)

admin8个月前 (04-21)数码30

Hellofolks,我是Luga,当天咱们继续来聊一下人工智能()生态畛域关系的技术-LangChain,本文将继续聚焦在针对LangChain的技术启动剖析,使得大家能够了解LangChain成功机制以便更好地对应用其启动运行及市场开发。

在突飞猛进的人工智能畛域,言语模型曾经成为舞台主角,从新定义了人机交互的形式。的宽泛认可以及等科技巨头纷繁推出相似产品,使言语模型,尤其是LLM,成为科技界注目焦点。

从某种意义过去讲,LLM代表了人工智能了解、解释和生成人类言语才干的严重飞跃,经过海量文本数据的训练,能够把握复杂的言语形式和语义纤细差异。仰仗史无前例的言语处置才干,LLM可以协助用户以出色的准确性和效率生成高品质内容。

而LangChain作为一个围绕LLM构建的框架,为人造言语处置方面开拓了一个充溢或者性的新环球,可以创立各种运行程序,并能够有效处置文本生成、情感剖析以及言语翻译等难题,极大地监禁了LLM的后劲。

一、什么是LangChain?

作为一款开源的/target=_blankclass=infotextkey>Python框架,LangChain旨在促成基于LLM的运行程序开发。基于所提供了一套工具、组件和接口等套件,LangChain简化了以LLM为外围的运行程序的构建环节。经过LangChain,开发人员能够轻松治理与言语模型的交互,无缝衔接不同的组件,并集成API和数据库等资源。

此外,借助LangChain技术,咱们能够构建出一系列运行程序,这些运行程序能够生成翻新性且与高低文关系的内容。无论是撰写博客文章、产品形容,与聊天机器人对话,还是生成问答(GQA)和摘要等,应用LLM的运行程序开发变得愈加简便高效。

图:LangChainStar历史(由star-history.com生成)

从另一角度而言,这种基于LangChain的技术运行使得开发人员可以应用LangChain提供的弱小言语模型才干,极速开收回合乎用户需求的运行,从而优化用户体验并浪费开发时期和老本。

二、LLM的局限性与LangChain的处置打算

在实践的场景中,LLM长于在惯例高低文下对揭示做出照应,但在未接受过训练的特定畛域却会遇到应战。Prompts则是人们用来疏导LLM生成回复的查问。为了让LLM在特定畛域施展更佳成果,机器学习工程师须要将其与组织外部数据起源整合,并运行揭示工程技术。

LangChain的出现简化了开发数据照应式运行程序的两边步骤,并提高了PromptEngineering的效率。同时,提供了一套易用、直观的工具和界面,使开发人员能够轻松地将LLM与数据源和揭示工程技术启动整合。

作为一项关键技术,那么,LangChain具有哪些外围的长处呢?

1.从新施展言语模型的作用

借助LangChain,组织可以将LLM的才干从新用于特定畛域的运行程序,而无需从新培训或微调。开发团队可以构建援用专有消息的复杂运行程序,从而增强模型的照应才干。举例来说,咱们可以应用LangChain构建运行程序,从存储的外部文档中检索数据,并将其整合为对话照应。咱们还可以创立RAG(检索增强生成)上班流程,在揭示时期向言语模型引入新消息。经过实施RAG和其余高低文感知上班流程,可以缩小模型发生的幻觉,提高照应的准确性。

2.简化人工智能开发

LangChain经过简化数据源集成的复杂性并极速提炼,简化了AI开发环节。开发人员可以自定义序列,极速构建复杂的运行程序。软件团队可以修正LangChain提供的模板和库,以缩小开发时期,而不用从头编写业务逻辑。

3.开发者允许

LangChain为AI开发者提供了衔接言语模型和外部数据源的工具。毕竟,它是开源的,并失掉生动社区的允许。组织可以无偿经常使用LangChain,并取得其余相熟该框架的开发人员的允许。

三、LangChain的外围组件解析

LangChain的共同之处之一便是其灵敏性和模块化。经过将人造言语处置管道分解为独自的组件,开发人员可以轻松混合和婚配这些构建块,以创立满足其特定需求的自定义上班流程,从而使得LangChain成为一个高度顺应性的框架,可用于为宽泛的用例和行业构建对话式人工智能运行程序。

LangChain是提供了一组模块,能够构建完整的LLM(LanguageModel)运行程序管道,并与各种数据加载器、向量存储和LLM提供程序等启动宽泛的集成。LangChain的关键外围组件可参考如下图所示:

LangChain关键组件

1.ModelI/O

LangChain的外围是弱小的言语模型(LLM),使运行程序能够了解和生成相似人类的文本。经过LangChain,开发人员能够出色地成功各种与言语关系的义务。无论是了解用户查问、生成照应,还是口头复杂的言语义务,LangChain的模型都是言语处置才干的支柱。

fromlangchain.llmsimportOpenAIllm=OpenAI(model_name="text-davinci-003")#TheLLMtakesapromptasaninputandoutputsacompletionprompt="WhencanIachievefinancialfreedom?"completion=llm(prompt)

Chains模块在运行程序中担任链接不同的组件,开发人员可以应用Chains模块创立链式结构,将揭示、模型和其余运行程序组件无机地衔接在一同。这种链式结构关于构建须要多个组件协同上班的复杂运行程序至关关键。

经过Chains模块,开发人员可以灵敏组合和性能不同的组件,构成一个完整的运行程序管道,成功高度定制化的性能和逻辑。

chain=LLMChain(llm=llm,prompt=prompt)chain.run("ai")

Agents模块在运行程序中承当了治理运行程序与外界之间交互的关键角色。经过经常使用Agents模块,开发人员可以构建各种类型的运行程序,如团体助理、智能聊天机器人等。这些运行程序可以基于语音或文本输入启动交互,并经过火析和了解输入数据来提供相应的照应和服务。

Agents模块为开发人员提供了一个灵敏、可裁减的工具,使他们能够轻松构建具有交互性能的运行程序,为用户提供共性化、智能化的体验。

classAgent:def__init__(self,config):self.config=configself.chain=Chain(config)self.proxy=Proxy(config)self.memory=Memory(config)self.callback=Callback(config)defparse_input(self,input):#解析用户的输入和高低文消息...

LangChain的Memory模块承当了数据存储的治理义务。经过经常使用Memory模块,开发人员可以轻松地存储和检索各种类型的数据,如文本、图像、音频等。

Memory模块提供了高度可裁减的存储机制,可以顺应不同规模和类型的数据存储需求。开发人员可以依据运行程序的须要,灵敏地组织和治理存储的数据,以满足运行程序的要求。

conversation=ConversationChain(llm=llm,verbose=True)conversation.predict(input="Iamthelastone.")conversation.predict(input="heisfirst.")conversation.predict(input="Sheisthirdfromthebottom")
LLM

5.Retrieval

以Indexes组件为例,Indexs模块在运行程序中承当了数据索引的治理义务。开发人员可以应用Indexs模块创立用于搜查和检索数据的索引结构。Indexs模块关于构建须要启动数据搜查和检索的运行程序至关关键。

经常使用Indexs模块,开发人员可以依据运行程序的需求创立不同类型的索引,如文本索引、关键词索引等。这些索引结构可以针对特定的数据属性或特色启动优化,以成功更极速和准确的数据搜查和检索。开发人员可以依据数据的特点和运行程序的需求,灵敏地性能和治理索引结构。

retriever=db.as_retriever()qa=RetrievalQA.from_chain_type(llm=llm,chain_type="stuff",retriever=retriever,return_source_documents=True)query="Forgivemeformyunruly,indulgentloveoffreedominthislife?"result=qa({"query":query})print(result['result'])

6.Calbacks

LangChain提供了一个回调系统,使的咱们能够衔接到LLM恳求的不同阶段。这个回调系统关于日志记载、监控、传达输和其余义务十分有用。

经过经常使用这些回调函数,咱们可以灵敏地控制和治理LLM恳求的各个阶段。同时,还可以依据运行程序的需求,自定义回调函数的行为,以成功特定的性能和逻辑。

classBaseCallbackHandler:"""Basecallbackhandlerthatcanbeusedtohandlecallbacksfromlangchain."""defon_llm_start(self,serialized:Dict[str,Any],prompts:List[str],**kwargs:Any)->Any:"""RunwhenLLMstartsrunning."""defon_chat_model_start(self,serialized:Dict[str,Any],messages:List[List[BaseMessage]],**kwargs:Any)->Any:"""RunwhenChatModelstartsrunning."""defon_llm_new_token(self,token:str,**kwargs:Any)->Any:"""RunonnewLLMtoken.Onlyavailablewhenstreamingisenabled."""

经过对上述关键组件的解析,咱们可以大抵了解LangChain的上班原理和流程,行将Agents、Memory、Indexs和回调系统等关键组件联合起来,成功运行程序与外界的交互、数据的存储和索引,以及自定义操作的口头。

这种组合使得LangChain能够构建出弱小、灵敏的运行程序,为用户提供共性化、智能化的体验。详细可参考如下上班流:

LLMLangChain上班流程

四、经常使用LangChain启动LLM运行程序构建

在开局之前,咱们须要确保正确装置LangChain的软件包,并依照指南启动设置和性能。这包含装置所需的编程言语环境(如Python)、装置LangChain的关系库和依赖项,并启动必要的性能和设置,以确保LangChain可以反常运转。

一旦装置和设置成功,咱们可以开局导入和经常使用LLM。为了有效经常使用LLM,咱们须要导入适当的库和依赖项,以便在运行程序中能够调用和经常使用LLM的性能。

1.设置LangChain

这里,关键为LangChain环境设置关系的依赖库,详细可参考如下:

importlangchainimportopenaiimportosimportIPythonfromlangchain.llmsimportOpenAIfromdotenvimportload_dotenvfromlangchain.chat_modelsimportChatOpenAIfromlangchain.schemaimport(AIMessage,HumanMessage,SystemMessage)fromlangchain.embeddingsimportOpenAIEmbeddingsfromlangchain.chainsimportLLMChainfromlangchain.chainsimportRetrievalQAfromlangchainimportConversationChainload_dotenv()#APIconfigurationopenai.api_key=os.getenv("OPENAI_API_KEY")

2.初始化LLM

要在LangChain中初始化LLM,首先须要导入必要的库和依赖项。假设大家经常使用Python编程言语,咱们可以导入名为"langchain"的库,并指定要经常使用的言语模型。

以下是一个示例代码片段,展现了如何导入"langchain"库和初始化LLM,详细可参考:

#导入必要的库和依赖项importlangchain#指定要经常使用的言语模型language_model="gpt3.5-turbo"#这里经常使用GPT-3.5Turbo模型作为示例#初始化LLMllm=langchain.LLM(language_model)#接上去,可以经常使用llm对象来调用和经常使用LLM的各种性能和方法#例如,可以经常使用llm.generate()方法生成文本,或经常使用llm.complete()方法启动智能补全等#示例:经常使用LLM生成文本prompt="Hello,LangChain!"response=llm.generate(prompt)print(response)

3.输入Prompts

初始化LLM后,咱们可以经过输入揭示来生成文本或失掉照应。Prompts是言语模型生成文本的终点。依据需求,咱们可以提供单个或多个Prompts。以下是一个便捷的示例:

#初始化LLMllm=langchain.LLM(language_model)#提供单个揭示prompt="Onceuponatime"response=llm.generate(prompt)print(response)#提供多个揭示prompts=["Thesunisshining","Inagalaxyfar,faraway","Onceuponatime"]responses=llm.generate(prompts)forresponseinresponses:print(response)

4.检索生成的文本或照应

输入Prompts后,咱们可以从LLM中检索生成的文本或照应。生成的文本或照应将基于所提供的Prompts,以及言语模型所具有的高低文了解和言语生成的性能。

当咱们提供一个或多个Prompts时,LLM会经常使用这些Prompts作为终点,并借助言语模型的才干来生成关系的文本。言语模型会思索Prompts中的高低文消息,以及其在训练数据中学习到的言语法令和概率散布。这样,生成的文本将会在必定水平上与Prompts关系,并且具有必定的语法正当性和连接性。

#Printthegeneratedtextprint(generated_text)#Printtheresponsesforresponseinresponses:print(response)

总而言之,经过遵照上述步骤并成功相应的代码,咱们可以无缝地经常使用LangChain和预训练的LLM,充沛应用它们在文本生成和了解义务上的才干。这为咱们处置各种人造言语处置疑问提供了一种高效且灵敏的方法。无论是开发智能对话系统、构建文本生成运行,还是启动文本了解和剖析,LangChain和预训练的LLM都将成为有力的工具和技术基础。

综上所述,在构建允许LLM的运行程序方面,LangChain为咱们开拓了一个充溢有限或者性的环球。假设大家对文本成功、言语翻译、情感剖析、文本摘要或命名实体识别等畛域感兴味,LangChain提供了直观易用的平台和弱小的API,让咱们的想法转化为事实。

借助LangChain和LLM的弱小才干,咱们可以创立出具有了解和生成类人文天性力的智能运行程序,从而彻底扭转咱们与言语交互的形式。

Reference:


langchain为什么不火了

这款程序不火的原因是市场竞争激烈和媒体报道不足。 区块链技术作为新兴领域,吸引着大量的项目和团队进入,市场竞争比较激烈。 在这样的环境下,除非是有独特的创新点和明显的优势,不然很难脱颖而出。 Langchain就在某些方面没有能满足市场的期望和需求,导致其在竞争中处于不利地位。 Langchain在媒体曝光方面也相对不足,没能引起广泛关注。 缺乏足够的媒体报道支持,使投资者和公众对其了解有限,难以形成持续的热度和兴趣。

langchain和pytorch区别

含义不同、领域不同。 1、Langchain是一种区块链开发平台,使用Solidity编程语言进行智能合约的编写和部署。 而PyTorch是一种深度学习框架,基于Python编程语言,用于构建和训练神经网络模型。 2、Langchain主要用于区块链领域,用于构建去中心化应用和智能合约。 而PyTorch则主要用于机器学习和人工智能领域,用于解决各种复杂的数据分析和模式识别问题。

免责声明:本文转载或采集自网络,版权归原作者所有。本网站刊发此文旨在传递更多信息,并不代表本网赞同其观点和对其真实性负责。如涉及版权、内容等问题,请联系本网,我们将在第一时间删除。同时,本网站不对所刊发内容的准确性、真实性、完整性、及时性、原创性等进行保证,请读者仅作参考,并请自行核实相关内容。对于因使用或依赖本文内容所产生的任何直接或间接损失,本网站不承担任何责任。

标签: LLM

“构建-LangChain-基于-运行程序的全面指南-LLM (构建蓝图)” 的相关文章

一文读懂大型语言模型LLM-技术原理-应用场景-b-b-发展趋势 (大型是什么意思?)

一文读懂大型语言模型LLM-技术原理-应用场景-b-b-发展趋势 (大型是什么意思?)

人工智能的语言革命:大语言模型 序言 当今技术界正见证着人工智能(AI)的飞速发展,其核心驱动力之一是自然语言处理(NLP)的进步。大语言模型(LLM)处于这场革命的最前沿,使计算机能够以前所未...

解决LLaMA-BERT等部署难题的突破性进展-首个4 (解决l类问题需要集中注意力发现事实和运用逻辑)

解决LLaMA-BERT等部署难题的突破性进展-首个4 (解决l类问题需要集中注意力发现事实和运用逻辑)

引言 大模型压缩一直是备受关注的研究领域,后训练量化(Post-training Quantization,PTQ)是压缩算法中常被采用的技术之一。现有的 PTQ 方法大多采用整数量化,当比...

错过懊悔不已-LLM-大型言语模型-提醒其精华 (错过懊悔不已是什么歌)

错过懊悔不已-LLM-大型言语模型-提醒其精华 (错过懊悔不已是什么歌)

当蠢才享一篇知乎高赞文章,作者是张俊林教员。 图片 读完收获很多,能帮大家更好地理解、学习大模型。原文有2.8w字,我提炼了外围要点,浏览须要10min。 的出现给很多人带来了惊...