LLM(大模型)應(yīng)用開發(fā)利器之LangChain,帶你走進AI世界

LangChain組件圖

LangChain?是什么

首先?LangChain?是一個框架,這個框架是用來讓開發(fā)者進行?LLMs?(大語言模型)應(yīng)用開發(fā)的。

可以理解是為各種?LLM?開發(fā)的腳手架,將?LLM?的各個組件進行封裝和鏈接。把?LLMs?相關(guān)的組件“鏈接”在一起,簡化?LLMs?應(yīng)用的開發(fā)難度,方便開發(fā)者快速地開發(fā)復雜的?LLMs?應(yīng)用。

舉一個不是很恰當?shù)睦踝樱瑥?Java?工程師的角度來看?LangChain?更像是?Spring?或者?SpringBoot?這種框架,幫助開發(fā)人員更快的進行應(yīng)用開發(fā)。

LangChain?框架組件

Models(I/O):各種類型的模型集成。

Outline概要

? ? · Prompts:模板化、動態(tài)選擇和管理模型輸入

? ? · Language models:通過通用接口調(diào)用語言模型

? ? · Output parsers:從模型輸出中提取信息

Models(I/O)

Prompts組件:包含Prompt templates和Example selectors。

Prompts

Prompt templates:

? ·? ?對語言模型的指令

? ·? ?一組幾個鏡頭示例來幫助語言模型生成更好的響應(yīng)

? ·? ?對語言模型的一個問題

分別舉例:TemplateFormat、MessageTemplate、FewShotPromptTemplate、Example selectors

TemplateFormat:

TemplateFormat

MessageTemplate:

MessageTemplate

FewShotPromptTemplate:

FewShotPromptTemplate

Example selectors:

Example selectors

Language models:

? ·? ?LLMs

? ·? ?Chat models

LLMs:采用文本字符串作為輸入并返回文本字符串的模型。

gpt-3.5-turbo:

gpt-3.5-turbo

Streaming:

Streaming

Chat models:聊天模型是語言模型的變體。

Caching:

Caching

outputparser

? ·? ?獲取格式指令

? ·? ?解析

? ·? ?帶有提示的解析

分別舉例:DateTimeParser、EnumParser、ListParser、OutputParser

DateTimeParser:

DateTimeParser

EnumParser:

EnumParser

ListParser:

ListParser

OutputParser:

OutputParser

Memory:記憶涉及在用戶與語言模型的交互過程中保留狀態(tài)概念。用戶與語言模型的交互是在 ChatMessages 的概念中捕獲的,因此這可以歸結(jié)為從一系列聊天消息中攝取、捕獲、轉(zhuǎn)換和提取知識。一般來說,對于每種類型的記憶,都有兩種理解使用記憶的方法。這些是從一系列消息中提取信息的獨立函數(shù),然后您可以通過一種方式在鏈中使用這種類型的內(nèi)存。內(nèi)存可以返回多條信息(例如,最近的 N 條消息和所有先前消息的摘要)。

Memory

Outline概要

? ? · ConversationBufferMemory

? ? · ConversationBufferWindowMemory

? ? · ConversationTokenBufferMemory

? ? ·?ConversationSummaryMemory

ConversationBufferMemory:

ConversationBufferMemory

ConversationBufferWindowMemory:

ConversationBufferWindowMemory

ConversationTokenBufferMemory:

ConversationTokenBufferMemory

ConversationSummaryMemory:

ConversationSummaryMemory

Chains:

Chains

Outline概要

? ? · LLMChain

? ? · SequentialChain

? ? ? ? ? ? ? ?· SimpleSequentialChain

? ? ? ? ? ? ? ?· SequentialChain

? ? · RouterChain

LLMChain:

LLMChain

SimpleSequentialChain:一般序列鏈可以將前一個鏈的輸出結(jié)果,作為后一個鏈的輸入。一般序列鏈有唯一輸入和輸出變量。

SimpleSequentialChain

SequentialChain:序列鏈中包含多個鏈,其中一些鏈的結(jié)果可以作為另一個鏈的輸入。序列鏈可以支持多個輸入和輸出變量。

SequentialChain流程圖
SequentialChain

RouterChain:路由鏈類似一個while else的函數(shù),根據(jù)輸入值,選擇對應(yīng)的路由(路徑)進行后續(xù)的鏈路。整個路由鏈一般一個輸入,一個輸出。

RouterChain流程圖
RouterChain(1)
RouterChain(2)

Agents:某些應(yīng)用程序需要根據(jù)用戶輸入對 LLM 和其他工具進行靈活的調(diào)用鏈。代理接口為此類應(yīng)用程序提供了靈活性。代理可以訪問一套工具,并根據(jù)用戶輸入確定使用哪些工具。代理可以使用多種工具,并使用一個工具的輸出作為下一個工具的輸入。

Agents

Outline概要

? ? ·?動作代理:在每個時間步,使用所有先前動作的輸出來決定下一個動作

? ? ·?計劃并執(zhí)行代理:預先決定完整的操作順序,然后執(zhí)行所有操作而不更新計劃

分別舉例:MathAndWikiAgent、PythonREPLAgent、MultiFunctionsAgent

MathAndWikiAgent:

MathAndWikiAgent

PythonREPLAgent:

PythonREPLAgent

MultiFunctionsAgent:

MultiFunctionsAgent

索引(index):索引是指以最佳方式對文檔進行結(jié)構(gòu)化,以便語言模型(LLMs)能夠與其進行最佳交互。這個模塊包含了處

理文檔的實用函數(shù)。

索引(index)

Outline概要

? ? ·?嵌入(Embeddings):嵌入是對信息(例如文本、文檔、圖像、音頻等)的數(shù)值表示。通過嵌入,可以將信息轉(zhuǎn)換為向量形式,以便計算機能夠更好地理解和處理。

? ? ·?文本拆分器(Text Splitters):當需要處理較長的文本時,有必要將文本分割成多個塊。文本拆分器是用于將長文本分割成更小片段的工具。

? ? ·?向量數(shù)據(jù)庫(Vectorstores):向量數(shù)據(jù)庫存儲和索引來自自然語言處理模型的向量嵌入,用于理解文本字符串、句子和整個文檔的含義和上下文,從而獲得更準確和相關(guān)的搜索結(jié)果。請參閱可用的向量數(shù)據(jù)庫。

代碼示例如下:

index

應(yīng)用實例langchain-chatglm-6B流程圖如下:

langchain-chatglm-6B(1)
langchain-chatglm-6B(2)

evaluation:

Outline概要

? ? ·?示例生成:Example generation

? ? ·?手動評估(和調(diào)試):Manual evaluation (and debugging)

? ? ·?LLM輔助評估:LLM-assisted evaluation

Example generation:

Example generation(1)
Example generation(2)

Manual evaluation (and debugging):

Manual evaluation (and debugging)

LLM-assisted evaluation:

LLM-assisted evaluation

開源項目:

最近開源的新作品,主要目標是想通過自然語言操作數(shù)據(jù)庫替換傳統(tǒng)企業(yè)管理后臺web,有興趣的同學歡迎加入開源,覺得不錯的可以點個小??,感謝大家~

項目地址如下:

https://github.com/sql-agi/DB-GPT

作者簡介:

AI_皮皮蝦、卷過大廠、貢獻過開源、參與多次大模型比賽并??多次參加AIGC交流會(微軟AIGC等)、一直走在AIGC最前沿!

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...
    沈念sama閱讀 227,428評論 6 531
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場離奇詭異,居然都是意外死亡,警方通過查閱死者的電腦和手機,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 98,024評論 3 413
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人,你說我怎么就攤上這事。” “怎么了?”我有些...
    開封第一講書人閱讀 175,285評論 0 373
  • 文/不壞的土叔 我叫張陵,是天一觀的道長。 經(jīng)常有香客問我,道長,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 62,548評論 1 307
  • 正文 為了忘掉前任,我火速辦了婚禮,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘。我一直安慰自己,他們只是感情好,可當我...
    茶點故事閱讀 71,328評論 6 404
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著,像睡著了一般。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 54,878評論 1 321
  • 那天,我揣著相機與錄音,去河邊找鬼。 笑死,一個胖子當著我的面吹牛,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播,決...
    沈念sama閱讀 42,971評論 3 439
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起,我...
    開封第一講書人閱讀 42,098評論 0 286
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后,有當?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 48,616評論 1 331
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 40,554評論 3 354
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發(fā)現(xiàn)自己被綠了。 大學時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 42,725評論 1 369
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情,我是刑警寧澤,帶...
    沈念sama閱讀 38,243評論 5 355
  • 正文 年R本政府宣布,位于F島的核電站,受9級特大地震影響,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點故事閱讀 43,971評論 3 345
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧,春花似錦、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 34,361評論 0 25
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 35,613評論 1 280
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人。 一個月前我還...
    沈念sama閱讀 51,339評論 3 390
  • 正文 我出身青樓,卻偏偏與公主長得像,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當晚...
    茶點故事閱讀 47,695評論 2 370

推薦閱讀更多精彩內(nèi)容