Kako uporabljati vmesni pomnilnik žetonov za pogovor v LangChainu?

Kako Uporabljati Vmesni Pomnilnik Zetonov Za Pogovor V Langchainu



LangChain razvijalcem omogoča izdelavo modelov z uporabo strojnega ali globokega učenja, ki lahko usposablja modele z uporabo naborov podatkov. Ti modeli lahko pridobijo različne vzorce iz podatkov ali razumejo obliko nabora podatkov in njegov jezik za pridobivanje informacij. Velike jezikovne modele ali LLM je mogoče konfigurirati ali oblikovati z uporabo ogrodij LangChain, ki lahko razumejo in ustvarijo besedilo v naravnih jezikih.

Ta vodnik bo prikazal postopek uporabe medpomnilnika žetonov pogovorov v LangChain.

Kako uporabljati vmesni pomnilnik žetonov za pogovor v LangChainu?

The ConversationTokenBufferMemory Knjižnico lahko uvozite iz ogrodja LangChain, da shranite najnovejša sporočila v vmesni pomnilnik. Žetone je mogoče konfigurirati tako, da omejijo število sporočil, shranjenih v vmesnem pomnilniku, in prejšnja sporočila bodo samodejno izbrisana.







Če se želite naučiti postopka uporabe vmesnega pomnilnika žetonov pogovorov v LangChain, uporabite ta vodnik:



1. korak: Namestite module

Najprej z ukazom pip namestite ogrodje LangChain, ki vsebuje vse zahtevane module:



pip namestite langchain





Zdaj namestite modul OpenAI za izgradnjo LLM-jev in verig z uporabo metode OpenAI():

pip namestite openai



Po namestitvi modulov preprosto uporabite ključ API OpenAI za nastavite okolje z uporabo knjižnic os in getpass:

uvoz ti

uvoz getpass

ti . približno [ 'OPENAI_API_KEY' ] = getpass . getpass ( 'Ključ API OpenAI:' )

2. korak: Uporaba medpomnilnika žetonov za pogovor

Zgradite LLM z metodo OpenAI() po uvozu ConversationTokenBufferMemory knjižnica iz ogrodja LangChain:

od Langchain. spomin uvoz ConversationTokenBufferMemory

od Langchain. llms uvoz OpenAI

llm = OpenAI ( )

Konfigurirajte pomnilnik, da nastavite žeton, ta izpere stara sporočila in jih shrani v vmesni pomnilnik. Po tem shranite sporočila iz pogovora in pridobite najnovejša, da jih uporabite kot kontekst:

spomin = ConversationTokenBufferMemory ( llm = llm , max_token_limit = 10 )

spomin. shrani_kontekst ( { 'vnos' : 'zdravo' } , { 'izhod' : 'Kako si' } )

spomin. shrani_kontekst ( { 'vnos' : 'Dober sem, kaj pa ti' } , { 'izhod' : 'ne veliko' } )

Izvedite pomnilnik, da dobite podatke, shranjene v vmesnem pomnilniku, z uporabo metode load_memory_variables():

spomin. load_memory_variables ( { } )

3. korak: Uporaba medpomnilnika pogovornega žetona v verigi

Zgradite verige tako, da konfigurirate ConversationChain() metoda z več argumenti za uporabo medpomnilnika žetona pogovora:

od Langchain. verige uvoz ConversationChain

pogovor_s_povzetkom = ConversationChain (
llm = llm ,
spomin = ConversationTokenBufferMemory ( llm = OpenAI ( ) , max_token_limit = 60 ) ,
verbose = Prav ,
)
pogovor_s_povzetkom. napovedati ( vnos = 'Živjo, kaj dogaja?' )

Zdaj pa zaženite pogovor tako, da postavljate vprašanja z uporabo pozivov, napisanih v naravnem jeziku:

pogovor_s_povzetkom. napovedati ( vnos = 'Samo delam na NLP projektu' )

Pridobite izhod iz podatkov, shranjenih v vmesnem pomnilniku, z uporabo števila žetonov:

pogovor_s_povzetkom. napovedati ( vnos = 'Samo delam na oblikovanju LLM' )

Medpomnilnik se posodablja z vsakim novim vnosom, saj se prejšnja sporočila redno izpirajo:

pogovor_s_povzetkom. napovedati (

vnos = 'LLM uporablja LangChain! Ste že slišali za to'

)

To je vse o uporabi medpomnilnika žetonov pogovorov v LangChainu.

Zaključek

Če želite uporabiti vmesni pomnilnik žetonov pogovorov v LangChain, preprosto namestite module za nastavitev okolja z uporabo ključa API iz računa OpenAI. Po tem uvozite knjižnico ConversationTokenBufferMemory z uporabo modula LangChain za shranjevanje pogovora v medpomnilnik. Medpomnilnik lahko uporabite v verigi za izpiranje starejših sporočil z vsakim novim sporočilom v klepetu. Ta objava je podrobneje opisala uporabo pomnilnika vmesnega pomnilnika žetonov pogovorov v LangChain.