Kako dodati stanje pomnilnika v verigi z uporabo LangChain?

Kako Dodati Stanje Pomnilnika V Verigi Z Uporabo Langchain



LangChain omogoča razvijalcem, da zgradijo modele klepeta, ki se lahko pogovarjajo z ljudmi z uporabo naravnih jezikov. Za učinkovit pogovor mora imeti model spomin, kje je shranjen kontekst pogovora. Modeli LangChain lahko shranijo sporočila klepeta kot opazovanja, tako da je lahko izhod ves čas znotraj konteksta pogovora

Ta vodnik bo prikazal postopek nalaganja verig iz LangChain Huba.

Kako dodati stanje pomnilnika v verigi z uporabo LangChain?

Stanje pomnilnika je mogoče uporabiti za inicializacijo verig, saj se lahko nanaša na nedavno vrednost, shranjeno v verigah, ki bo uporabljena pri vračanju izhoda. Če se želite naučiti postopka dodajanja stanja pomnilnika v verige z uporabo ogrodja LangChain, preprosto preglejte ta preprost vodnik:







1. korak: Namestite module

Najprej vstopite v postopek z namestitvijo ogrodja LangChain z njegovimi odvisnostmi z ukazom pip:



pip namestite langchain



Namestite tudi modul OpenAI, da dobite njegove knjižnice, ki jih je mogoče uporabiti za dodajanje stanja pomnilnika v verigi:





pip namestite openai

Pridobite ključ API iz računa OpenAI in nastavite okolje z uporabo, da lahko verige dostopajo do njega:



uvoz ti

uvoz getpass

ti . približno [ 'OPENAI_API_KEY' ] = getpass . getpass ( 'Ključ API OpenAI:' )

Ta korak je pomemben za pravilno delovanje kode.

2. korak: uvozite knjižnice

Ko nastavite okolje, preprosto uvozite knjižnice za dodajanje stanja pomnilnika, kot so LLMChain, ConversationBufferMemory in številne druge:

od Langchain. verige uvoz ConversationChain

od Langchain. spomin uvoz ConversationBufferMemory

od Langchain. chat_models uvoz ChatOpenAI

od Langchain. verige . llm uvoz LLMChain

od Langchain. pozive uvoz PromptTemplate

3. korak: Gradnja verig

Zdaj preprosto zgradite verige za LLM z uporabo metode OpenAI() in predloge poziva z uporabo poizvedbe za klic verige:

klepet = ChatOpenAI ( temperaturo = 0 )

prompt_template = 'Napiši {style} šalo'

llm_veriga = LLMChain ( llm = klepet , poziv = PromptTemplate. iz_predloge ( prompt_template ) )

llm_veriga ( vložki = { 'slog' : 'kuhan' } )

Model je prikazal rezultat z uporabo modela LLM, kot je prikazano na spodnjem posnetku zaslona:

4. korak: Dodajanje stanja pomnilnika

Tukaj bomo dodali stanje pomnilnika v verigo z uporabo metode ConversationBufferMemory() in zagnali verigo, da dobimo 3 barve iz mavrice:

pogovor = ConversationChain (

llm = klepet ,

spomin = ConversationBufferMemory ( )

)

pogovor. teči ( 'na kratko pokaži 3 barve v mavrici' )

Model ima prikazane samo tri barve mavrice in kontekst je shranjen v pomnilniku verige:

Tukaj izvajamo verigo z dvoumnim ukazom kot ' drugi 4? ” tako model sam pridobi kontekst iz pomnilnika in prikaže preostale mavrične barve:

pogovor. teči ( 'drugi 4?' )

Model je naredil točno to, saj je razumel kontekst in vrnil preostale štiri barve iz mavričnega niza:

To je vse o nakladalnih verigah iz LangChain Huba.

Zaključek

Če želite dodati pomnilnik v verigah z uporabo ogrodja LangChain, preprosto namestite module za nastavitev okolja za gradnjo LLM. Po tem uvozite knjižnice, ki so potrebne za gradnjo verig v LLM, in ji nato dodajte stanje pomnilnika. Ko v verigo dodate stanje pomnilnika, verigi preprosto dajte ukaz, da dobite izhod, in nato dajte drug ukaz v kontekstu prejšnjega, da dobite pravilen odgovor. Ta objava je podrobneje opisala postopek dodajanja stanja pomnilnika v verige z uporabo ogrodja LangChain.