Ta vodnik bo prikazal postopek uporabe medpomnilnika žetonov pogovorov v LangChain.
Kako uporabljati vmesni pomnilnik žetonov za pogovor v LangChainu?
The ConversationTokenBufferMemory Knjižnico lahko uvozite iz ogrodja LangChain, da shranite najnovejša sporočila v vmesni pomnilnik. Žetone je mogoče konfigurirati tako, da omejijo število sporočil, shranjenih v vmesnem pomnilniku, in prejšnja sporočila bodo samodejno izbrisana.
Če se želite naučiti postopka uporabe vmesnega pomnilnika žetonov pogovorov v LangChain, uporabite ta vodnik:
1. korak: Namestite module
Najprej z ukazom pip namestite ogrodje LangChain, ki vsebuje vse zahtevane module:
pip namestite langchain
Zdaj namestite modul OpenAI za izgradnjo LLM-jev in verig z uporabo metode OpenAI():
pip namestite openai
Po namestitvi modulov preprosto uporabite ključ API OpenAI za nastavite okolje z uporabo knjižnic os in getpass:
uvoz tiuvoz getpass
ti . približno [ 'OPENAI_API_KEY' ] = getpass . getpass ( 'Ključ API OpenAI:' )
2. korak: Uporaba medpomnilnika žetonov za pogovor
Zgradite LLM z metodo OpenAI() po uvozu ConversationTokenBufferMemory knjižnica iz ogrodja LangChain:
od Langchain. spomin uvoz ConversationTokenBufferMemoryod Langchain. llms uvoz OpenAI
llm = OpenAI ( )
Konfigurirajte pomnilnik, da nastavite žeton, ta izpere stara sporočila in jih shrani v vmesni pomnilnik. Po tem shranite sporočila iz pogovora in pridobite najnovejša, da jih uporabite kot kontekst:
spomin = ConversationTokenBufferMemory ( llm = llm , max_token_limit = 10 )spomin. shrani_kontekst ( { 'vnos' : 'zdravo' } , { 'izhod' : 'Kako si' } )
spomin. shrani_kontekst ( { 'vnos' : 'Dober sem, kaj pa ti' } , { 'izhod' : 'ne veliko' } )
Izvedite pomnilnik, da dobite podatke, shranjene v vmesnem pomnilniku, z uporabo metode load_memory_variables():
spomin. load_memory_variables ( { } )
3. korak: Uporaba medpomnilnika pogovornega žetona v verigi
Zgradite verige tako, da konfigurirate ConversationChain() metoda z več argumenti za uporabo medpomnilnika žetona pogovora:
od Langchain. verige uvoz ConversationChainpogovor_s_povzetkom = ConversationChain (
llm = llm ,
spomin = ConversationTokenBufferMemory ( llm = OpenAI ( ) , max_token_limit = 60 ) ,
verbose = Prav ,
)
pogovor_s_povzetkom. napovedati ( vnos = 'Živjo, kaj dogaja?' )
Zdaj pa zaženite pogovor tako, da postavljate vprašanja z uporabo pozivov, napisanih v naravnem jeziku:
pogovor_s_povzetkom. napovedati ( vnos = 'Samo delam na NLP projektu' )
Pridobite izhod iz podatkov, shranjenih v vmesnem pomnilniku, z uporabo števila žetonov:
pogovor_s_povzetkom. napovedati ( vnos = 'Samo delam na oblikovanju LLM' )
Medpomnilnik se posodablja z vsakim novim vnosom, saj se prejšnja sporočila redno izpirajo:
pogovor_s_povzetkom. napovedati (vnos = 'LLM uporablja LangChain! Ste že slišali za to'
)
To je vse o uporabi medpomnilnika žetonov pogovorov v LangChainu.
Zaključek
Če želite uporabiti vmesni pomnilnik žetonov pogovorov v LangChain, preprosto namestite module za nastavitev okolja z uporabo ključa API iz računa OpenAI. Po tem uvozite knjižnico ConversationTokenBufferMemory z uporabo modula LangChain za shranjevanje pogovora v medpomnilnik. Medpomnilnik lahko uporabite v verigi za izpiranje starejših sporočil z vsakim novim sporočilom v klepetu. Ta objava je podrobneje opisala uporabo pomnilnika vmesnega pomnilnika žetonov pogovorov v LangChain.