Kako uporabljati pomnilnik v LLMChain prek LangChaina?

Kako Uporabljati Pomnilnik V Llmchain Prek Langchaina



LangChain je ogrodje, ki se lahko uporablja za uvoz knjižnic in odvisnosti za gradnjo velikih jezikovnih modelov ali LLM. Jezikovni modeli uporabljajo pomnilnik za shranjevanje podatkov ali zgodovine v bazo podatkov kot opazovanje, da dobijo kontekst pogovora. Pomnilnik je konfiguriran za shranjevanje najnovejših sporočil, tako da lahko model razume dvoumne pozive uporabnika.

Ta blog razlaga postopek uporabe pomnilnika v LLMChain prek LangChaina.







Kako uporabljati pomnilnik v LLMChain prek LangChaina?

Če želite dodati pomnilnik in ga uporabiti v LLMChain prek LangChaina, lahko uporabite knjižnico ConversationBufferMemory tako, da jo uvozite iz LangChaina.



Če želite izvedeti postopek uporabe pomnilnika v LLMChain prek LangChain, si oglejte ta vodnik:



1. korak: Namestite module

Najprej zaženite postopek uporabe pomnilnika z namestitvijo LangChaina z ukazom pip:





pip namestite langchain

Namestite module OpenAI, da dobite njegove odvisnosti ali knjižnice za izdelavo LLM-jev ali modelov klepeta:



pip namestite openai

Nastavite okolje za OpenAI z uporabo ključa API z uvozom knjižnic os in getpass:

uvažajte nas
uvoz getpass

os.environ['OPENAI_API_KEY'] = getpass.getpass('Ključ OpenAI API:')

2. korak: Uvažanje knjižnic

Ko nastavite okolje, preprosto uvozite knjižnice, kot je ConversationBufferMemory, iz LangChaina:

iz langchain.chains uvozite LLMChain
iz langchain.llms uvozi OpenAI

iz langchain.memory uvoz ConversationBufferMemory

iz langchain.prompts uvozi PromptTemplate

Konfigurirajte predlogo za poziv z uporabo spremenljivk, kot je »input«, da dobite poizvedbo od uporabnika, in »hist« za shranjevanje podatkov v medpomnilnik:

template = '''Ste model, ki klepeta s človekom

{hist}
Človek: {input}
Klepetalni robot:'''

prompt = PromptTemplate(
input_variables=['hist', 'input'], template=template
)
pomnilnik = ConversationBufferMemory(memory_key='hist')

3. korak: Konfiguracija LLM

Ko je predloga za poizvedbo izdelana, konfigurirajte metodo LLMChain() z uporabo več parametrov:

llm = OpenAI()
llm_veriga = LLMChain(
llm=llm,
prompt=poziv,
verbose=Res,
memory=spomin,
)

4. korak: Testiranje LLMChain

Po tem preizkusite LLMChain z uporabo vhodne spremenljivke, da dobite poziv od uporabnika v besedilni obliki:

llm_chain.predict(input='Živijo prijatelj')

Uporabite drug vnos, da pridobite podatke, shranjene v pomnilniku za ekstrahiranje izhoda z uporabo konteksta:

llm_chain.predict(input='Dobro! jaz sem dobro - kako si')

5. korak: Dodajanje pomnilnika modelu klepeta

Pomnilnik lahko dodate v LLMChain, ki temelji na modelu klepeta, tako da uvozite knjižnice:

iz langchain.chat_models uvozi ChatOpenAI
iz langchain.schema import SystemMessage
iz langchain.prompts import ChatPromptTemplate, HumanMessagePromptTemplate, MessagesPlaceholder

Konfigurirajte predlogo poziva z uporabo ConversationBufferMemory() z uporabo različnih spremenljivk za nastavitev vnosa uporabnika:

prompt = ChatPromptTemplate.from_messages([
SystemMessage(content='Ste model, ki klepeta s človekom'),
MessagesPlaceholder(variable_),
HumanMessagePromptTemplate.from_template('{input}'),
])

memory = ConversationBufferMemory(memory_key='hist', return_messages=True)

6. korak: Konfiguracija LLMChain

Nastavite metodo LLMChain(), da konfigurirate model z uporabo različnih argumentov in parametrov:

llm = ChatOpenAI()

chat_llm_chain = LLMChain(
llm=llm,
prompt=poziv,
verbose=Res,
memory=spomin,
)

7. korak: Testiranje LLMChain

Na koncu preprosto preizkusite LLMChain z uporabo vnosa, tako da lahko model ustvari besedilo v skladu z pozivom:

chat_llm_chain.predict(input='Živijo prijatelj')

Model je prejšnji pogovor shranil v pomnilnik in ga prikaže pred dejanskim izhodom poizvedbe:

llm_chain.predict(input='Dobro! jaz sem dobro - kako si')

To je vse o uporabi pomnilnika v LLMChain z uporabo LangChain.

Zaključek

Če želite uporabljati pomnilnik v LLMChain prek ogrodja LangChain, preprosto namestite module, da nastavite okolje za pridobitev odvisnosti od modulov. Po tem preprosto uvozite knjižnice iz LangChaina, da uporabite vmesni pomnilnik za shranjevanje prejšnjega pogovora. Uporabnik lahko modelu klepeta doda tudi pomnilnik tako, da zgradi LLMChain in nato preizkusi verigo z vnosom. Ta priročnik podrobneje opisuje postopek uporabe pomnilnika v LLMChain prek LangChain.