Jak používat paměť v LLMCain přes LangChain?

Jak Pouzivat Pamet V Llmcain Pres Langchain



LangChain je rámec, který lze použít k importu knihoven a závislostí pro vytváření velkých jazykových modelů nebo LLM. Jazykové modely používají paměť k ukládání dat nebo historie do databáze jako pozorování, aby získaly kontext konverzace. Paměť je nakonfigurována tak, aby ukládala nejnovější zprávy, takže model může pochopit nejednoznačné výzvy uživatele.

Tento blog vysvětluje proces používání paměti v LLMChain prostřednictvím LangChain.







Jak používat paměť v LLMCain přes LangChain?

Chcete-li přidat paměť a použít ji v LLMCain prostřednictvím LangChain, lze knihovnu ConversationBufferMemory použít jejím importem z LangChain.



Chcete-li se naučit proces používání paměti v LLMChain prostřednictvím LangChain, projděte si následující příručku:



Krok 1: Nainstalujte moduly

Nejprve spusťte proces používání paměti instalací LangChain pomocí příkazu pip:





pip install langchain

Nainstalujte moduly OpenAI, abyste získali jeho závislosti nebo knihovny pro vytváření LLM nebo chatovacích modelů:



pip install openai

Nastavte prostředí pro OpenAI pomocí jeho klíče API importem knihoven OS a getpass:

importujte nás
importovat getpass

os.environ['OPENAI_API_KEY'] = getpass.getpass('Klíč OpenAI API:')

Krok 2: Import knihoven

Po nastavení prostředí jednoduše importujte knihovny jako ConversationBufferMemory z LangChain:

z langchain.chains import LLMCain
z langchain.llms importujte OpenAI

z langchain.memory importujte ConversationBufferMemory

from langchain.prompts import PromptTemplate

Nakonfigurujte šablonu pro výzvu pomocí proměnných jako „input“ pro získání dotazu od uživatele a „hist“ pro uložení dat do vyrovnávací paměti:

template = '''Jsi modelka, která si povídá s člověkem

{hist}
Člověk: {input}
Chatbot:'''

prompt = PromptTemplate(
input_variables=['hist', 'input'], template=template
)
paměť = ConversationBufferMemory(memory_key='hist')

Krok 3: Konfigurace LLM

Jakmile je šablona pro dotaz vytvořena, nakonfigurujte metodu LLMChain() pomocí několika parametrů:

llm = OpenAI()
llm_chain = LLMCain(
llm=llm,
výzva = výzva,
verbose=pravda,
paměť = paměť,
)

Krok 4: Testování LLMChain

Poté otestujte LLMCain pomocí vstupní proměnné, abyste dostali výzvu od uživatele v textové podobě:

llm_chain.predict(input='Ahoj příteli')

Použijte jiný vstup k získání dat uložených v paměti pro extrakci výstupu pomocí kontextu:

llm_chain.predict(input='Dobrá! Jsem hodný - jak se máš')

Krok 5: Přidání paměti do modelu chatu

Paměť lze přidat do LLMCain založeného na modelu chatu importem knihoven:

z langchain.chat_models importujte ChatOpenAI
z langchain.schema import SystemMessage
from langchain.prompts import ChatPromptTemplate, HumanMessagePromptTemplate, MessagesPlaceholder

Nakonfigurujte šablonu výzvy pomocí ConversationBufferMemory() pomocí různých proměnných pro nastavení vstupu od uživatele:

prompt = ChatPromptTemplate.from_messages([
SystemMessage(content='Jste model, který si povídá s člověkem'),
MessagesPlaceholder(variable_),
HumanMessagePromptTemplate.from_template('{input}'),
])

paměť = ConversationBufferMemory(memory_key='hist', return_messages=True)

Krok 6: Konfigurace LLMChain

Nastavte metodu LLMChain() pro konfiguraci modelu pomocí různých argumentů a parametrů:

llm = ChatOpenAI()

chat_llm_chain = LLMCain(
llm=llm,
výzva = výzva,
verbose=pravda,
paměť = paměť,
)

Krok 7: Testování LLMChain

Na konci jednoduše otestujte LLMCain pomocí vstupu, aby model mohl generovat text podle výzvy:

chat_llm_chain.predict(input='Ahoj příteli')

Model uložil předchozí konverzaci do paměti a zobrazí ji před skutečným výstupem dotazu:

llm_chain.predict(input='Dobrá! Jsem hodný - jak se máš')

To je vše o používání paměti v LLMChain pomocí LangChain.

Závěr

Chcete-li používat paměť v LLMCain prostřednictvím rámce LangChain, jednoduše nainstalujte moduly a nastavte prostředí tak, aby získalo závislosti z modulů. Poté jednoduše importujte knihovny z LangChain a použijte vyrovnávací paměť pro uložení předchozí konverzace. Uživatel může také přidat paměť do modelu chatu vytvořením LLMChain a následným testováním řetězce poskytnutím vstupu. Tato příručka podrobně popisuje proces používání paměti v LLMCain prostřednictvím LangChain.