LangChain je rámec, který lze použít k importu knihoven a závislostí pro vytváření velkých jazykových modelů nebo LLM. Jazykové modely používají paměť k ukládání dat nebo historie do databáze jako pozorování, aby získaly kontext konverzace. Paměť je nakonfigurována tak, aby ukládala nejnovější zprávy, takže model může pochopit nejednoznačné výzvy uživatele.
Tento blog vysvětluje proces používání paměti v LLMChain prostřednictvím LangChain.
Jak používat paměť v LLMCain přes LangChain?
Chcete-li přidat paměť a použít ji v LLMCain prostřednictvím LangChain, lze knihovnu ConversationBufferMemory použít jejím importem z LangChain.
Chcete-li se naučit proces používání paměti v LLMChain prostřednictvím LangChain, projděte si následující příručku:
Krok 1: Nainstalujte moduly
Nejprve spusťte proces používání paměti instalací LangChain pomocí příkazu pip:
pip install langchain
Nainstalujte moduly OpenAI, abyste získali jeho závislosti nebo knihovny pro vytváření LLM nebo chatovacích modelů:
pip install openai
Nastavte prostředí pro OpenAI pomocí jeho klíče API importem knihoven OS a getpass:
importujte násimportovat getpass
os.environ['OPENAI_API_KEY'] = getpass.getpass('Klíč OpenAI API:')
Krok 2: Import knihoven
Po nastavení prostředí jednoduše importujte knihovny jako ConversationBufferMemory z LangChain:
z langchain.chains import LLMCainz langchain.llms importujte OpenAI
z langchain.memory importujte ConversationBufferMemory
from langchain.prompts import PromptTemplate
Nakonfigurujte šablonu pro výzvu pomocí proměnných jako „input“ pro získání dotazu od uživatele a „hist“ pro uložení dat do vyrovnávací paměti:
template = '''Jsi modelka, která si povídá s člověkem{hist}
Člověk: {input}
Chatbot:'''
prompt = PromptTemplate(
input_variables=['hist', 'input'], template=template
)
paměť = ConversationBufferMemory(memory_key='hist')
Krok 3: Konfigurace LLM
Jakmile je šablona pro dotaz vytvořena, nakonfigurujte metodu LLMChain() pomocí několika parametrů:
llm = OpenAI()llm_chain = LLMCain(
llm=llm,
výzva = výzva,
verbose=pravda,
paměť = paměť,
)
Krok 4: Testování LLMChain
Poté otestujte LLMCain pomocí vstupní proměnné, abyste dostali výzvu od uživatele v textové podobě:
llm_chain.predict(input='Ahoj příteli')
Použijte jiný vstup k získání dat uložených v paměti pro extrakci výstupu pomocí kontextu:
llm_chain.predict(input='Dobrá! Jsem hodný - jak se máš')
Krok 5: Přidání paměti do modelu chatu
Paměť lze přidat do LLMCain založeného na modelu chatu importem knihoven:
z langchain.chat_models importujte ChatOpenAIz langchain.schema import SystemMessage
from langchain.prompts import ChatPromptTemplate, HumanMessagePromptTemplate, MessagesPlaceholder
Nakonfigurujte šablonu výzvy pomocí ConversationBufferMemory() pomocí různých proměnných pro nastavení vstupu od uživatele:
prompt = ChatPromptTemplate.from_messages([SystemMessage(content='Jste model, který si povídá s člověkem'),
MessagesPlaceholder(variable_),
HumanMessagePromptTemplate.from_template('{input}'),
])
paměť = ConversationBufferMemory(memory_key='hist', return_messages=True)
Krok 6: Konfigurace LLMChain
Nastavte metodu LLMChain() pro konfiguraci modelu pomocí různých argumentů a parametrů:
llm = ChatOpenAI()chat_llm_chain = LLMCain(
llm=llm,
výzva = výzva,
verbose=pravda,
paměť = paměť,
)
Krok 7: Testování LLMChain
Na konci jednoduše otestujte LLMCain pomocí vstupu, aby model mohl generovat text podle výzvy:
chat_llm_chain.predict(input='Ahoj příteli')
Model uložil předchozí konverzaci do paměti a zobrazí ji před skutečným výstupem dotazu:
llm_chain.predict(input='Dobrá! Jsem hodný - jak se máš')
To je vše o používání paměti v LLMChain pomocí LangChain.
Závěr
Chcete-li používat paměť v LLMCain prostřednictvím rámce LangChain, jednoduše nainstalujte moduly a nastavte prostředí tak, aby získalo závislosti z modulů. Poté jednoduše importujte knihovny z LangChain a použijte vyrovnávací paměť pro uložení předchozí konverzace. Uživatel může také přidat paměť do modelu chatu vytvořením LLMChain a následným testováním řetězce poskytnutím vstupu. Tato příručka podrobně popisuje proces používání paměti v LLMCain prostřednictvím LangChain.