Jak používat okno vyrovnávací paměti konverzace v LangChain?

Jak Pouzivat Okno Vyrovnavaci Pameti Konverzace V Langchain



LangChain je rámec, který lze použít v notebooku Python k trénování jazykových modelů nebo chatbotů pomocí modelů strojového učení. Tyto jazykové modely se používají ke konverzaci s lidmi v jejich přirozeném jazyce poté, co je trénujeme v jazycích podobných lidem. Tento příspěvek bude ilustrovat proces použití okna vyrovnávací paměti konverzace v LangChain.

Jak používat okno vyrovnávací paměti konverzace v LangChain?

Okno vyrovnávací paměti konverzace se používá k uchování nejnovějších zpráv konverzace v paměti, abyste získali nejnovější kontext. Používá hodnotu K pro ukládání zpráv nebo řetězců do paměti pomocí rámce LangChain.

Chcete-li se naučit proces používání okna vyrovnávací paměti konverzace v LangChain, jednoduše si projděte následující průvodce:







Krok 1: Nainstalujte moduly

Spusťte proces používání okna vyrovnávací paměti konverzace instalací modulu LangChain s požadovanými závislostmi pro vytváření modelů konverzace:



pip install langchain



Poté nainstalujte modul OpenAI, který lze použít k vytvoření velkých jazykových modelů v LangChain:





pip install openai

Nyní, nastavit prostředí OpenAI k vybudování řetězců LLM pomocí klíče API z účtu OpenAI:



import vy
import getpass

vy . přibližně [ 'OPENAI_API_KEY' ] = getpass . getpass ( 'Klíč OpenAI API:' )

Krok 2: Použití vyrovnávací paměti okna konverzace

Chcete-li použít vyrovnávací paměť okna konverzace v LangChain, importujte soubor ConversationBufferWindowMemory knihovna:

z langchain. Paměť import ConversationBufferWindowMemory

Nakonfigurujte paměť pomocí ConversationBufferWindowMemory () metoda s hodnotou k jako argumentem. Hodnota k bude použita k uchování nejnovějších zpráv z konverzace a následné konfiguraci trénovacích dat pomocí vstupních a výstupních proměnných:

Paměť = ConversationBufferWindowMemory ( k = 1 )

Paměť. uložit_kontext ( { 'vstup' : 'Ahoj' } , { 'výstup' : 'Jak se máš' } )

Paměť. uložit_kontext ( { 'vstup' : 'Mám se dobře a co ty' } , { 'výstup' : 'ne moc' } )

Otestujte paměť voláním load_memory_variables () způsob zahájení konverzace:

Paměť. load_memory_variables ( { } )

Chcete-li získat historii konverzace, nakonfigurujte funkci ConversationBufferWindowMemory() pomocí návratové_zprávy argument:

Paměť = ConversationBufferWindowMemory ( k = 1 , návratové_zprávy = Skutečný )

Paměť. uložit_kontext ( { 'vstup' : 'Ahoj' } , { 'výstup' : 'co se děje' } )

Paměť. uložit_kontext ( { 'vstup' : 'ty nic moc' } , { 'výstup' : 'ne moc' } )

Nyní zavolejte paměť pomocí load_memory_variables () metoda, jak získat odpověď s historií konverzace:

Paměť. load_memory_variables ( { } )

Krok 3: Použití okna vyrovnávací paměti v řetězci

Sestavte řetěz pomocí OpenAI a ConversationChain knihovny a poté nakonfigurujte vyrovnávací paměť pro ukládání nejnovějších zpráv v konverzaci:

z langchain. řetězy import ConversationChain
z langchain. llms import OpenAI
#building shrnutí konverzace pomocí více parametrů
konverzace_se_souhrnem = ConversationChain (
llm = OpenAI ( teplota = 0 ) ,
#budování vyrovnávací paměti pomocí své funkce s hodnotou k k ukládání posledních zpráv
Paměť = ConversationBufferWindowMemory ( k = 2 ) ,
#configure verbose variable pro získání čitelnějšího výstupu
podrobný = Skutečný
)
konverzace_se_souhrnem. předpovědět ( vstup = 'Ahoj jak se máš' )

Nyní pokračujte v konverzaci položením otázky související s výstupem poskytovaným modelem:

konverzace_se_souhrnem. předpovědět ( vstup = 'Jaké mají problémy' )

Model je nakonfigurován tak, aby ukládal pouze jednu předchozí zprávu, kterou lze použít jako kontext:

konverzace_se_souhrnem. předpovědět ( vstup = 'Jde to dobře' )

Požádejte o řešení problémů a výstupní struktura bude nadále posouvat okno vyrovnávací paměti odstraněním dřívějších zpráv:

konverzace_se_souhrnem. předpovědět ( vstup = 'Jaké je řešení' )

To je vše o procesu používání okna vyrovnávací paměti konverzace LangChain.

Závěr

Chcete-li použít vyrovnávací paměť okna konverzace v LangChain, jednoduše nainstalujte moduly a nastavte prostředí pomocí klíče API OpenAI. Poté vytvořte vyrovnávací paměť pomocí hodnoty k, abyste zachovali nejnovější zprávy v konverzaci a zachovali kontext. Vyrovnávací paměť lze také použít s řetězci k zahájení konverzace s LLM nebo řetězem. Tato příručka podrobně popisuje proces používání okna vyrovnávací paměti konverzace v LangChain.