Jak používat funkci LangChain LLMCain v Pythonu

Jak Pouzivat Funkci Langchain Llmcain V Pythonu



LangChain má nepřeberné množství modulů pro tvorbu aplikací jazykových modelů. Aplikace lze zkomplikovat kombinací modulů nebo je lze zjednodušit pomocí jediného modulu. Volání LLM na určitém vstupu je nejdůležitější komponentou LangChain.

Řetězce nefungují pouze pro jeden LLM hovor; jsou to kolekce volání, buď do LLM nebo jiného nástroje. End-to-end řetězce pro široce používané aplikace poskytuje LangChain spolu se standardním řetězovým API a četnými integracemi nástrojů.

Flexibilita a schopnost propojit více prvků do jedné entity může být užitečná, když chceme navrhnout řetězec, který přijímá vstup od uživatele, nastavuje jej pomocí PromptTemplate a poté doručuje vygenerovaný výsledek LLM.







Tento článek vám pomůže pochopit použití funkce LangChain LLMchain v Pythonu.



Příklad: Jak používat funkci LLMchain v LangChain

Mluvili jsme o tom, co jsou řetězy. Nyní uvidíme praktickou ukázku těchto řetězců, které jsou implementovány ve skriptu Python. V tomto příkladu používáme nejzákladnější řetězec LangChain, kterým je LLMchain. Obsahuje PromptTemplate a LLM a spojuje je dohromady za účelem generování výstupu.



Abychom mohli začít s implementací konceptu, musíme nainstalovat některé požadované knihovny, které nejsou součástí standardní knihovny Pythonu. Knihovny, které musíme nainstalovat, jsou LangChain a OpenAI. Knihovnu LangChain nainstalujeme, protože potřebujeme použít její modul LLMchain a také PromptTemplate. Knihovna OpenAI nám umožňuje používat modely OpenAI k predikci výstupů, tedy GPT-3.





Chcete-li nainstalovat knihovnu LangChain, spusťte na terminálu následující příkaz:

$ pip nainstalovat langchain

Nainstalujte knihovnu OpenAI pomocí následujícího příkazu:



$ pip install openai

Jakmile jsou instalace dokončeny, můžeme začít pracovat na hlavním projektu.

z langchain. vyzve import PromptTemplate

z langchain. llms import OpenAI

import vy

vy . přibližně [ 'OPENAI_API_KEY' ] = 'sk-VÁŠ KLÍČ API'

Hlavní projekt začíná importem potřebných modulů. Nejprve tedy importujeme PromptTemplate z knihovny „langchain.prompts“. Poté importujeme OpenAI z knihovny „langchain.llms“. Dále importujeme „os“ pro nastavení proměnné prostředí.

Zpočátku jsme nastavili klíč OpenAI API jako proměnnou prostředí. Proměnná prostředí je proměnná, která se skládá z názvu a hodnoty a je nastavena v našem operačním systému. „os.environ“ je objekt, který se používá k mapování proměnných prostředí. Takže nazýváme „os.environ“. Název, který jsme nastavili pro klíč API, je OPENAI_API_KEY. Jako jeho hodnotu pak přiřadíme API klíč. Klíč API je pro každého uživatele jedinečný. Když tedy procvičujete tento kódový skript, napište svůj tajný klíč API.

llm = OpenAI ( teplota = 0,9 )

výzva = PromptTemplate (

vstupní_proměnné = [ 'produkty' ] ,

šablona = 'Jak by se jmenovala značka, která prodává {produkty}?' ,

)

Nyní, když je klíč nastaven jako proměnná prostředí, inicializujeme obal. Nastavte teplotu pro modely OpenAI GPT. Teplota je charakteristika, která nám pomáhá určit, jak nepředvídatelná bude odezva. Čím vyšší je hodnota teploty, tím kolísavější jsou odezvy. Zde nastavíme hodnotu teploty na 0,9. Dostáváme tedy nejvíce náhodných výsledků.

Poté inicializujeme třídu PromptTemplate. Když používáme LLM, vygenerujeme výzvu ze vstupu, který je převzat od uživatele, a poté jej předáme LLM, místo abychom vstup posílali přímo do LLM, což vyžaduje pevné kódování (výzva je vstup, který jsme převzali z uživatele a na kterém má definovaný model AI vytvořit odpověď). Takže inicializujeme PromptTemplate. Poté v jejích složených závorkách definujeme vstupní_proměnnou jako „Produkty“ a text šablony je „Jak by se jmenovala značka, která prodává {produkty}?“ Uživatelský vstup říká, co značka dělá. Poté na základě těchto informací naformátuje výzvu.

z langchain. řetězy import LLMCain

řetěz = LLMCain ( llm = llm , výzva = výzva )

Nyní, když je naše PromptTemplate naformátována, dalším krokem je vytvořit LLMchain. Nejprve importujte modul LLMchain z knihovny „langchain.chain“. Poté vytvoříme řetězec voláním funkce LLMchain(), která převezme uživatelský vstup a naformátuje s ním výzvu. Nakonec odešle odpověď do LLM. Takže propojuje PromptTemplate a LLM.

tisk ( řetěz. běh ( 'Umělecké pomůcky' ) )

Pro spuštění řetězce zavoláme metodu chain.run() a poskytneme uživatelský vstup jako parametr, který je definován jako „Umělecké potřeby“. Poté tuto metodu předáme funkci print() Pythonu, aby se předpokládaný výsledek zobrazil na konzole Pythonu.

Model umělé inteligence přečte výzvu a na základě ní provede odpověď.

Vzhledem k tomu, že jsme požádali o pojmenování značky, která prodává umělecké potřeby, předpokládaný název podle modelu AI lze vidět na následujícím snímku:

Tento příklad nám ukazuje LLMchaining, když je poskytnuta jediná vstupní proměnná. To je také možné při použití více proměnných. K tomu musíme jednoduše vytvořit slovník proměnných, abychom je mohli zadávat úplně. Podívejme se, jak to funguje:

z langchain. vyzve import PromptTemplate

z langchain. llms import OpenAI

import vy

vy . přibližně [ 'OPENAI_API_KEY' ] = 'sk- Your-API-KEY'

llm = OpenAI(teplota=0,9)

prompt = PromptTemplate(

input_variables=['
Značka ',' Produkt '],

šablona='
Jaké by bylo jméno { Značka } že prodává { Produkt } ? ',

)

z langchain.chains importujte LLMCain

řetězec = LLMCain(llm=llm, prompt=prompt)

print(chain.run({

'Značka': '
Umělecké pomůcky ',

'Produkt': '
barvy '

}))

Kód je stejný jako v předchozím příkladu, kromě toho, že musíme předat dvě proměnné ve třídě šablony výzvy. Vytvořte tedy slovník input_variables. Dlouhé závorky představují slovník. Zde máme dvě proměnné – „Značka“ a „Produkt“ – které jsou odděleny čárkou. Text šablony, který poskytujeme, je „Jaký by byl název {Brand}, který prodává {Product}?“ Model AI tedy předpovídá název, který se zaměřuje na tyto dvě vstupní proměnné.

Poté vytvoříme LLMchain, který naformátuje uživatelský vstup s výzvou k odeslání odpovědi LLM. Ke spuštění tohoto řetězce použijeme metodu chain.run() a předáme slovník proměnných s uživatelským vstupem jako „Značka“: „Umělecké potřeby“ a „Produkt“ jako „Barvy“. Poté tuto metodu předáme funkci print() Pythonu, aby se zobrazila získaná odpověď.

Výstupní obrázek ukazuje předpokládaný výsledek:

Závěr

Řetězy jsou stavebními kameny LangChain. Tento článek prochází konceptem použití LLMchainu v LangChain. Udělali jsme úvod do LLMchain a ukázali, že je potřeba je použít v projektu Python. Poté jsme provedli praktickou ilustraci, která demonstruje implementaci LLMchain propojením PromptTemplate a LLM. Tyto řetězce můžete vytvořit s jednou vstupní proměnnou i s více proměnnými poskytnutými uživatelem. K dispozici jsou také vygenerované odpovědi z modelu GPT.