Jak používat Pydantic (JSON) Parser v LangChain?

Jak Pouzivat Pydantic Json Parser V Langchain



Umělá inteligence je jednou z nejrychleji rostoucích technologií využívajících algoritmy strojového učení k trénování a testování modelů využívajících obrovská data. Data mohou být uložena v různých formátech, ale pro vytváření velkých jazykových modelů pomocí LangChain je nejpoužívanějším typem JSON. Trénovací a testovací data musí být jasná a úplná bez jakýchkoli dvojznačností, aby model mohl fungovat efektivně.

Tato příručka demonstruje proces použití pydantického analyzátoru JSON v LangChain.







Jak používat Pydantic (JSON) Parser v LangChain?

Data JSON obsahují textový formát dat, která lze shromažďovat prostřednictvím webového scrapingu a mnoha dalších zdrojů, jako jsou protokoly atd. K ověření přesnosti dat používá LangChain ke zjednodušení procesu pydantické knihovny z Pythonu. Chcete-li použít pydantický analyzátor JSON v LangChain, jednoduše si projděte tuto příručku:



Krok 1: Nainstalujte moduly



Chcete-li začít s procesem, jednoduše nainstalujte modul LangChain, abyste mohli používat jeho knihovny pro použití analyzátoru v LangChain:





pip Nainstalujte langchain



Nyní použijte „ pip nainstalovat ” pro získání rámce OpenAI a využití jeho prostředků:

pip Nainstalujte openai

Po instalaci modulů se jednoduše připojte k prostředí OpenAI poskytnutím jeho klíče API pomocí „ vy ' a ' getpass “knihovny:

importujte nás
importovat getpass

os.environ [ 'OPENAI_API_KEY' ] = getpass.getpass ( 'OpenAI API Key:' )

Krok 2: Import knihoven

Pomocí modulu LangChain importujte potřebné knihovny, které lze použít pro vytvoření šablony pro výzvu. Šablona výzvy popisuje metodu kladení otázek v přirozeném jazyce, aby model výzvě efektivně porozuměl. Také importujte knihovny jako OpenAI a ChatOpenAI a vytvořte řetězce pomocí LLM pro vytvoření chatbota:

z langchain.prompts import (
PromptTemplate,
ChatPromptTemplate,
HumanMessagePromptTemplate,
)
z langchain.llms importujte OpenAI
z langchain.chat_models importujte ChatOpenAI

Poté importujte pydantické knihovny, jako je BaseModel, Field a validator, abyste mohli používat analyzátor JSON v LangChain:

z langchain.output_parsers importujte PydanticOutputParser
z pydantického importu BaseModel, Field, validator
zadáním seznamu importu

Krok 3: Vytvoření modelu

Po získání všech knihoven pro použití pydantického analyzátoru JSON jednoduše získejte předem navržený testovaný model s metodou OpenAI():

model_name = 'text-davinci-003'
teplota = 0,0
model = OpenAI ( jméno modelu =název_modelu, teplota = teplota )

Krok 4: Nakonfigurujte Actor BaseModel

Sestavte další model a získejte odpovědi týkající se herců, jako jsou jejich jména a filmy, tím, že požádáte o filmografii herce:

třídní herec ( Základní Model ) :
jméno: str = Pole ( popis = 'Jméno hlavního herce' )
film_names: Seznam [ str ] = Pole ( popis = „Filmy, ve kterých byl herec hlavní“ )


herec_dotaz = 'Chci vidět filmografii jakéhokoli herce'

parser = PydanticOutputParser ( pydantický_objekt = Herec )

prompt = PromptTemplate (
šablona = 'Odpovězte na výzvu od uživatele. \n {format_instructions} \n {dotaz} \n ' ,
vstupní_proměnné = [ 'dotaz' ] ,
částečné_proměnné = { 'format_instructions' : parser.get_format_instructions ( ) } ,
)

Krok 5: Testování základního modelu

Jednoduše získejte výstup pomocí funkce parse() s výstupní proměnnou obsahující výsledky generované pro výzvu:

_input = prompt.format_prompt ( dotaz =actor_query )
výstup = model ( _input.to_string ( ) )
parser.parse ( výstup )

Herec jménem „ Tom Hanks ” se seznamem jeho filmů byl získán pomocí pydantické funkce z modelu:

To je vše o použití pydantického analyzátoru JSON v LangChain.

Závěr

Chcete-li používat pydantický analyzátor JSON v LangChain, jednoduše nainstalujte moduly LangChain a OpenAI a připojte se k jejich zdrojům a knihovnám. Poté importujte knihovny jako OpenAI a pydantic, abyste vytvořili základní model a ověřili data ve formě JSON. Po sestavení základního modelu spusťte funkci parse() a ta vrátí odpovědi na výzvu. Tento příspěvek demonstroval proces použití pydantického analyzátoru JSON v LangChain.