Jak používat strukturovaný výstupní analyzátor v LangChain?

Jak Pouzivat Strukturovany Vystupni Analyzator V Langchain



LangChain je rámec pro vytváření chatovacích modelů a LLM pro získávání informací z datové sady nebo internetu pomocí prostředí OpenAI. Strukturovaný výstupní analyzátor se používá k získání více polí nebo odpovědí, jako je skutečná odpověď a některé další související informace. Knihovny výstupních analyzátorů lze použít s LangChainem k extrakci dat pomocí modelů vytvořených jako LLM nebo chatovací modely.

Tento příspěvek demonstroval proces použití strukturovaného výstupního analyzátoru v LangChain.







Jak používat strukturovaný výstupní analyzátor v LangChain?

Chcete-li použít strukturovaný výstupní analyzátor v LangChain, jednoduše projděte těmito kroky:



Krok 1: Předpoklady instalace



Začněte proces instalací rámce LangChain, pokud ještě není nainstalován ve vašem prostředí Pythonu:





pip Nainstalujte langchain



Nainstalujte si framework OpenAI, abyste získali přístup k jeho metodám pro vytvoření analyzátoru v LangChain:

pip Nainstalujte openai

Poté se jednoduše připojte k prostředí OpenAI pomocí jeho klíče API a získejte přístup k jeho prostředí pomocí „ vy ” a poskytněte klíč API pomocí “ getpass ”knihovna:

importujte nás
importovat getpass

os.environ [ 'OPENAI_API_KEY' ] = getpass.getpass ( 'OpenAI API Key:' )

Krok 2: Vytvořte schéma pro výstup/odpověď

Po připojení k OpenAI jednoduše importujte knihovny a vytvořte schéma pro generování výstupu:

z langchain.output_parsers import StructuredOutputParser, ResponseSchema
from langchain.prompts import PromptTemplate, ChatPromptTemplate, HumanMessagePromptTemplate
z langchain.llms importujte OpenAI
z langchain.chat_models importujte ChatOpenAI

Zadejte schéma pro odpověď podle požadavku, takže model by měl odpovídajícím způsobem generovat odpověď:

response_schemas = [
ResponseSchema ( název = 'Odpovědět' , popis = 'odpovědět na dotaz' ) ,
ResponseSchema ( název = 'zdroj' , popis = 'zdroj webu, který se používá k získání odpovědi' )
]
output_parser = StructuredOutputParser.from_response_schemas ( schémata_odpovědí )

Krok 3: Formátování šablony

Po konfiguraci schématu pro výstup jednoduše nastavte šablonu pro vstup v přirozeném jazyce, aby model porozuměl otázkám, než na ně načte odpověď:

format_instructions = output_parser.get_format_instructions ( )
prompt = PromptTemplate (
šablona = „Odpovězte na otázku uživatele. \n {šablona} \n {dotaz}' ,
vstupní_proměnné = [ 'dotaz' ] ,
částečné_proměnné = { 'šablona' : pokyny k formátu }
)

Metoda 1: Použití jazykového modelu

Po konfiguraci šablon formátu pro otázky a odpovědi jednoduše vytvořte model pomocí funkce OpenAI():

model = OpenAI ( teplota = 0 )

Nastavte výzvu v „ dotaz ” a předejte ji do format_prompt() fungovat jako vstup a poté uložit odpověď do „ výstup 'proměnná:

_input = prompt.format_prompt ( dotaz = 'Kolik kontinentů je na světě' )
výstup = model ( _input.to_string ( ) )

Zavolej parse() funkce s výstupní proměnnou jako argumentem pro získání odpovědi z modelu:

output_parser.parse ( výstup )

Výstupní analyzátor získá odpověď na dotaz a zobrazí podrobnou odpověď s odkazem na stránku webu, která se používá k získání odpovědi:

Metoda 2: Použití modelu konverzace

Chcete-li získat výsledky z výstupního analyzátoru v LangChain, použijte chat_model proměnná níže:

chat_model = ChatOpenAI ( teplota = 0 )

Chcete-li výzvě porozumět, nakonfigurujte šablonu výzvy pro model chatu. Poté vygenerujte odpověď podle zadání:

prompt = ChatPromptTemplate (
zprávy = [
HumanMessagePromptTemplate.from_template ( „Odpovězte na otázku uživatele. \n {format_instructions} \n {dotaz}' )
] ,
vstupní_proměnné = [ 'dotaz' ] ,
částečné_proměnné = { 'format_instructions' : pokyny k formátu }
)

Poté jednoduše zadejte vstup do „ dotaz ” a poté ji předejte do chat_model() funkce pro získání výstupu z modelu:

_input = prompt.format_prompt ( dotaz = 'USA znamená' )
výstup = chat_model ( _input.to_messages ( ) )

Chcete-li získat odpověď z chatovacího modelu, použijte výstupní_parser, který ukládá výsledek z „ výstup 'proměnná:

output_parser.parse ( výstup.obsah )

Model chatu zobrazil odpověď na dotaz a název webu, který se používá k získání odpovědi z internetu:

To je vše o použití strukturovaného výstupního analyzátoru v LangChain.

Závěr

Chcete-li použít strukturovaný výstupní analyzátor v LangChain, jednoduše nainstalujte moduly LangChain a OpenAI, abyste mohli začít s procesem. Poté se připojte k prostředí OpenAI pomocí jeho klíče API a poté nakonfigurujte šablony výzev a odpovědí pro model. Výstupní analyzátor lze použít buď s jazykovým modelem, nebo s modelem chatu. Tato příručka vysvětluje použití výstupního analyzátoru u obou metod.