🦜️🔗LangChain : モジュール : モデル I/O – 言語モデル : LLM (翻訳/解説)
翻訳 : (株)クラスキャット セールスインフォメーション
作成日時 : 08/21/2023
* 本ページは、LangChain の以下のドキュメントを翻訳した上で適宜、補足説明したものです:
* サンプルコードの動作確認はしておりますが、必要な場合には適宜、追加改変しています。
* ご自由にリンクを張って頂いてかまいませんが、sales-info@classcat.com までご一報いただけると嬉しいです。
- 人工知能研究開発支援
- 人工知能研修サービス(経営者層向けオンサイト研修)
- テクニカルコンサルティングサービス
- 実証実験(プロトタイプ構築)
- アプリケーションへの実装
- 人工知能研修サービス
- PoC(概念実証)を失敗させないための支援
- お住まいの地域に関係なく Web ブラウザからご参加頂けます。事前登録 が必要ですのでご注意ください。
◆ お問合せ : 本件に関するお問い合わせ先は下記までお願いいたします。
- 株式会社クラスキャット セールス・マーケティング本部 セールス・インフォメーション
- sales-info@classcat.com ; Web: www.classcat.com ; ClassCatJP
🦜️🔗 LangChain : モジュール : モデル I/O – 言語モデル : LLM
LangChain は 2 つのタイプのモデルに対してインターフェイスと統合を提供します :
- LLM : 入力としてテキスト文字列を受け取りテキスト文字列を返します。
- チャットモデル : 言語モデルにより支援されるモデルですが、入力としてチャットメッセージのリストを受け取り、チャットメッセージを返します。
LLM vs チャットモデル
LLM とチャットモデルは微妙ですが重要な違いがあります。LangChain の LLM は純粋なテキスト補完モデルを指します。それらがラップする API は入力として文字列プロンプトを受け取り文字列補完を出力します。OpenAI の GPT-3 は LLM として実装されています。チャットモデルは LLM により支援される場合が多いですが、会話を持つように特に調整されています。そして重要なことに、それらのプロバイダー API は純粋なテキスト補完モデルと違い様々なインターフェイスを公開しています。単一文字列の代わりに、それらは入力としてチャットメッセージのリストを受け取ります。通常はこれらのメッセージは話者によりラベル付けされます (通常は “System”, “AI” と “Human” の一つ)。そしてそれらは出力として (“AI”) チャットメッセージを返します。GPT-4 と Anthropic の Claude は両方ともチャットモデルとして実装されています。
LLM とチャットモデルを交換可能にするには、両方ともベース言語モデルのインターフェイスを実装します。これは、文字列を受け取り文字列を返す “predict” と、メッセージを受け取りメッセージを返す “predict messages” の共通のメソッドを公開します。特定のモデルを使用している場合は、そのモデルクラスに固有のメソッドを使用することを勧めますが (つまり、LLM に対しては “predict”、そしてチャットモデルに対しては “predict messages”)、異なるタイプのモデルで動作するべきアプリケーションを作成している場合は、共有インターフェイスが役立ちます。
LLM
INFO : Head to Integrations for documentation on built-in integrations with LLM providers.
大規模言語モデル (LLM) は LangChain の中核コンポーネントです。LangChain は自身の LLM をサービス提供はしませんが、多くの異なる LLM と相互作用する標準インターフェイスを提供しています。
Get started
多くの LLM プロバイダー (OpenAI, Cohere, Hugging Face 等) があります – LLM クラスはそれらすべてに対する標準インターフェイスを提供するように設計されています。
このウォークスルーでは OpenAI LLM ラッパーで作業しますが、ハイライトされる機能はすべての LLM タイプに汎用的です。
セットアップ
始めるには OpenAI Python パッケージをインストールする必要があります :
pip install openai
API へのアクセスは API キーを必要とします、これはアカウントを作成してここにアクセスすることで取得できます。キーを取得したら次を実行することで環境変数にそれを設定したいです :
export OPENAI_API_KEY="..."
環境変数を設定したくない場合は、OpenAI LLM クラスを初期化するとき名前付きパラメータ openai_api_key 経由でキーを直接渡すことができます :
from langchain.llms import OpenAI
llm = OpenAI(openai_api_key="...")
それ以外の場合にはパラメータなしで初期化できます :
from langchain.llms import OpenAI
llm = OpenAI()
__call__: string in -> string out
LLM を使用する最も単純な方法は callable です : 文字列を渡して、文字列補完を取得します。
llm("Tell me a joke")
'Why did the chicken cross the road?\n\nTo get to the other side.'
generate: バッチ呼び出し, よりリッチな出力
generate は文字列のリストでモデルを呼び出し、単なるテキストではなくより完全なレスポンスを取得できます。この完全なレスポンスは複数の top レスポンスや他の LLM プロバイダー固有の情報をなどを含むことができます :
llm_result = llm.generate(["Tell me a joke", "Tell me a poem"]*15)
len(llm_result.generations)
30
llm_result.generations[0]
[Generation(text='\n\nWhy did the chicken cross the road?\n\nTo get to the other side!'), Generation(text='\n\nWhy did the chicken cross the road?\n\nTo get to the other side.')]
llm_result.generations[-1]
[Generation(text="\n\nWhat if love neverspeech\n\nWhat if love never ended\n\nWhat if love was only a feeling\n\nI'll never know this love\n\nIt's not a feeling\n\nBut it's what we have for each other\n\nWe just know that love is something strong\n\nAnd we can't help but be happy\n\nWe just feel what love is for us\n\nAnd we love each other with all our heart\n\nWe just don't know how\n\nHow it will go\n\nBut we know that love is something strong\n\nAnd we'll always have each other\n\nIn our lives."), Generation(text='\n\nOnce upon a time\n\nThere was a love so pure and true\n\nIt lasted for centuries\n\nAnd never became stale or dry\n\nIt was moving and alive\n\nAnd the heart of the love-ick\n\nIs still beating strong and true.')]
返されるプロバイダー固有の情報にアクセスすることもできます。この情報はプロバイダーに渡り標準化されては いません。
llm_result.llm_output
{'token_usage': {'completion_tokens': 3903, 'total_tokens': 4023, 'prompt_tokens': 120}}
以上