Skip to content

ClasCat® AI Research

クラスキャット – AgentOS, AI エージェント, MCP, LangChain, AutoGen, AG2, Agno

Menu
  • ホーム
    • ClassCat® AI Research ホーム
    • クラスキャット・ホーム
  • OpenAI API
    • OpenAI Python ライブラリ 1.x : 概要
    • OpenAI ブログ
      • GPT の紹介
      • GPT ストアの紹介
      • ChatGPT Team の紹介
    • OpenAI platform 1.x
      • Get Started : イントロダクション
      • Get Started : クイックスタート (Python)
      • Get Started : クイックスタート (Node.js)
      • Get Started : モデル
      • 機能 : 埋め込み
      • 機能 : 埋め込み (ユースケース)
      • ChatGPT : アクション – イントロダクション
      • ChatGPT : アクション – Getting started
      • ChatGPT : アクション – アクション認証
    • OpenAI ヘルプ : ChatGPT
      • ChatGPTとは何ですか?
      • ChatGPT は真実を語っていますか?
      • GPT の作成
      • GPT FAQ
      • GPT vs アシスタント
      • GPT ビルダー
    • OpenAI ヘルプ : ChatGPT > メモリ
      • FAQ
    • OpenAI ヘルプ : GPT ストア
      • 貴方の GPT をフィーチャーする
    • OpenAI Python ライブラリ 0.27 : 概要
    • OpenAI platform
      • Get Started : イントロダクション
      • Get Started : クイックスタート
      • Get Started : モデル
      • ガイド : GPT モデル
      • ガイド : 画像生成 (DALL·E)
      • ガイド : GPT-3.5 Turbo 対応 微調整
      • ガイド : 微調整 1.イントロダクション
      • ガイド : 微調整 2. データセットの準備 / ケーススタディ
      • ガイド : 埋め込み
      • ガイド : 音声テキスト変換
      • ガイド : モデレーション
      • ChatGPT プラグイン : イントロダクション
    • OpenAI Cookbook
      • 概要
      • API 使用方法 : レート制限の操作
      • API 使用方法 : tiktoken でトークンを数える方法
      • GPT : ChatGPT モデルへの入力をフォーマットする方法
      • GPT : 補完をストリームする方法
      • GPT : 大規模言語モデルを扱う方法
      • 埋め込み : 埋め込みの取得
      • GPT-3 の微調整 : 分類サンプルの微調整
      • DALL-E : DALL·E で 画像を生成して編集する方法
      • DALL·E と Segment Anything で動的マスクを作成する方法
      • Whisper プロンプティング・ガイド
  • Gemini API
    • Tutorials : クイックスタート with Python (1) テキスト-to-テキスト生成
    • (2) マルチモーダル入力 / 日本語チャット
    • (3) 埋め込みの使用
    • (4) 高度なユースケース
    • クイックスタート with Node.js
    • クイックスタート with Dart or Flutter (1) 日本語動作確認
    • Gemma
      • 概要 (README)
      • Tutorials : サンプリング
      • Tutorials : KerasNLP による Getting Started
  • Keras 3
    • 新しいマルチバックエンド Keras
    • Keras 3 について
    • Getting Started : エンジニアのための Keras 入門
    • Google Colab 上のインストールと Stable Diffusion デモ
    • コンピュータビジョン – ゼロからの画像分類
    • コンピュータビジョン – 単純な MNIST convnet
    • コンピュータビジョン – EfficientNet を使用した微調整による画像分類
    • コンピュータビジョン – Vision Transformer による画像分類
    • コンピュータビジョン – 最新の MLPモデルによる画像分類
    • コンピュータビジョン – コンパクトな畳込み Transformer
    • Keras Core
      • Keras Core 0.1
        • 新しいマルチバックエンド Keras (README)
        • Keras for TensorFlow, JAX, & PyTorch
        • 開発者ガイド : Getting started with Keras Core
        • 開発者ガイド : 関数型 API
        • 開発者ガイド : シーケンシャル・モデル
        • 開発者ガイド : サブクラス化で新しい層とモデルを作成する
        • 開発者ガイド : 独自のコールバックを書く
      • Keras Core 0.1.1 & 0.1.2 : リリースノート
      • 開発者ガイド
      • Code examples
      • Keras Stable Diffusion
        • 概要
        • 基本的な使い方 (テキスト-to-画像 / 画像-to-画像変換)
        • 混合精度のパフォーマンス
        • インペインティングの簡易アプリケーション
        • (参考) KerasCV – Stable Diffusion を使用した高性能画像生成
  • TensorFlow
    • TF 2 : 初級チュートリアル
    • TF 2 : 上級チュートリアル
    • TF 2 : ガイド
    • TF 1 : チュートリアル
    • TF 1 : ガイド
  • その他
    • 🦜️🔗 LangChain ドキュメント / ユースケース
    • Stable Diffusion WebUI
      • Google Colab で Stable Diffusion WebUI 入門
      • HuggingFace モデル / VAE の導入
      • LoRA の利用
    • Diffusion Models / 拡散モデル
  • クラスキャット
    • 会社案内
    • お問合せ
    • Facebook
    • ClassCat® Blog
Menu

LangChain 1.0 α : コアコンポーネント – モデル

Posted on 09/22/2025 by Masashi Okumura

LLM は強力な AI ツールで、人間のようにテキストを解釈して生成することができます。
テキスト生成に加えて、多くのモデルはツール呼び出し、構造化出力、マルチモーダル、推論をサポートしています。

LangChain 1.0 alpha : コアコンポーネント – モデル

作成 : クラスキャット・セールスインフォメーション
作成日時 : 09/22/2025
バージョン : 1.0.0a6

* 本記事は docs.langchain.com の以下のページを独自に翻訳した上で、補足説明を加えてまとめ直しています。スニペットはできる限り日本語を使用しています :

  • LangChain OSS (v1-alpha) : Core Components – Models

* サンプルコードの動作確認はしておりますが、必要な場合には適宜、追加改変しています。
* ご自由にリンクを張って頂いてかまいませんが、sales-info@classcat.com までご一報いただけると嬉しいです。

 

 

LangChain 1.0 alpha : コアコンポーネント – モデル

LLM は強力な AI ツールで、人間のようにテキストを解釈して生成することができます。LLM は、コンテンツの作成、言語の翻訳、要約、質問への回答など、各タスクに特化したトレーニングを必要とすることなく、十分に多機能です。

テキスト生成に加えて、多くのモデルは以下をサポートしています :

  • ツール呼び出し – (データベース・クエリや API 呼び出しのような) 外部ツールを呼び出して結果をレスポンスで利用します。

  • 構造化出力 – モデルのレスポンスが、定義済みの形式に従うように制約されます。

  • マルチモーダル – 画像、音声や動画のような、テキスト以外のデータを処理して返します。

  • 推論 – モデルは、結果に到達するために他段階の推論を行います。

プロバイダー固有の統合情報と機能については、プロバイダーの 統合ページ をご覧ください。

 

基本的な使用方法

LangChain のモデルを使い始める最も簡単な方法は、init_chat_model を使用して選択した プロバイダー のモデルを初期化することです。

チャットモデルの初期化

from langchain.chat_models import init_chat_model

model = init_chat_model("openai:gpt-5-nano")
response = model.invoke("Why do parrots talk?")

See init_chat_model for more detail.

 

主要メソッド

  • Invoke – モデルは入力としてメッセージを受け取り、完全なレスポンスを生成後にメッセージを出力します。

  • Stream – モデルを invoke しますが、生成される出力をリアルタイムにストリーミングします。

  • Batch – より効率的な処理のために、複数のリクエストをモデルにバッチで送信します。

Note : In addition to chat models, LangChain provides support for other adjacent technologies, such as embedding models and vector stores. See the integrations page for details.

 

パラメータ

チャットモデルは、その動作を構成設定するために使用できるパラメータを受け取ります。サポートされるパラメータの完全なセットはモデルとプロバイダーにより様々ですが、標準的なものは以下のようなものです :

  • ​model – string, required
    プロバイダーとともに使用したい特定のモデルの名前または識別子。

  • api_key – string
    モデルのプロバイダーとの認証に必要なキー。これは通常は、モデルへのアクセスにサインアップする際に発行されます。多くの場合、環境変数の設定でアクセスできます。

  • temperature – number
    モデルの出力のランダム性を制御します。より大きい数値がレスポンスを創造的にします; 小さい数値はより決定論的にします。

  • stop – string[]
    モデルが出力の生成を停止すべきときを示す文字のシークエンス。

  • timeout – number
    リクエストをキャンセルする前に、モデルからのレスポンスを待機する最大時間 (秒)。

  • max_tokens – number
    レスポンスの合計トークン数を制限し、出力の長さを効果的に制御します。
    ​
  • max_retries – number
    ネットワーク・タイムアウトやレート制限のような問題によりリクエストが失敗した場合、システムがリクエストを再送信する試行数の最大数。

Note : To find all the parameters supported by a given chat model, head to the reference docs.

 

Invocation (呼び出し)

出力を生成するには、チャットモデルを呼び起こす (invoke) 必要があります。主に 3 つの呼び出しメソッドがあり、それぞれ異なるユースケースに適しています :

Note : 各呼び出しメソッドは非同期な同値があり、通常は文字 ‘a’ で prefix されます。
例えば: ainvoke(), astream(), abatch().

A full list of async methods can be found in the reference docs.

 

Invoke

モデルを呼び出す最も簡単な方法は、単一のメッセージかメッセージのリストを引数として持つ invoke() を使用することです。

単一メッセージ

response = model.invoke("Why do parrots have colorful feathers?")
print(response)

メッセージのリストは、会話履歴を表すためにモデルに提供できます。各メッセージは、会話内で誰がメッセージを送信したかモデルが示すために使用するロール (役割り) を持ちます。ロール、タイプとコンテンツの詳細については メッセージ ガイドをご覧ください。

会話履歴

from langchain.messages import HumanMessage, AIMessage, SystemMessage

conversation = [
    SystemMessage("You are a helpful assistant that translates English to French."),
    HumanMessage("Translate: I love programming."),
    AIMessage("J'adore la programmation."),
    HumanMessage("Translate: I love building applications.")
]

response = model.invoke(conversation)
print(response)  # AIMessage("J'adore créer des applications.")

※ 参考 (訳註) : messages パッケージは実際には langchain_core に含まれます。従って、動作例としては :

from langchain_core.messages import HumanMessage, AIMessage, SystemMessage
from langchain.chat_models import init_chat_model

model = init_chat_model(
    "anthropic:claude-3-7-sonnet-latest",
    temperature=0
)

conversation = [
    SystemMessage("You are a helpful assistant that translates English to Japanese."),
    HumanMessage("Translate: I love programming."),
    AIMessage("私はプログラミングが好きです。"),
    HumanMessage("Translate: I love building applications.")
]

response = model.invoke(conversation)
print(response.content) 

出力例

私はアプリケーションを作るのが好きです。

 

Stream

殆どのモデルは、出力コンテンツを生成しながらストリーミングできます。出力を段階的に (progressively) 表示することで、ストリーミングは特に長いレスポンスに対してユーザエクスペリエンスを大幅に向上させます。

stream() は、出力チャンクを生成しながら yield するイテレータを返します。各チャンクをリアルタイムで処理するためにループを使用できます :

基本的なテキスト・ストリーミング

for chunk in model.stream("Why do parrots have colorful feathers?"):
    print(chunk.text, end="|", flush=True)

sample snippet

from langchain.chat_models import init_chat_model

model = init_chat_model(
    "anthropic:claude-3-7-sonnet-latest",
    temperature=0
)

for chunk in model.stream("なぜオウムはカラフルな羽を持つのですか?"):
    print(chunk.content, end="|", flush=True)

出力例

|オウムが|カラフルな|羽を持つ|理由はいくつかあ|ります:

1.| 繁殖と|求愛行動 |- 鮮やかな色|は異性を引き|つけるのに役立ち|ます。特にオスは派|手な羽で|自分の健康状態や|遺伝的な|質の高さを|アピールします。|

2. 種|の識別 - 異|なる色彩パ|ターンは、同|じ種のオウム|同士が互いを識|別するのを助けます。|

3. 迷彩効果| - 意外に|思えるかもしれませ|んが、熱帯|雨林の色と|りどりの環境では|、カラフル|な羽が|捕食者から身|を隠すのに役立つ|ことがあります。|

4. 社|会的コミュニケー|ション - 羽|の色は群れ|内での社会的|地位や感情状態を示|すこともあります。|

5. |紫外線保護 - 一|部の色素|は有害な紫外|線から保護する機能があ|ります。

これ|らの特|徴は、オ|ウムが|熱帯や|亜熱|帯の環境に|適応した結|果として進化して|きたものです。||

Stream tool calls, reasoning, and other content

for chunk in model.stream("What color is the sky?"):
    for block in chunk.content_blocks:
        if block["type"] == "reasoning" and (reasoning := block.get("reasoning")):
            print(f"Reasoning: {reasoning}")
        elif block["type"] == "tool_call_chunk":
            print(f"Tool call chunk: {block}")
        elif block["type"] == "text":
            print(block["text"])
        else:
            ...

モデルが完全なレスポンスの生成を終了した後に単一の AIMessage を返す invoke() とは対照的に、stream() は複数の AIMessageChunk オブジェクトを返します、その各々は出力テキストの一部を含みます。重要なのは、ストリームの各チャンクは合計することで完全なメッセージにまとめられるように設計されていることです :

Construct an AIMessage

full = None  # None | AIMessageChunk
for chunk in model.stream("What color is the sky?"):
    full = chunk if full is None else full + chunk
    print(full.text)

# The
# The sky
# The sky is
# The sky is typically
# The sky is typically blue
# ...

print(full.content_blocks)
# [{"type": "text", "text": "The sky is typically blue..."}]

結果としてのメッセージは、invoke() で生成されたメッセージと同じように扱うことができます – 例えば、メッセージ履歴に集約して、モデルに会話コンテキストとして返すことができます。

 

Batch

モデルへの独立したリクエストのコレクションのバッチ処理は、処理が並列に実行できるので、パフォーマンスを大幅に向上させてコストを削減させることができます :

responses = model.batch([
    "Why do parrots have colorful feathers?",
    "How do airplanes fly?",
    "What is quantum computing?"
])
for response in responses:
    print(response)

sample snippet

from langchain.chat_models import init_chat_model

model = init_chat_model(
    "anthropic:claude-3-7-sonnet-latest",
    temperature=0
)

responses = model.batch([
    "なぜオウムはカラフルな羽を持つのでしょう?",
    "飛行機はどのように飛ぶのでしょうか?",
    "量子コンピューティングとは何か?"
])
for response in responses:
    print("\n---", response.content)

出力例

--- オウムがカラフルな羽を持つ理由はいくつかあります:

1. 繁殖と求愛行動:鮮やかな色は異性を引きつけるのに役立ちます。特にオスは美しい羽で自分の健康状態や遺伝的な質の高さをアピールします。

2. 種の識別:同じ種類同士が互いを認識しやすくなります。

3. 警戒色:一部の鮮やかな色は捕食者に「私は毒がある」または「私は危険」というメッセージを送ります。

4. カモフラージュ:意外に思えるかもしれませんが、熱帯雨林の色とりどりの環境では、カラフルな羽が隠れ蓑になることもあります。

5. 社会的コミュニケーション:群れの中での意思疎通に役立ちます。

これらの特徴は長い進化の過程で自然選択によって発達してきました。

--- 飛行機が飛ぶ原理は主に「揚力」によるものです。簡単に説明すると:

1. 翼の形状:飛行機の翼は上面が膨らみ、下面がより平らな形状をしています。

2. 揚力の発生:飛行機が前進すると、空気が翼の上下を流れますが、上面を流れる空気は下面より速く移動する必要があります。ベルヌーイの原理により、速く流れる空気は圧力が低くなるため、翼の上面は下面より圧力が低くなります。

3. 圧力差:この上下の圧力差が「揚力」を生み出し、飛行機を上に持ち上げます。

4. 推進力:エンジンが前進するための推進力を提供し、これにより必要な空気の流れが維持されます。

5. 制御:パイロットは方向舵、昇降舵、補助翼などを使って飛行機の方向や高度を制御します。

これらの要素が組み合わさることで、何百トンもある飛行機が空を飛ぶことができるのです。

--- # 量子コンピューティングとは

量子コンピューティングは、量子力学の原理を利用して情報処理を行うコンピューティング技術です。従来の古典的なコンピュータが0と1の二進法(ビット)で情報を処理するのに対し、量子コンピュータは「量子ビット」または「キュービット」と呼ばれる単位を使用します。

## 主な特徴

- **重ね合わせ**: キュービットは0と1の状態を同時に取ることができます
- **量子もつれ**: 複数のキュービットが互いに関連し合い、一方の状態が変化すると瞬時に他方にも影響します
- **並列計算**: 多数の計算を同時に実行できる可能性があります

## 応用分野

- 暗号解読
- 創薬・材料科学
- 機械学習の高速化
- 最適化問題の解決

現在、量子コンピュータは発展途上の技術であり、実用的な量子コンピュータの開発には、量子ノイズや誤り訂正などの課題を解決する必要があります。IBM、Google、Intelなどの大手テクノロジー企業や研究機関が開発に取り組んでいます。

Note : このセクションは、クライアント側でモデル呼び出しを並列化する、チャットモデルのメソッド batch() について説明しています。これは、OpenAI や Anthropic のような、推論プロバイダーによりサポートされるバッチ API とは異なります。

 
デフォルトでは、batch() はバッチ全体に対する最終的な出力だけを返します。各個別の入力に対する出力を、生成が終了した時点で受け取りたい場合には、batch_as_completed() を使用して結果をストリーミングできます :

Yield batch responses upon completion

for response in model.batch_as_completed([
    "Why do parrots have colorful feathers?",
    "How do airplanes fly?",
    "What is quantum computing?"
]):
    print(response)

For more details on batching, see the reference.

 

ツール呼び出し

モデルは、データベースからのデータの取得、web 検索、コードの実行のようなタスクを実行するツールの呼び出しをリクエストできます。ツールは以下のペアです :

  1. ツール名、説明 and/or 引数定義 (多くの場合 JSON スキーマ) を含む、スキーマ

  2. 実行する関数またはコルーチン

Note : 「関数呼び出し」という述語を聞いたことあるかもしれません。これを「ツール呼び出し」と互換的に使用します。

 
定義したツールをモデルで使用できるようにするには、bind_tools() を使用してツールをバインドする必要があります。続く呼び出しでは、モデルは必要に応じてバインドされたツールのいずれかを呼び出すことを選択できます。

一部のモデルプロバイダーは、モデルパラメータで有効化できる組み込みツールを提供しています。Check the respective provider reference for details.

Note : See the tools guide for details and other options for creating tools.

Binding user tools

from langchain_core.tools import tool

@tool
def get_weather(location: str) -> str:
    """Get the weather at a location."""
    return f"It's sunny in {location}."


model_with_tools = model.bind_tools([get_weather])

response = model_with_tools.invoke("What's the weather like in Boston?")
for tool_call in response.tool_calls:
    # View tool calls made by the model
    print(f"Tool: {tool_call['name']}")
    print(f"Args: {tool_call['args']}")

sample snippet

from langchain.chat_models import init_chat_model
from langchain_core.tools import tool

model = init_chat_model(
    "anthropic:claude-3-7-sonnet-latest",
    temperature=0
)

@tool
def get_weather(location: str) -> str:
    """Get the weather at a location."""
    return f"It's sunny in {location}."


model_with_tools = model.bind_tools([get_weather])

response = model_with_tools.invoke("What's the weather like in Boston?")
print(response)
for tool_call in response.tool_calls:  # type: ignore
    # View tool calls made by the model
    print(f"Tool: {tool_call['name']}")
    print(f"Args: {tool_call['args']}")

出力例

Tool: get_weather
Args: {'location': 'Boston'}

ユーザ定義ツールをバインドする場合、モデルのレスポンスにはツールを実行するリクエストが含まれます。要求されたアクションを実行し、結果をモデルに返して後続の推論で使用するのは、ユーザの責任です。

 

構造化出力

モデルは、指定のスキーマに一致する形式でレスポンスを提供するようにリクエストできます。これは、出力が簡単にぱパースし、続く処理で使用できることを確実にするのに役立ちます。LangChain は、構造化出力を強制するために複数のスキーマタイプとメソッドをサポートしています。

  • Pydantic – Pydantic モデルは、フィールド検証、説明とネストされた構造を持つ、最もリッチな機能セットを提供します。

    from pydantic import BaseModel, Field
    
    class Movie(BaseModel):
        """A movie with details."""
        title: str = Field(..., description="The title of the movie")
        year: int = Field(..., description="The year the movie was released")
        director: str = Field(..., description="The director of the movie")
        rating: float = Field(..., description="The movie's rating out of 10")
    
    model_with_structure = model.with_structured_output(Movie)
    response = model_with_structure.invoke("Provide details about the movie Inception")
    print(response)  # Movie(title="Inception", year=2010, director="Christopher Nolan", rating=8.8)
    

  • TypedDict – TypedDict は Python の組み込み型付けを使用した単純な代替を提供します。これは実行時の検証を必要としない場合に最適です。

    from typing_extensions import TypedDict, Annotated
    
    class MovieDict(TypedDict):
        """A movie with details."""
        title: Annotated[str, ..., "The title of the movie"]
        year: Annotated[int, ..., "The year the movie was released"]
        director: Annotated[str, ..., "The director of the movie"]
        rating: Annotated[float, ..., "The movie's rating out of 10"]
    
    model_with_structure = model.with_structured_output(MovieDict)
    response = model_with_structure.invoke("Provide details about the movie Inception")
    print(response)  # {'title': 'Inception', 'year': 2010, 'director': 'Christopher Nolan', 'rating': 8.8}
    

  • JSON スキーマ – 最大限の制御や相互運用性のために、raw JSON スキーマを提供できます。

    import json
    
    json_schema = {
        "title": "Movie",
        "description": "A movie with details",
        "type": "object",
        "properties": {
            "title": {
                "type": "string",
                "description": "The title of the movie"
            },
            "year": {
                "type": "integer",
                "description": "The year the movie was released"
            },
            "director": {
                "type": "string",
                "description": "The director of the movie"
            },
            "rating": {
                "type": "number",
                "description": "The movie's rating out of 10"
            }
        },
        "required": ["title", "year", "director", "rating"]
    }
    
    model_with_structure = model.with_structured_output(
        json_schema,
        method="json_schema",
    )
    response = model_with_structure.invoke("Provide details about the movie Inception")
    print(response)  # {'title': 'Inception', 'year': 2010, ...}
    

 

以上



クラスキャット

最近の投稿

  • LangChain 1.0 α : コアコンポーネント – モデル
  • LangChain 1.0 α : コアコンポーネント – エージェント
  • LangChain 1.0 α : Get started – クイックスタート
  • LangChain 1.0 α : 概要 (エージェントの作成)
  • Agno 2.0 : AgentOS – AgentOS の構成設定

タグ

AG2 (14) Agno (46) AutoGen (13) ClassCat Press Release (20) ClassCat TF/ONNX Hub (11) DGL 0.5 (14) Eager Execution (7) Edward (17) FLUX.1 (16) Gemini (20) HuggingFace Transformers 4.5 (10) HuggingFace Transformers 4.29 (9) Keras 2 Examples (98) Keras 2 Guide (16) Keras 3 (10) Keras Release Note (17) Kubeflow 1.0 (10) LangChain (45) LangGraph (24) LangGraph 0.5 (9) MediaPipe 0.8 (11) Model Context Protocol (16) NNI 1.5 (16) OpenAI Agents SDK (8) OpenAI Cookbook (13) OpenAI platform (10) OpenAI platform 1.x (10) OpenAI ヘルプ (8) TensorFlow 2.0 Advanced Tutorials (33) TensorFlow 2.0 Advanced Tutorials (Alpha) (15) TensorFlow 2.0 Advanced Tutorials (Beta) (16) TensorFlow 2.0 Guide (10) TensorFlow 2.0 Guide (Alpha) (16) TensorFlow 2.0 Guide (Beta) (9) TensorFlow 2.0 Release Note (12) TensorFlow 2.0 Tutorials (20) TensorFlow 2.0 Tutorials (Alpha) (14) TensorFlow 2.0 Tutorials (Beta) (12) TensorFlow 2.4 Guide (24) TensorFlow Deploy (8) TensorFlow Probability (9) TensorFlow Programmer's Guide (22) TensorFlow Release Note (18) TensorFlow Tutorials (33) TF-Agents 0.4 (11)
2025年9月
月 火 水 木 金 土 日
1234567
891011121314
15161718192021
22232425262728
2930  
« 8月    
© 2025 ClasCat® AI Research | Powered by Minimalist Blog WordPress Theme