Rig はスケーラブル、モジュール型、人間工学に基づいた LLM ベースのアプリケーションを構築するための Rust ライブラリです。
Rig 0.30 : 概要
作成 : Masashi Okumura (@classcat.com)
作成日時 : 02/12/2026
バージョン : rig-core-v0.30.0
* 本記事は github.com/0xPlaygrounds/rig の以下のページを参考にしています :
* サンプルコードの動作確認はしておりますが、必要な場合には適宜、追加改変しています。
* ご自由にリンクを張って頂いてかまいませんが、sales-info@classcat.com までご一報いただけると嬉しいです。

Rig 0.30 : 概要
What is Rig?
Rig はスケーラブル、モジュール型、人間工学に基づいた LLM ベースのアプリケーションを構築するための Rust ライブラリです。
このクレートについての詳細は、公式 & クレート (API リファレンス) ドキュメントにあります。
機能
- マルチターン・ストリーミングとプロンプティングを処理できるエージェント型ワークフロー
- GenAI セマンティック・コンベンション との完全な互換性
- 20+ モデルプロバイダー、すべて単一の統合インターフェイスのもとで
- 10+ ベクトルストア統合、すべて単一の統合インターフェイスのもとで
- LLM 補完と埋め込みワークフローの完全なサポート
- 文字起こし、音声生成、画像生成モデル機能のサポート
- 最小限のボイラープレートで LLM をアプリケーションに統合
- 完全な WASM 互換性 (コアライブラリのみ)
Who is using Rig?
以下は、Rig を利用している企業と人々のリストの一部です :
- St Jude – ゲノミクス (genomics) 可視化ツール、proteinpaint の一部として、チャットボット・ユティリティのために Rig を使用。
- Coral Protocol – 内部的にも Coral Rust SDK の一部としても Rig を広範囲に利用しています。
- VT Code – VT Code は Tree-sitter と ast-grep を介してセマンティックコード・インテリジェンスを備えた Rust ベースのターミナル・コーディングエージェントです。VT Code は LLM 呼び出しを単純化するために rig を使用し、モデルピッカーを実装しています。
- Dria – 分散型 AI ネットワーク。現在、計算ノード の一部として Rig を使用。
- Nethermind – Neural Interconnected Nodes エンジン・フレームワーク の一部に Rig を使用。
- Neon – Rust の app.build V2 reboot に Rig を使用。
- Listen – AI ポートフォリオ管理エージェントの頼りになるフレームワークとなることを目指すフレームワーク。Powers the Listen app.
- Cairnify – インテリジェントな検索バーを通して、ユーザがドキュメント、リンク、情報を素早く見つける支援をします。Rig は Cairnify の AI 検索エクスペリエンスの裏でエージェント型基盤を提供し、ツール呼び出し、推論、検索ワークフローを可能にします。
- Ryzome – Ryzome は、思考、研究、AI エージェントが相互連携したキャンバスを構築し、複雑な知識ワークのオーケストレーションを可能にする、ビジュアルな AI ワークスペースです。
- deepwiki-rs – コードを明瞭にします。人間のチームとインテリジェントなエージェントの両方に最適に構造化された、正確な技術文書と AI 対応のコンテキストを数分で生成します。
- Cortex Memory – インテリジェントなエージェント向けの本番環境向けのメモリシステム。抽出やベクトル検索から自動最適化まで、REST API, MCP, CLI とインサイトダッシュボードがそのまま使える、メモリ管理用の完全なソリューション。
For a full list, check out our ECOSYSTEM.md file.
Get Started
cargo add rig-core
簡単な例
use rig::client::{CompletionClient, ProviderClient};
use rig::completion::Prompt;
use rig::providers::openai;
#[tokio::main]
async fn main() -> Result<(), anyhow::Error> {
// Create OpenAI client
let client = openai::Client::from_env();
// Create agent with a single context prompt
let comedian_agent = client
.agent("gpt-5.2")
.preamble("You are a comedian here to entertain the user using humour and jokes.")
.build();
// Prompt the agent and print the response
let response = comedian_agent.prompt("Entertain me!").await?;
println!("{response}");
Ok(())
}
#[tokio::main] の使用は、tokio のマクロと rt-multi-thread 機能を有効にする必要があります。あるいは、full ですべての機能を有効にします (cargo add tokio –features macros,rt-multi-thread)。
各クレートの examples ディレクトリ (i.e. rig/rig-core/examples) でより多くのサンプルを見つけることができます。詳細なユースケースのガイドは Dev.to ブログ で定期的に公開され、Rig の公式ドキュメント (docs.rig.rs) に追加されます。
サポートされている統合
ベクトルストアは個別のコンパニオンクレートとして利用可能です :
- MongoDB: rig-mongodb
- LanceDB: rig-lancedb
- Neo4j: rig-neo4j
- Qdrant: rig-qdrant
- SQLite: rig-sqlite
- SurrealDB:rig-surrealdb
- Milvus:rig-milvus
- ScyllaDB:rig-scylladb
- AWS S3Vectors: rig-s3vectors
- HelixDB: rig-helixdb
以下のプロバイダーは個別のコンパニオンクレートとして利用可能です :
- AWS Bedrock: rig-bedrock
- Fastembed: rig-fastembed
- Eternal AI: rig-eternalai
- Google Vertex: rig-vertexai
Rig を使用する際に役立つ追加機能を備えたその他の関連クレートもいくつかあります :
- rig-onchain-kit – Rig Onchain キット。Solana/EVM と Rig 間のインタラクションをより簡単に実装することを目的としています。
以上