Skip to content

ClasCat® AI Research

クラスキャット – 生成 AI, AI エージェント, MCP

Menu
  • ホーム
    • ClassCat® AI Research ホーム
    • クラスキャット・ホーム
  • OpenAI API
    • OpenAI Python ライブラリ 1.x : 概要
    • OpenAI ブログ
      • GPT の紹介
      • GPT ストアの紹介
      • ChatGPT Team の紹介
    • OpenAI platform 1.x
      • Get Started : イントロダクション
      • Get Started : クイックスタート (Python)
      • Get Started : クイックスタート (Node.js)
      • Get Started : モデル
      • 機能 : 埋め込み
      • 機能 : 埋め込み (ユースケース)
      • ChatGPT : アクション – イントロダクション
      • ChatGPT : アクション – Getting started
      • ChatGPT : アクション – アクション認証
    • OpenAI ヘルプ : ChatGPT
      • ChatGPTとは何ですか?
      • ChatGPT は真実を語っていますか?
      • GPT の作成
      • GPT FAQ
      • GPT vs アシスタント
      • GPT ビルダー
    • OpenAI ヘルプ : ChatGPT > メモリ
      • FAQ
    • OpenAI ヘルプ : GPT ストア
      • 貴方の GPT をフィーチャーする
    • OpenAI Python ライブラリ 0.27 : 概要
    • OpenAI platform
      • Get Started : イントロダクション
      • Get Started : クイックスタート
      • Get Started : モデル
      • ガイド : GPT モデル
      • ガイド : 画像生成 (DALL·E)
      • ガイド : GPT-3.5 Turbo 対応 微調整
      • ガイド : 微調整 1.イントロダクション
      • ガイド : 微調整 2. データセットの準備 / ケーススタディ
      • ガイド : 埋め込み
      • ガイド : 音声テキスト変換
      • ガイド : モデレーション
      • ChatGPT プラグイン : イントロダクション
    • OpenAI Cookbook
      • 概要
      • API 使用方法 : レート制限の操作
      • API 使用方法 : tiktoken でトークンを数える方法
      • GPT : ChatGPT モデルへの入力をフォーマットする方法
      • GPT : 補完をストリームする方法
      • GPT : 大規模言語モデルを扱う方法
      • 埋め込み : 埋め込みの取得
      • GPT-3 の微調整 : 分類サンプルの微調整
      • DALL-E : DALL·E で 画像を生成して編集する方法
      • DALL·E と Segment Anything で動的マスクを作成する方法
      • Whisper プロンプティング・ガイド
  • Gemini API
    • Tutorials : クイックスタート with Python (1) テキスト-to-テキスト生成
    • (2) マルチモーダル入力 / 日本語チャット
    • (3) 埋め込みの使用
    • (4) 高度なユースケース
    • クイックスタート with Node.js
    • クイックスタート with Dart or Flutter (1) 日本語動作確認
    • Gemma
      • 概要 (README)
      • Tutorials : サンプリング
      • Tutorials : KerasNLP による Getting Started
  • Keras 3
    • 新しいマルチバックエンド Keras
    • Keras 3 について
    • Getting Started : エンジニアのための Keras 入門
    • Google Colab 上のインストールと Stable Diffusion デモ
    • コンピュータビジョン – ゼロからの画像分類
    • コンピュータビジョン – 単純な MNIST convnet
    • コンピュータビジョン – EfficientNet を使用した微調整による画像分類
    • コンピュータビジョン – Vision Transformer による画像分類
    • コンピュータビジョン – 最新の MLPモデルによる画像分類
    • コンピュータビジョン – コンパクトな畳込み Transformer
    • Keras Core
      • Keras Core 0.1
        • 新しいマルチバックエンド Keras (README)
        • Keras for TensorFlow, JAX, & PyTorch
        • 開発者ガイド : Getting started with Keras Core
        • 開発者ガイド : 関数型 API
        • 開発者ガイド : シーケンシャル・モデル
        • 開発者ガイド : サブクラス化で新しい層とモデルを作成する
        • 開発者ガイド : 独自のコールバックを書く
      • Keras Core 0.1.1 & 0.1.2 : リリースノート
      • 開発者ガイド
      • Code examples
      • Keras Stable Diffusion
        • 概要
        • 基本的な使い方 (テキスト-to-画像 / 画像-to-画像変換)
        • 混合精度のパフォーマンス
        • インペインティングの簡易アプリケーション
        • (参考) KerasCV – Stable Diffusion を使用した高性能画像生成
  • TensorFlow
    • TF 2 : 初級チュートリアル
    • TF 2 : 上級チュートリアル
    • TF 2 : ガイド
    • TF 1 : チュートリアル
    • TF 1 : ガイド
  • その他
    • 🦜️🔗 LangChain ドキュメント / ユースケース
    • Stable Diffusion WebUI
      • Google Colab で Stable Diffusion WebUI 入門
      • HuggingFace モデル / VAE の導入
      • LoRA の利用
    • Diffusion Models / 拡散モデル
  • クラスキャット
    • 会社案内
    • お問合せ
    • Facebook
    • ClassCat® Blog
Menu

Amazon Bedrock : 最初の一歩 – 基礎知識と実験

Posted on 06/29/202407/01/2024 by Sales Information

Amazon Bedrock : 最初の一歩 – 基礎知識と実験

作成 : Masashi Okumura (@ClassCat)
作成日時 : 06/29/2024

* 本ページは、Amazon Bedrock : User Guide の以下のページを参考にして、最小限の実験をするために必要な手順を説明しています :

  • What is Amazon Bedrock?
  • Set up : Model access
  • Run model inference : Playgrounds

* サンプルコードの動作確認はしておりますが、必要な場合には適宜、追加改変しています。
* ご自由にリンクを張って頂いてかまいませんが、sales-info@classcat.com までご一報いただけると嬉しいです。


 

 

Amazon Bedrock : 最初の一歩 – 基礎知識と実験

1. 基礎知識

Amazon Bedrock とは何か

Amazon Bedrock は、AI スタートアップ企業や Amazon の高性能な基礎モデル (FM) を統一 API を通して利用可能にする、完全マネージド型サービスです。幅広い基礎モデルからユースケースに最適なモデルを見つけることができます。

Amazon Bedrock はまた、堅牢な生成 AI アプリケーションを構築するための幅広い機能セットも提供します。Amazon Bedrock により、ユースケースに最適な基礎モデルを簡単に実験して評価することができ、微調整や検索拡張生成 (RAG) のような技術を使用して貴方のデータで非公開にカスタマイズし、更にタスクを実行するエージェントを構築することができます。

 

Amazon Bedrock の機能

  • プロンプトと configuration を使用した実験 – API やテキスト、画像、チャットプレイグラウンドを使用してグラフィカルに実験できます。準備ができたら InvokeModel API へのリクエストを行うようにアプリケーションをセットアップします。

  • 貴方のデータソースからの情報を使用して応答生成を拡張する – 知識ベースを作成して基盤モデルの応答生成を拡張します。

  • 顧客を支援する方法を推論するアプリケーションの作成 – 基盤モデルを使用し、API コールを行い、知識ベースに問い合わせるエージェントを構築します。

  • 訓練データで特定のタスクやドメインにモデルを適応させる – 微調整や継続的な事前訓練 (continued-pretraining) のために訓練データを提供することで基盤モデルをカスタマイズします。

  • FB-ベースのアプリケーションの効率と出力を向上させる

  • 貴方のユースケースのためのベストモデルを決定する – 様々なモデルの出力を組み込み、またはカスタムプロンプトデータセットを使用して評価します。

  • 不適切、望ましくないコンテンツの回避 – ガードレールを使用してセーフガードを実装します。

 

2. 実践

Amazon Bedrock はプレイグラウンドで簡単に実験できますが、その前に利用したい基盤モデルへのアクセス権を得る必要があります。

この際に以下の注意点があります :

  • Amazon Bedrock を使用可能とするため、ユーザの許可ポリシーとして AmazonBedrockFullAccess を追加しておきます。
  • 更に、モデルへのアクセスをリクエストするユーザは AWSMarketplaceFullAccess のようなポリシーが必要となります。
  • リージョンごとに利用可能なベースモデルが異なります。Anthropic の Claude 3.5 Sonnet を使用するためには、例えば us-east-1 – 米国東部 (バージニア北部) を使用する必要があります。(参考: Model support by AWS Region)

 

モデルアクセス

基盤モデルへのアクセスを得るには、(上記のポリシーを持つような) 権限を持つ IAM ユーザが Amazon Bedrock 管理コンソールからアクセスをリクエストする必要があります。

モデルアクセスを管理するには、管理コンソールの左側のナビゲーションペインの下部にある モデルアクセス メニューを選択します。すると下図のように、利用可能なモデルのリスト、アクセス権の有無などを示すアクセスのステータス、モデルの出力モダリティ、そしてエンドユーザ使用許諾契約 (EULA) が表示されます :

 

 
この モデルアクセス ページから、実際にモデルへのアクセスをリクエストするには以下の手順で行います :

  1. 上部の What is Model access? セクションの Modify model access をクリックします。(注意 : 管理コンソールのステータスにより、Enable all models or Enable specific models と表示される場合もありますが、以下の基本的な操作は同じです。)
     

  2. すると、次のような Edit model access ページに移行します :
     

     

  3. ここで、利用したい基盤モデルにチェックを入れます。プロバイダーをチェックすれば、そのプロバイダーから提供される基盤モデルすべてにチェックが入ります。以下の例は Anthropic にチェックを入れています :
     

     

  4. アクセスをリクエストするモデルを選択したら、右下の Next をクリックします。以降、プロバイダーによっては最初のリクエストで幾つかの確認事項の入力を求められますが、最終的に Submit をクリックしてリクエストを送信します。
     

  5. (筆者が試した範囲内では) さほど時間がかからずにアクセスが許可され、以下のようにステータスが変わりました :
     

 

プレイグラウンド

準備ができたのでプレイグラウンドで実験してみましょう。

 

テキストのプレイグラウンド

テキストのプレイグラウンド では Amazon Bedrock が提供するテキストモデルを試すことができます。モデルにテキストを送信すれば、そのプロンプトからモデルが生成したテキストを表示します。

使い方は簡単です :

  1. [プレイグラウンド] > [テキスト] メニューを選択すると、以下のような画面に移行します :
     

     

  2. 左上の モデルを選択 ボタンをクリックすると次のようなダイアログボックスからモデルが選択できます。選択したら右下の 適用 ボタンをクリックします :
     

     

  3. モデルを選択すると、下図のように右側のペインに設定項目が表示され、中央のペインでプロンプトを入力して実行できるようになります (ここでは Anthropic の) :
     

 

以上



クラスキャット

最近の投稿

  • LangGraph Platform : 概要
  • LangGraph : Prebuilt エージェント : ユーザインターフェイス
  • LangGraph : Prebuilt エージェント : 配備
  • LangGraph : Prebuilt エージェント : マルチエージェント
  • LangGraph : Prebuilt エージェント : メモリ

タグ

AutoGen (13) ClassCat Press Release (20) ClassCat TF/ONNX Hub (11) DGL 0.5 (14) Eager Execution (7) Edward (17) FLUX.1 (16) Gemini (20) HuggingFace Transformers 4.5 (10) HuggingFace Transformers 4.6 (7) HuggingFace Transformers 4.29 (9) Keras 2 Examples (98) Keras 2 Guide (16) Keras 3 (10) Keras Release Note (17) Kubeflow 1.0 (10) LangChain (45) LangGraph (19) MediaPipe 0.8 (11) Model Context Protocol (16) NNI 1.5 (16) OpenAI Agents SDK (8) OpenAI Cookbook (13) OpenAI platform (10) OpenAI platform 1.x (10) OpenAI ヘルプ (8) TensorFlow 2.0 Advanced Tutorials (33) TensorFlow 2.0 Advanced Tutorials (Alpha) (15) TensorFlow 2.0 Advanced Tutorials (Beta) (16) TensorFlow 2.0 Guide (10) TensorFlow 2.0 Guide (Alpha) (16) TensorFlow 2.0 Guide (Beta) (9) TensorFlow 2.0 Release Note (12) TensorFlow 2.0 Tutorials (20) TensorFlow 2.0 Tutorials (Alpha) (14) TensorFlow 2.0 Tutorials (Beta) (12) TensorFlow 2.4 Guide (24) TensorFlow Deploy (8) TensorFlow Get Started (7) TensorFlow Graphics (7) TensorFlow Probability (9) TensorFlow Programmer's Guide (22) TensorFlow Release Note (18) TensorFlow Tutorials (33) TF-Agents 0.4 (11)
2024年6月
月 火 水 木 金 土 日
 12
3456789
10111213141516
17181920212223
24252627282930
« 5月   7月 »
© 2025 ClasCat® AI Research | Powered by Minimalist Blog WordPress Theme