Skip to content

ClasCat® AI Research

クラスキャット – 生成 AI, AI エージェント, MCP

Menu
  • ホーム
    • ClassCat® AI Research ホーム
    • クラスキャット・ホーム
  • OpenAI API
    • OpenAI Python ライブラリ 1.x : 概要
    • OpenAI ブログ
      • GPT の紹介
      • GPT ストアの紹介
      • ChatGPT Team の紹介
    • OpenAI platform 1.x
      • Get Started : イントロダクション
      • Get Started : クイックスタート (Python)
      • Get Started : クイックスタート (Node.js)
      • Get Started : モデル
      • 機能 : 埋め込み
      • 機能 : 埋め込み (ユースケース)
      • ChatGPT : アクション – イントロダクション
      • ChatGPT : アクション – Getting started
      • ChatGPT : アクション – アクション認証
    • OpenAI ヘルプ : ChatGPT
      • ChatGPTとは何ですか?
      • ChatGPT は真実を語っていますか?
      • GPT の作成
      • GPT FAQ
      • GPT vs アシスタント
      • GPT ビルダー
    • OpenAI ヘルプ : ChatGPT > メモリ
      • FAQ
    • OpenAI ヘルプ : GPT ストア
      • 貴方の GPT をフィーチャーする
    • OpenAI Python ライブラリ 0.27 : 概要
    • OpenAI platform
      • Get Started : イントロダクション
      • Get Started : クイックスタート
      • Get Started : モデル
      • ガイド : GPT モデル
      • ガイド : 画像生成 (DALL·E)
      • ガイド : GPT-3.5 Turbo 対応 微調整
      • ガイド : 微調整 1.イントロダクション
      • ガイド : 微調整 2. データセットの準備 / ケーススタディ
      • ガイド : 埋め込み
      • ガイド : 音声テキスト変換
      • ガイド : モデレーション
      • ChatGPT プラグイン : イントロダクション
    • OpenAI Cookbook
      • 概要
      • API 使用方法 : レート制限の操作
      • API 使用方法 : tiktoken でトークンを数える方法
      • GPT : ChatGPT モデルへの入力をフォーマットする方法
      • GPT : 補完をストリームする方法
      • GPT : 大規模言語モデルを扱う方法
      • 埋め込み : 埋め込みの取得
      • GPT-3 の微調整 : 分類サンプルの微調整
      • DALL-E : DALL·E で 画像を生成して編集する方法
      • DALL·E と Segment Anything で動的マスクを作成する方法
      • Whisper プロンプティング・ガイド
  • Gemini API
    • Tutorials : クイックスタート with Python (1) テキスト-to-テキスト生成
    • (2) マルチモーダル入力 / 日本語チャット
    • (3) 埋め込みの使用
    • (4) 高度なユースケース
    • クイックスタート with Node.js
    • クイックスタート with Dart or Flutter (1) 日本語動作確認
    • Gemma
      • 概要 (README)
      • Tutorials : サンプリング
      • Tutorials : KerasNLP による Getting Started
  • Keras 3
    • 新しいマルチバックエンド Keras
    • Keras 3 について
    • Getting Started : エンジニアのための Keras 入門
    • Google Colab 上のインストールと Stable Diffusion デモ
    • コンピュータビジョン – ゼロからの画像分類
    • コンピュータビジョン – 単純な MNIST convnet
    • コンピュータビジョン – EfficientNet を使用した微調整による画像分類
    • コンピュータビジョン – Vision Transformer による画像分類
    • コンピュータビジョン – 最新の MLPモデルによる画像分類
    • コンピュータビジョン – コンパクトな畳込み Transformer
    • Keras Core
      • Keras Core 0.1
        • 新しいマルチバックエンド Keras (README)
        • Keras for TensorFlow, JAX, & PyTorch
        • 開発者ガイド : Getting started with Keras Core
        • 開発者ガイド : 関数型 API
        • 開発者ガイド : シーケンシャル・モデル
        • 開発者ガイド : サブクラス化で新しい層とモデルを作成する
        • 開発者ガイド : 独自のコールバックを書く
      • Keras Core 0.1.1 & 0.1.2 : リリースノート
      • 開発者ガイド
      • Code examples
      • Keras Stable Diffusion
        • 概要
        • 基本的な使い方 (テキスト-to-画像 / 画像-to-画像変換)
        • 混合精度のパフォーマンス
        • インペインティングの簡易アプリケーション
        • (参考) KerasCV – Stable Diffusion を使用した高性能画像生成
  • TensorFlow
    • TF 2 : 初級チュートリアル
    • TF 2 : 上級チュートリアル
    • TF 2 : ガイド
    • TF 1 : チュートリアル
    • TF 1 : ガイド
  • その他
    • 🦜️🔗 LangChain ドキュメント / ユースケース
    • Stable Diffusion WebUI
      • Google Colab で Stable Diffusion WebUI 入門
      • HuggingFace モデル / VAE の導入
      • LoRA の利用
    • Diffusion Models / 拡散モデル
  • クラスキャット
    • 会社案内
    • お問合せ
    • Facebook
    • ClassCat® Blog
Menu

TensorFlow : TensorLayer : チュートリアル (1) Welcome

Posted on 12/01/2018 by Sales Information

TensorFlow : TensorLayer : チュートリアル (1) Welcome (翻訳/解説)

翻訳 : (株)クラスキャット セールスインフォメーション
作成日時 : 12/01/2018

* 本ページは、TensorLayer の以下のドキュメントを翻訳した上で適宜、補足説明したものです:

  • github.com/tensorlayer/tensorlayer/…/README.md
  • tensorlayer.readthedocs.io/en/stable/user/tutorials.html

* サンプルコードの動作確認はしておりますが、必要な場合には適宜、追加改変しています。
* ご自由にリンクを張って頂いてかまいませんが、sales-info@classcat.com までご一報いただけると嬉しいです。

 

TensorLayer : README.md

TensorLayer は研究者と技術者のための新しい TensorFlow-ベースの深層学習そして強化学習ライブラリです。それは現実世界の AI アプリケーションを構築するための鍵となるカスタマイズ可能なニューラル層 / 関数の巨大なコレクションを提供します。TensorLayer は ACM Multimedia Society により 2017 ベスト・オープンソース・ソフトウェアとして表彰されています。

 

特徴

深層学習実践者として、様々な開発目的を扱えるライブラリを探し求めていました。このライブラリは多様なサンプル、チュートリアルそして事前訓練されたモデルを提供することにより採用することが容易です。また、それはユーザに TensorFlow を容易に再調整する (= fine-tune) ことを可能にします; その一方でプロダクション配備のために適合します。TensorLayer はこれら総ての目的を満たすことを目指します。それは 3 つのキー特徴を持ちます :

  • 単純性 : TensorLayer は TensorFlow の低位データフロー・インターフェイスを高位層 / モデルにリフトします。広いコミュニティにより貢献された豊富はサンプルコードを通して学習することは非常に容易です。
  • 柔軟性 : TensorLayer API は透過的です : それは TensorFlow をユーザからマスクしません ; 低位調整と深いカスタマイゼーションを手助けする大希望なフックを残します。
  • Zero-cost 抽象 : TensorLayer は TensorFlow の完全なパワーを達成します。

TensorLayer はライブラリ風景のユニークな位置に立ちます。Keras と TFLearn のような他のラッパー・ライブラリもまた高位抽象を提供します。けれども、それらはユーザから基礎をなすエンジンをしばしば隠します、それはそれらをカスタマイズして再調整することを困難にします。反対に、TensorLayer API は一般に柔軟で透過的です。ユーザはサンプルとチュートリアルで始めて、それから TensorFlow にシームレスにダイブすることが容易であることをしばしば見い出すでしょう。加えて、TensorLayer は Keras, TFSlim と TFLearn からのコンポーネントをインポートするためのネイティブ・サポートを通してロックインされたライブラリを作成しません。

TensorLayer は Imperial College London, UC Berkeley, Carnegie Mellon University, Stanford University, と University of Technology of Compiegne (UTC) のような大学、そして Google, Microsoft, Alibaba, Tencent, Xiaomi, と Bloomberg のような企業からのトップ研究者と技術者の中で素早く高まる利用を持ちます。

 

チュートリアル (1)

深層学習について、このチュートリアルは (おそらくニューラルネットワークの “Hello World” である) MNIST データセットを使用して貴方に手書き数字分類器の構築を案内します。強化学習については、元のスクリーン入力からコンピュータに Pong ゲームをプレーすることを学習させます。自然言語処理については、単語埋め込みから始めてそして言語モデリングと機械翻訳を記述します。

このチュートリアルは Google TensorFlow 深層学習チュートリアルの総てのモジュール化された実装を含みますので、TensorFlow 深層学習チュートリアルを同時に読むこともできます。

Note: For experts: InputLayer と DenseLayer のソースコードを読んでください、TensorLayer がどのように動作するか理解するでしょう。その後、Github のコードを直接読むことを進めます。

 

Before we start

チュートリアルは貴方がニューラルネットワークと TensorFlow にある程度精通していることを仮定しています。Deeplearning Tutorial からニューラルネットワークの基礎を学習することを試せます。

人工ニューラルネットワークへのよりスローペースなイントロダクションについては、Andrej Karpathy et al. による Convolutional Neural Networks for Visual Recognition、Michael Nielsen による Neural Networks と Deep Learning を勧めます。

TensorFlow について更に学習するためには、TensorFlow チュートリアルを見てください。それの総てを必要とはしませんが、TensorLayer を使用できるためにはどのように TensorFlow が動作するかについて基本的な理解は必要です。

 

TensorLayer is simple

次のコードは TensorLayer の単純な例を示します、tutorial_mnist_simple.py を見てください。私達は多くの単純な関数(like fit() , test() ) を提供しますけれども、詳細を理解して機械学習エキスパートになることを望むのであれば、データ反復ツールボックス (tl.iterate) と sess.run() のような TensorFlow のネイティブ API を使用してネットワークを訓練することを提案します。より詳細は tutorial_mnist.py, tutorial_mlp_dropout1.py と tutorial_mlp_dropout2.py を見てください。

import tensorflow as tf
import tensorlayer as tl

sess = tf.InteractiveSession()

# prepare data
X_train, y_train, X_val, y_val, X_test, y_test = \
                                tl.files.load_mnist_dataset(shape=(-1,784))

# define placeholder
x = tf.placeholder(tf.float32, shape=[None, 784], name='x')
y_ = tf.placeholder(tf.int64, shape=[None, ], name='y_')

# define the network
network = tl.layers.InputLayer(x, name='input_layer')
network = tl.layers.DropoutLayer(network, keep=0.8, name='drop1')
network = tl.layers.DenseLayer(network, n_units=800,
                                act = tf.nn.relu, name='relu1')
network = tl.layers.DropoutLayer(network, keep=0.5, name='drop2')
network = tl.layers.DenseLayer(network, n_units=800,
                                act = tf.nn.relu, name='relu2')
network = tl.layers.DropoutLayer(network, keep=0.5, name='drop3')
# the softmax is implemented internally in tl.cost.cross_entropy(y, y_, 'cost') to
# speed up computation, so we use identity here.
# see tf.nn.sparse_softmax_cross_entropy_with_logits()
network = tl.layers.DenseLayer(network, n_units=10,
                                act = tf.identity,
                                name='output_layer')
# define cost function and metric.
y = network.outputs
cost = tl.cost.cross_entropy(y, y_, 'cost')
correct_prediction = tf.equal(tf.argmax(y, 1), y_)
acc = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))
y_op = tf.argmax(tf.nn.softmax(y), 1)

# define the optimizer
train_params = network.all_params
train_op = tf.train.AdamOptimizer(learning_rate=0.0001, beta1=0.9, beta2=0.999,
                            epsilon=1e-08, use_locking=False).minimize(cost, var_list=train_params)

# initialize all variables in the session
tl.layers.initialize_global_variables(sess)

# print network information
network.print_params()
network.print_layers()

# train the network
tl.utils.fit(sess, network, train_op, cost, X_train, y_train, x, y_,
            acc=acc, batch_size=500, n_epoch=500, print_freq=5,
            X_val=X_val, y_val=y_val, eval_train=False)

# evaluation
tl.utils.test(sess, network, acc, X_test, y_test, x, y_, batch_size=None, cost=cost)

# save the network to .npz file
tl.files.save_npz(network.all_params , name='model.npz')
sess.close()
 

以上






クラスキャット

最近の投稿

  • LangGraph on Colab : エージェント型 RAG
  • LangGraph : 例題 : エージェント型 RAG
  • LangGraph Platform : Get started : クイックスタート
  • LangGraph Platform : 概要
  • LangGraph : Prebuilt エージェント : ユーザインターフェイス

タグ

AutoGen (13) ClassCat Press Release (20) ClassCat TF/ONNX Hub (11) DGL 0.5 (14) Eager Execution (7) Edward (17) FLUX.1 (16) Gemini (20) HuggingFace Transformers 4.5 (10) HuggingFace Transformers 4.6 (7) HuggingFace Transformers 4.29 (9) Keras 2 Examples (98) Keras 2 Guide (16) Keras 3 (10) Keras Release Note (17) Kubeflow 1.0 (10) LangChain (45) LangGraph (22) MediaPipe 0.8 (11) Model Context Protocol (16) NNI 1.5 (16) OpenAI Agents SDK (8) OpenAI Cookbook (13) OpenAI platform (10) OpenAI platform 1.x (10) OpenAI ヘルプ (8) TensorFlow 2.0 Advanced Tutorials (33) TensorFlow 2.0 Advanced Tutorials (Alpha) (15) TensorFlow 2.0 Advanced Tutorials (Beta) (16) TensorFlow 2.0 Guide (10) TensorFlow 2.0 Guide (Alpha) (16) TensorFlow 2.0 Guide (Beta) (9) TensorFlow 2.0 Release Note (12) TensorFlow 2.0 Tutorials (20) TensorFlow 2.0 Tutorials (Alpha) (14) TensorFlow 2.0 Tutorials (Beta) (12) TensorFlow 2.4 Guide (24) TensorFlow Deploy (8) TensorFlow Get Started (7) TensorFlow Graphics (7) TensorFlow Probability (9) TensorFlow Programmer's Guide (22) TensorFlow Release Note (18) TensorFlow Tutorials (33) TF-Agents 0.4 (11)
2018年12月
月 火 水 木 金 土 日
 12
3456789
10111213141516
17181920212223
24252627282930
31  
« 11月   1月 »
© 2025 ClasCat® AI Research | Powered by Minimalist Blog WordPress Theme