TensorFlow 2.0 : 上級 Tutorials : 分散訓練 :- Keras で分散訓練 (翻訳/解説)
翻訳 : (株)クラスキャット セールスインフォメーション
作成日時 : 10/30/2019
* 本ページは、TensorFlow org サイトの TF 2.0 – Advanced Tutorials – Distributed training の以下のページを翻訳した上で
適宜、補足説明したものです:
* サンプルコードの動作確認はしておりますが、必要な場合には適宜、追加改変しています。
* ご自由にリンクを張って頂いてかまいませんが、sales-info@classcat.com までご一報いただけると嬉しいです。
- お住まいの地域に関係なく Web ブラウザからご参加頂けます。事前登録 が必要ですのでご注意ください。
- Windows PC のブラウザからご参加が可能です。スマートデバイスもご利用可能です。
◆ お問合せ : 本件に関するお問い合わせ先は下記までお願いいたします。
株式会社クラスキャット セールス・マーケティング本部 セールス・インフォメーション |
E-Mail:sales-info@classcat.com ; WebSite: https://www.classcat.com/ |
Facebook: https://www.facebook.com/ClassCatJP/ |
分散訓練 :- Keras で分散訓練
概要
tf.distribute.Strategy API は複数の処理ユニットに渡り貴方の訓練を分散するための抽象を提供します。目標はユーザに既存のモデルと訓練コードを (最小限の変更で) 使用して分散訓練を可能にすることです。
このチュートリアルは tf.distribute.MirroredStrategy を使用します、これは一つのマシン上の多くの GPU 上で同期訓練を伴う in-graph リプリケーションを行ないます。本質的には、それはモデルの変数の総てを各プロセッサにコピーします。それから、それは総てのプロセッサからの勾配を結合するために all-reduce を使用して結合された値をモデルの総てのコピーに適用します。
MirroredStategy は TensorFlow コアで利用可能な幾つかの分散ストラテジーの一つです。より多くのストラテジーについて 分散ストラテジー・ガイド で読むことができます。
Keras API
このサンプルはモデルと訓練ループを構築するために tf.kera API を使用します。カスタム訓練ループについては、tf.distribute.Strategy with training loops チュートリアル を見てください。
Import 依存性
from __future__ import absolute_import, division, print_function, unicode_literals # Import TensorFlow and TensorFlow Datasets try: !pip install -q tf-nightly except Exception: pass import tensorflow_datasets as tfds import tensorflow as tf tfds.disable_progress_bar() import os
print(tf.__version__)
2.1.0-dev20191004
データセットをダウンロードする
MNIST データセットをダウンロードしてそれを TensorFlow Dataset からロードします。これは tf.data フォーマットのデータセットを返します。
with_info を True に設定するとデータセット全体に対するメタデータを含みます、これはここでは info にセーブされます。他のものの中で、このメタデータ・オブジェクトは訓練とテストサンプルの数を含みます。
datasets, info = tfds.load(name='mnist', with_info=True, as_supervised=True) mnist_train, mnist_test = datasets['train'], datasets['test']
Downloading and preparing dataset mnist (11.06 MiB) to /home/kbuilder/tensorflow_datasets/mnist/1.0.0... /usr/lib/python3/dist-packages/urllib3/connectionpool.py:860: InsecureRequestWarning: Unverified HTTPS request is being made. Adding certificate verification is strongly advised. See: https://urllib3.readthedocs.io/en/latest/advanced-usage.html#ssl-warnings InsecureRequestWarning) /usr/lib/python3/dist-packages/urllib3/connectionpool.py:860: InsecureRequestWarning: Unverified HTTPS request is being made. Adding certificate verification is strongly advised. See: https://urllib3.readthedocs.io/en/latest/advanced-usage.html#ssl-warnings InsecureRequestWarning) /usr/lib/python3/dist-packages/urllib3/connectionpool.py:860: InsecureRequestWarning: Unverified HTTPS request is being made. Adding certificate verification is strongly advised. See: https://urllib3.readthedocs.io/en/latest/advanced-usage.html#ssl-warnings InsecureRequestWarning) /usr/lib/python3/dist-packages/urllib3/connectionpool.py:860: InsecureRequestWarning: Unverified HTTPS request is being made. Adding certificate verification is strongly advised. See: https://urllib3.readthedocs.io/en/latest/advanced-usage.html#ssl-warnings InsecureRequestWarning) WARNING:tensorflow:From /home/kbuilder/.local/lib/python3.6/site-packages/tensorflow_datasets/core/file_format_adapter.py:209: tf_record_iterator (from tensorflow.python.lib.io.tf_record) is deprecated and will be removed in a future version. Instructions for updating: Use eager execution and: `tf.data.TFRecordDataset(path)` WARNING:tensorflow:From /home/kbuilder/.local/lib/python3.6/site-packages/tensorflow_datasets/core/file_format_adapter.py:209: tf_record_iterator (from tensorflow.python.lib.io.tf_record) is deprecated and will be removed in a future version. Instructions for updating: Use eager execution and: `tf.data.TFRecordDataset(path)` Dataset mnist downloaded and prepared to /home/kbuilder/tensorflow_datasets/mnist/1.0.0. Subsequent calls will reuse this data.
分散ストラテジーを定義する
MirroredStrategy オブジェクトを作成します。これは分散を処理し、そして内側で貴方のモデルを構築するためのコンテキストマネージャ (tf.distribute.MirroredStrategy.scope) を提供します。
strategy = tf.distribute.MirroredStrategy()
INFO:tensorflow:Using MirroredStrategy with devices ('/job:localhost/replica:0/task:0/device:GPU:0',) INFO:tensorflow:Using MirroredStrategy with devices ('/job:localhost/replica:0/task:0/device:GPU:0',)
print('Number of devices: {}'.format(strategy.num_replicas_in_sync))
Number of devices: 1
入力パイプラインをセットアップする
モデルがマルチ GPU で訓練されるとき、バッチサイズを増やすことにより特別な計算パワーを効果的に使用できます。一般に、GPU メモリに収まる最大のバッチサイズを使用し、そしてそれに従って学習率を調整します。
# You can also do info.splits.total_num_examples to get the total # number of examples in the dataset. num_train_examples = info.splits['train'].num_examples num_test_examples = info.splits['test'].num_examples BUFFER_SIZE = 10000 BATCH_SIZE_PER_REPLICA = 64 BATCH_SIZE = BATCH_SIZE_PER_REPLICA * strategy.num_replicas_in_sync
0-255 のピクセル値は 0-1 範囲に正規化されなければなりません。このスケールを関数で定義します。
def scale(image, label): image = tf.cast(image, tf.float32) image /= 255 return image, label
この関数を訓練とテストデータに適用し、訓練データをシャッフルし、そして 訓練のためにそれをバッチ化します。パフォーマンスを改善するために訓練データの in-メモリ・キャッシュも保持していることに気付いてください。
train_dataset = mnist_train.map(scale).cache().shuffle(BUFFER_SIZE).batch(BATCH_SIZE) eval_dataset = mnist_test.map(scale).batch(BATCH_SIZE)
モデルを作成する
strategy.scope のコンテキストで Keras モデルを作成してコンパイルします。
with strategy.scope(): model = tf.keras.Sequential([ tf.keras.layers.Conv2D(32, 3, activation='relu', input_shape=(28, 28, 1)), tf.keras.layers.MaxPooling2D(), tf.keras.layers.Flatten(), tf.keras.layers.Dense(64, activation='relu'), tf.keras.layers.Dense(10, activation='softmax') ]) model.compile(loss='sparse_categorical_crossentropy', optimizer=tf.keras.optimizers.Adam(), metrics=['accuracy'])
INFO:tensorflow:Reduce to /job:localhost/replica:0/task:0/device:CPU:0 then broadcast to ('/job:localhost/replica:0/task:0/device:CPU:0',). INFO:tensorflow:Reduce to /job:localhost/replica:0/task:0/device:CPU:0 then broadcast to ('/job:localhost/replica:0/task:0/device:CPU:0',). INFO:tensorflow:Reduce to /job:localhost/replica:0/task:0/device:CPU:0 then broadcast to ('/job:localhost/replica:0/task:0/device:CPU:0',). INFO:tensorflow:Reduce to /job:localhost/replica:0/task:0/device:CPU:0 then broadcast to ('/job:localhost/replica:0/task:0/device:CPU:0',).
コールバックを定義する
ここで使用されるコールバックは :
- Tensorboard: このコールバックはグラフを可視化することを可能にする TensorBoard のためのログを書きます。
- モデル・チェックポイント: このコールバックは総てのエポック後にモデルをセーブします。
- 学習率スケジューラ: このコールバックを使用すると、総てのエポック/バッチ後に変化する学習率をスケジューリングできます。
説明目的で、このノートブックでは学習率を表示するための print コールバックを追加します。
# Define the checkpoint directory to store the checkpoints checkpoint_dir = './training_checkpoints' # Name of the checkpoint files checkpoint_prefix = os.path.join(checkpoint_dir, "ckpt_{epoch}")
# Function for decaying the learning rate. # You can define any decay function you need. def decay(epoch): if epoch < 3: return 1e-3 elif epoch >= 3 and epoch < 7: return 1e-4 else: return 1e-5
# Callback for printing the LR at the end of each epoch. class PrintLR(tf.keras.callbacks.Callback): def on_epoch_end(self, epoch, logs=None): print('\nLearning rate for epoch {} is {}'.format(epoch + 1, model.optimizer.lr.numpy()))
callbacks = [ tf.keras.callbacks.TensorBoard(log_dir='./logs'), tf.keras.callbacks.ModelCheckpoint(filepath=checkpoint_prefix, save_weights_only=True), tf.keras.callbacks.LearningRateScheduler(decay), PrintLR() ]
訓練そして評価する
今、通常の方法でモデルを訓練します、モデル上で fit を呼び出してチュートリアルの最初に作成されたデータセットを渡します。このステップは貴方が訓練を分散していてもそうでなくても同じです。
model.fit(train_dataset, epochs=12, callbacks=callbacks)
Epoch 1/12 INFO:tensorflow:Reduce to /job:localhost/replica:0/task:0/device:CPU:0 then broadcast to ('/job:localhost/replica:0/task:0/device:CPU:0',). INFO:tensorflow:Reduce to /job:localhost/replica:0/task:0/device:CPU:0 then broadcast to ('/job:localhost/replica:0/task:0/device:CPU:0',). INFO:tensorflow:Reduce to /job:localhost/replica:0/task:0/device:CPU:0 then broadcast to ('/job:localhost/replica:0/task:0/device:CPU:0',). INFO:tensorflow:Reduce to /job:localhost/replica:0/task:0/device:CPU:0 then broadcast to ('/job:localhost/replica:0/task:0/device:CPU:0',). INFO:tensorflow:Reduce to /job:localhost/replica:0/task:0/device:CPU:0 then broadcast to ('/job:localhost/replica:0/task:0/device:CPU:0',). INFO:tensorflow:Reduce to /job:localhost/replica:0/task:0/device:CPU:0 then broadcast to ('/job:localhost/replica:0/task:0/device:CPU:0',). INFO:tensorflow:Reduce to /job:localhost/replica:0/task:0/device:CPU:0 then broadcast to ('/job:localhost/replica:0/task:0/device:CPU:0',). INFO:tensorflow:Reduce to /job:localhost/replica:0/task:0/device:CPU:0 then broadcast to ('/job:localhost/replica:0/task:0/device:CPU:0',). 938/Unknown - 10s 10ms/step - loss: 0.1922 - accuracy: 0.9441 Learning rate for epoch 1 is 0.0010000000474974513 938/938 [==============================] - 10s 10ms/step - loss: 0.1922 - accuracy: 0.9441 Epoch 2/12 923/938 [============================>.] - ETA: 0s - loss: 0.0662 - accuracy: 0.9803 Learning rate for epoch 2 is 0.0010000000474974513 938/938 [==============================] - 3s 3ms/step - loss: 0.0658 - accuracy: 0.9804 Epoch 3/12 935/938 [============================>.] - ETA: 0s - loss: 0.0456 - accuracy: 0.9863 Learning rate for epoch 3 is 0.0010000000474974513 938/938 [==============================] - 3s 3ms/step - loss: 0.0455 - accuracy: 0.9863 Epoch 4/12 935/938 [============================>.] - ETA: 0s - loss: 0.0264 - accuracy: 0.9926 Learning rate for epoch 4 is 9.999999747378752e-05 938/938 [==============================] - 3s 3ms/step - loss: 0.0264 - accuracy: 0.9926 Epoch 5/12 932/938 [============================>.] - ETA: 0s - loss: 0.0226 - accuracy: 0.9939 Learning rate for epoch 5 is 9.999999747378752e-05 938/938 [==============================] - 3s 3ms/step - loss: 0.0225 - accuracy: 0.9940 Epoch 6/12 931/938 [============================>.] - ETA: 0s - loss: 0.0207 - accuracy: 0.9945 Learning rate for epoch 6 is 9.999999747378752e-05 938/938 [==============================] - 3s 3ms/step - loss: 0.0207 - accuracy: 0.9945 Epoch 7/12 932/938 [============================>.] - ETA: 0s - loss: 0.0191 - accuracy: 0.9951 Learning rate for epoch 7 is 9.999999747378752e-05 938/938 [==============================] - 3s 3ms/step - loss: 0.0191 - accuracy: 0.9951 Epoch 8/12 931/938 [============================>.] - ETA: 0s - loss: 0.0165 - accuracy: 0.9963 Learning rate for epoch 8 is 9.999999747378752e-06 938/938 [==============================] - 3s 3ms/step - loss: 0.0165 - accuracy: 0.9962 Epoch 9/12 922/938 [============================>.] - ETA: 0s - loss: 0.0162 - accuracy: 0.9963 Learning rate for epoch 9 is 9.999999747378752e-06 938/938 [==============================] - 3s 3ms/step - loss: 0.0162 - accuracy: 0.9963 Epoch 10/12 927/938 [============================>.] - ETA: 0s - loss: 0.0160 - accuracy: 0.9965 Learning rate for epoch 10 is 9.999999747378752e-06 938/938 [==============================] - 3s 3ms/step - loss: 0.0160 - accuracy: 0.9965 Epoch 11/12 934/938 [============================>.] - ETA: 0s - loss: 0.0158 - accuracy: 0.9965 Learning rate for epoch 11 is 9.999999747378752e-06 938/938 [==============================] - 3s 3ms/step - loss: 0.0158 - accuracy: 0.9965 Epoch 12/12 928/938 [============================>.] - ETA: 0s - loss: 0.0157 - accuracy: 0.9964 Learning rate for epoch 12 is 9.999999747378752e-06 938/938 [==============================] - 3s 3ms/step - loss: 0.0156 - accuracy: 0.9965 <tensorflow.python.keras.callbacks.History at 0x7f92ad88d278>
下で見れるように、チェックポイントはセーブされています。
# check the checkpoint directory !ls {checkpoint_dir}
checkpoint ckpt_4.data-00000-of-00002 ckpt_1.data-00000-of-00002 ckpt_4.data-00001-of-00002 ckpt_1.data-00001-of-00002 ckpt_4.index ckpt_1.index ckpt_5.data-00000-of-00002 ckpt_10.data-00000-of-00002 ckpt_5.data-00001-of-00002 ckpt_10.data-00001-of-00002 ckpt_5.index ckpt_10.index ckpt_6.data-00000-of-00002 ckpt_11.data-00000-of-00002 ckpt_6.data-00001-of-00002 ckpt_11.data-00001-of-00002 ckpt_6.index ckpt_11.index ckpt_7.data-00000-of-00002 ckpt_12.data-00000-of-00002 ckpt_7.data-00001-of-00002 ckpt_12.data-00001-of-00002 ckpt_7.index ckpt_12.index ckpt_8.data-00000-of-00002 ckpt_2.data-00000-of-00002 ckpt_8.data-00001-of-00002 ckpt_2.data-00001-of-00002 ckpt_8.index ckpt_2.index ckpt_9.data-00000-of-00002 ckpt_3.data-00000-of-00002 ckpt_9.data-00001-of-00002 ckpt_3.data-00001-of-00002 ckpt_9.index ckpt_3.index
モデルがどのように遂行するかを見るために、最新のチェックポイントをロードしてテストデータ上で evaluate を呼び出します。
適切なデータセットを使用して前のように evaluate を呼び出します。
model.load_weights(tf.train.latest_checkpoint(checkpoint_dir)) eval_loss, eval_acc = model.evaluate(eval_dataset) print('Eval loss: {}, Eval Accuracy: {}'.format(eval_loss, eval_acc))
INFO:tensorflow:Reduce to /job:localhost/replica:0/task:0/device:CPU:0 then broadcast to ('/job:localhost/replica:0/task:0/device:CPU:0',). INFO:tensorflow:Reduce to /job:localhost/replica:0/task:0/device:CPU:0 then broadcast to ('/job:localhost/replica:0/task:0/device:CPU:0',). INFO:tensorflow:Reduce to /job:localhost/replica:0/task:0/device:CPU:0 then broadcast to ('/job:localhost/replica:0/task:0/device:CPU:0',). INFO:tensorflow:Reduce to /job:localhost/replica:0/task:0/device:CPU:0 then broadcast to ('/job:localhost/replica:0/task:0/device:CPU:0',). 157/Unknown - 2s 14ms/step - loss: 0.0363 - accuracy: 0.9875Eval loss: 0.03630251882658607, Eval Accuracy: 0.987500011920929
出力を見るために、TensorBoard ログをダウンロードして端末で見ることができます。
$ tensorboard --logdir=path/to/log-directory
!ls -sh ./logs
total 4.0K 4.0K train
SavedModel にエクスポートする
グラフと変数をプラットフォーム不可知 (= agnostic) である SavedModel フォーマットにエクスポートします。モデルがセーブされた後、それをスコープとともに、あるいはスコープなしでロードし戻すことができます。
path = 'saved_model/'
model.save(path, save_format='tf')
WARNING:tensorflow:From /tmpfs/src/tf_docs_env/lib/python3.6/site-packages/tensorflow_core/python/ops/resource_variable_ops.py:1781: calling BaseResourceVariable.__init__ (from tensorflow.python.ops.resource_variable_ops) with constraint is deprecated and will be removed in a future version. Instructions for updating: If using Keras pass *_constraint arguments to layers. WARNING:tensorflow:From /tmpfs/src/tf_docs_env/lib/python3.6/site-packages/tensorflow_core/python/ops/resource_variable_ops.py:1781: calling BaseResourceVariable.__init__ (from tensorflow.python.ops.resource_variable_ops) with constraint is deprecated and will be removed in a future version. Instructions for updating: If using Keras pass *_constraint arguments to layers. INFO:tensorflow:Reduce to /replica:0/task:0/device:CPU:0 then broadcast to ('/replica:0/task:0/device:CPU:0',). INFO:tensorflow:Reduce to /replica:0/task:0/device:CPU:0 then broadcast to ('/replica:0/task:0/device:CPU:0',). INFO:tensorflow:Reduce to /replica:0/task:0/device:CPU:0 then broadcast to ('/replica:0/task:0/device:CPU:0',). INFO:tensorflow:Reduce to /replica:0/task:0/device:CPU:0 then broadcast to ('/replica:0/task:0/device:CPU:0',). INFO:tensorflow:Assets written to: saved_model/assets INFO:tensorflow:Assets written to: saved_model/assets
strategy.scope なしでモデルをロードします。
unreplicated_model = tf.keras.models.load_model(path) unreplicated_model.compile( loss='sparse_categorical_crossentropy', optimizer=tf.keras.optimizers.Adam(), metrics=['accuracy']) eval_loss, eval_acc = unreplicated_model.evaluate(eval_dataset) print('Eval loss: {}, Eval Accuracy: {}'.format(eval_loss, eval_acc))
157/Unknown - 1s 7ms/step - loss: 0.0363 - accuracy: 0.9875Eval loss: 0.036302936971143104, Eval Accuracy: 0.987500011920929
strategy.scope とともにモデルをロードします。
with strategy.scope(): replicated_model = tf.keras.models.load_model(path) replicated_model.compile(loss='sparse_categorical_crossentropy', optimizer=tf.keras.optimizers.Adam(), metrics=['accuracy']) eval_loss, eval_acc = replicated_model.evaluate(eval_dataset) print ('Eval loss: {}, Eval Accuracy: {}'.format(eval_loss, eval_acc))
157/Unknown - 2s 14ms/step - loss: 0.0363 - accuracy: 0.9875Eval loss: 0.036302936971143104, Eval Accuracy: 0.987500011920929
サンプルとチュートリアル
ここに keras fit/compile を伴う分散ストラテジーを使用するための幾つかのサンプルがあります : 1. tf.distribute.MirroredStrategy を使用して訓練される Transformer サンプル 2. tf.distribute.MirroredStrategy を使用して訓練される NCF。
分散ストラテジー・ガイド でリストされるより多くのサンプル
Next steps
- 分散ストラテジー・ガイド を読む。
- カスタム訓練ループを持つ分散訓練 チュートリアルを読む。
以上