TensorFlow 2.5.0 リリースノート (翻訳)
翻訳 : (株)クラスキャット セールスインフォメーション
作成日時 : 05/14/2021
* 本ページは、github TensorFlow の releases の TensorFlow 2.5.0 の Major Features and Improvements を翻訳したものです:
★ 無料 Web セミナー開催中 ★ クラスキャット主催 人工知能 & ビジネス Web セミナー
人工知能とビジネスをテーマに WEB セミナーを定期的に開催しています。
スケジュールは弊社 公式 Web サイト でご確認頂けます。
スケジュールは弊社 公式 Web サイト でご確認頂けます。
- お住まいの地域に関係なく Web ブラウザからご参加頂けます。事前登録 が必要ですのでご注意ください。
- ウェビナー運用には弊社製品「ClassCat® Webinar」を利用しています。
クラスキャットは人工知能・テレワークに関する各種サービスを提供しております :
人工知能研究開発支援 | 人工知能研修サービス | テレワーク & オンライン授業を支援 |
PoC(概念実証)を失敗させないための支援 (本支援はセミナーに参加しアンケートに回答した方を対象としています。) |
◆ お問合せ : 本件に関するお問い合わせ先は下記までお願いいたします。
株式会社クラスキャット セールス・マーケティング本部 セールス・インフォメーション |
E-Mail:sales-info@classcat.com ; WebSite: https://www.classcat.com/ ; Facebook |
Release 2.5.0
主要な特徴と改良
- Python 3.9 のためのサポートが追加されました。
- tf.data
- tf.data サービスは今では strict ラウンドロビン read をサポートします、これはサンプルサイズが様々である同期的な訓練ワークロードのために有用です。strict ラウンドロビン read により、ユーザは消費者が同じステップで同様のサイズのサンプルを得ることを保証できます。
- tf.data サービスは今ではオプションの compression をサポートします。以前はデータは常に圧縮されましたが、今では compression=None を tf.data.experimental.service.distribute(…) に渡すことにより compression を無効にできます。
- tf.data.Dataset.batch() は今では num_parallel_calls と deterministic 引数をサポートします。num_parallel_calls はマルチ入力バッチが並列に計算されるべきであることを示すために使用されます。num_parallel_calls が設定されるとき、deterministic は出力が非決定論的順序で得られることを示すために使用されます。
- tf.data.Dataset.options() により返されるオプションはもはや mutable ではありません。
- tf.data 入力パイプラインは今ではデバッグモードで実行できます、これはどのような非同期性、並列性や非決定論 (的性質) も無効にして map のような変換に渡されるユーザ定義関数の (trace-compiled グラフ実行に対照する) Python 実行を強制します。デバッグモードは tf.data.experimental.enable_debug_mode() を通して有効にできます。
- tf.lite
- 新しい MLIR-based 量子化バックエンドをデフォルトで有効にしました。
- 新しいバックエンドは 8 ビット full 整数 post-training 量子化のために使用されます。
- 新しいバックエンドは redundant rescale を除去して幾つかのバグを修正しています (共有重み/バイアス、非常に小さいスケール等)。
- この変更を無効にするには tf.lite.TFLiteConverter の experimental_new_quantizer を False に設定します。
- 新しい MLIR-based 量子化バックエンドをデフォルトで有効にしました。
- tf.keras
- tf.keras.metrics.AUC は今ではロジット予測をサポートします。
- Model.fit で新しくサポートされる入力タイプ, tf.keras.utils.experimental.DatasetCreator, を有効にしました、これは callable, dataset_fn を取ります。DatasetCreator は総ての tf.distribute ストラテジーに渡り動作することが意図され、そして Parameter Server ストラテジーのためにサポートされる唯一の入力タイプです。
- tf.distribute
- tf.distribute.Strategy スコープの下で tf.random.Generator を作成することが今では許容されます (tf.distribute.experimental.CentralStorageStrategy と tf.distribute.experimental.ParameterServerStrategy のためを除外して)。異なるレプリカは異なるランダム数ストリームを得ます。
- tf.distribute.experimental.ParameterServerStrategy は今では DatasetCreator で使用されるとき Keras Model.fit による訓練をサポートします。
- TPU 埋め込みサポート
- _tpu_estimator_embedding.py で profile_data_directory が EmbeddingConfigSpec に追加されました。これは埋め込みに (埋め込み層の分割決定で利用される) 実行時に集められた統計情報を検索することを可能にします。
- PluggableDevice
- サードパーティ・デバイスは今では StreamExecutor C API と PluggableDevice インターフェイスを通して TensorFlow Modular 的に接続できます (訳注: Modular TensorFlow)。
- カーネルと op 登録 C API を通してカスタム ops とカーネルを追加します。
- グラフ最適化 C API でカスタムグラフ最適化パスを登録します。
- サードパーティ・デバイスは今では StreamExecutor C API と PluggableDevice インターフェイスを通して TensorFlow Modular 的に接続できます (訳注: Modular TensorFlow)。
- Intel-optimized TensorFlow からの oneAPI 深層ニューラルネットワーク・ライブラリ (oneDNN) CPU パフォーマンス最適化は今では公式 x86-64 Linux と Windows ビルドで利用可能です。
- それらはデフォルトでは off です。環境変数 TF_ENABLE_ONEDNN_OPTS=1 を設定することによりそれらを有効にします。
- GPU システムでそれらを使用することは勧めません、何故ならばそれらはまだ GPU と共に十分にテストされていないからです。
- TensorFlow pip パッケージは今では CUDA11.2 と cuDNN 8.1.0 でビルドされています。
以上