Keras 2.0.9 リリースノート (翻訳)
翻訳 : (株)クラスキャット セールスインフォメーション
日時 : 11/25/2017
* 本ページは、github Keras の releases の Keras 2.0.9 を翻訳したものです:
改良領域
- RNN の改良:
- atomic RNN セルに依拠するように RNN 層をリファクタリングしました。これは RNN 基底クラスを通したカスタム RNN の作成を非常に単純にかつユーザフレンドリーにします。
- 効率的なスタックされた RNN を可能にする、セルのリストをスタックすることによって新しい RNN セルを作成する機能を追加します。
- 高速な GPU トレーニング & 推論のために CuDNNLSTM と CuDNNGRU 層を追加します、これはNVIDIA cuDNN ライブラリをバックエンドとします。
- RNN Sequence-to-sequence サンプル・スクリプトの追加。
- RNN の call メソッドで定数引数を追加します、これは RNN attention の実装を容易にします。
- keras.utils.multi_gpu_model によるより容易なマルチ GPU データ並列処理。
- バグ修正 & パフォーマンス改良 (特に、TensorFlow における NCHW データ・レイアウトのネイティブ・サポート)。
- ドキュメント改良とサンプル改良。
API 変更
- “fashion mnist” を keras.datasets.fashion_mnist.load_data() として追加します。
- Minimum merge 層を keras.layers.Minimum (クラス) と keras.layers.minimum(inputs) (層) として追加します。
- InceptionResNetV2 を keras.applications へ追加します。
- TensorFlow バックエンドで bool 変数をサポートします。
- SeparableConv2D に膨張処理 (= dilation) を追加します。
- Dropout における動的な noise_shape のサポートを追加します。
- (cell クラスからカスタム RNN 層を実装するために使用される) batch-level RNN のために keras.layers.RNN() 基底クラスを追加します。
- keras.layers.StackedRNNCells() 層ラッパーを追加します、これは RNN セルのリストを単一のセルにスタックするために使用されます。
- CuDNNLSTM と CuDNNGRU 層を追加します。
- RNN 層のための implementation=0 を deprecate します。
- Keras progbar は過去の各々のエポックにかかった時間、そしてステップ毎の平均時間を今ではレポートします。
- keras.preprocessing.image.load_img() における特定の resampling メソッドへのオプションを追加します。
- 容易な マルチ GPU データ並列処理のための keras.utils.multi_gpu_model を追加します。
- RNN call メソッドで定数引数を追加します、これは基礎となる RNN セルに定数テンソルのリストを渡すために使用されます。
重要な変更
- keras.losses.cosine_proximity における実装変更は異なる (正しい) スケーリング挙動の結果になります。
- ImageDataGenerator における samplewise 正規化のための実装変更は異なる正規化挙動の結果になります。
以上