Skip to content

Chainer/Pytorch/Tensorflow implementations of SDProp (Adastand)

Notifications You must be signed in to change notification settings

bunag-public/adastand_pack

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

2 Commits
 
 
 
 
 
 
 
 

Repository files navigation

はじめに

こちらはNTTで開発された深層学習の学習を高速化する技術 Adastand/SDProp のサンプルコードです。

Adastand/SDProp についての詳細は下記を参照ください。

インストール

リポジトリをクローンしてリポジトリのトップディレクトリ(setup.py のあるディレクトリ)で下記を実行してください。

$ pip3 install .

使い方

各フレームワーク向けのパッケージを下記のようにインポートして使ってください(Adastandの場合)。

chainer

from dloptimizer.chainer import Adam
optimizer = Adam(alpha=0.01, adastand=True)

pytorch

from dloptimizer.pytorch import Adastand
optimizer = Adastand(lr=0.01)

tensorflow

from dloptimizer.tensorflow import AdastandOptimizer
optimizer = AdastandOptimizer(learning_rate=0.01)

keras in tensorflow

from dloptimizer.tensorflow.keras import Adastand
optimizer = Adastand(lr=0.01)

Citation of SDProp

@inproceedings{ida17,
  author    = {Yasutoshi Ida and
               Yasuhiro Fujiwara and
               Sotetsu Iwamura},
  title     = {Adaptive Learning Rate via Covariance Matrix Based Preconditioning for Deep Neural Networks},
  booktitle = {Proceedings of the Twenty-Sixth International Joint Conference on Artificial Intelligence ({IJCAI})},
  pages     = {1923--1929},
  year      = {2017}
}

About

Chainer/Pytorch/Tensorflow implementations of SDProp (Adastand)

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Languages