- 投稿日:2019-12-15T23:31:13+09:00
jetson nano セットアップ
Jetson nano 購入から物体認識(リンゴとミカン)までの手順By カワシマ AI, Jetson, Linux, Python, 機械
sudo apt-get install git cmake
gitとコンパイルに必要なcmakeをとってきます。git clone https://github.com/dusty-nv/jetson-inference
cd jetson-inference
git submodule update --initレポジトリをcloneをします。場所はホームディレクトリで問題ないでしょう。
それから、cloneしたディレクトリに入って、依存するモジュールも全部とってきます。
次は
mkdir build
cd build
cmake ../buildというビルド用のフォルダを作って、buildディレクトリに入って、cmakeでコンパイルの準備をします。
Jetson nanoサンプルコードのコンパイル
次はcd jetson-inference/build
make
sudo make installcd jetson-inference/build
make
sudo make install
jetson-inference/buildのディレクトリにいることを確認して、makeでコンパイルします。その後、make installでインストールを完成させます。cd jetson-inference/build
make
sudo make instal実行
etson nanoサンプルコードを動かそう!
次はcd jetson-inference/build/aarch64/bin
上のディレクトリに移動します。ここにいくつかのプログラムがすでに(コンパイルとインストールで)用意されています。
まず1回目下記のコマンドを実行しましょう(Terminalで)
./imagenet-console orange_0.jpg output_0.jpg
orange_0.jpgという写真をインプットとして、認識した結果をoutput_0.jpgに書き込みます。
- 投稿日:2019-12-15T08:27:41+09:00
TensorFlow2.0の傾向と対策 ~ DeepMind Sonnet2で見る深層学習プログラミング
前置き
これはTensorFlow2.0 Advent Calendar 2019の15日目のエントリです。また、「TensorFlow2.0の傾向と対策」シリーズの4つ目の記事でもあります。
この記事では、DeepMindのSonnetのTF2版のSonnet2を紹介し、深層学習ライブラリについての考察を添えます。
他記事に無い部分は以下の項目と思います。
- Sonnet2
tf.Module
- 提案「訓練シナリオの独立」
- 深層学習用モジュールの分類
Sonnet2に興味のない方は、最後の方の「深層学習とモジュール化」の章まで飛ばすと良いかもしれません。
Sonnet2について
DeepMindが以前から公開していたSonnetというライブラリがあります。これをTF2化したのがSonnet2です。これは、深層学習のネットワークを記述するためのTensorFlowの薄いラッパーです。
2019年12月15日現在、Sonnetリポジトリのv2ブランチで開発中であり、ベータ版が公開されています。Sonnet2の使い方
インストール
$ pip install tensorflow-gpu tensorflow-probability $ pip install "dm-sonnet>=2.0.0b0" --prepipコマンドの違いやgpuの有無は環境に応じて行ってください。pipenvを使う場合は注意が必要です。(「XX-manylinux2010_x86_64.whlをpipenvで扱えなかった件とその暫定対処」を参考にしてください)。
基本API
Sonnet2を理解するには、
snt.Module
とsnt.once
だけ把握すれば良いです。例えば、こんな感じです。
import tensorflow as tf import sonnet as snt class FC(snt.Module): def __init__(self, ch, name=None): super().__init__(name=name) self.ch = ch @snt.once def _initialize(self, x): ch_in = x.shape[-1] self.w = tf.Variable(tf.zeros([ch_in, self.ch]), dtype=tf.float32) self.b = tf.Variable(tf.zeros([self.ch]), dtype=tf.float32) def __call__(self, x): self._initialize(x) return tf.matmul(x, self.w) + self.b x = tf.zeros([1, 7]) fc = FC(5) print(fc(x)) print(fc.variables)
snt.Module
を継承したクラスで__call__
メソッドでネットワークを書く__call__
の先頭で変数を作る(__initialize
)- 変数の作成は一度でいいので、
__initialize
にsnt.once
デコレータをつける- 変数はvariablesプロパティで取得する(呼ばれるまで変数が作られないことがあるのに注意)
snt.Module
snt.Module
はモデルや層を表すクラスです。役割は、変数の管理・ネットワーク(計算)の定義です。
Sonnet2にはsnt.Module
で作られた層(畳み込み等)があり、それを使うと便利です。snt.Module
の中にsnt.Module
を入れれるので、全体等の分かりやすい単位のsnt.Module
を作成することができます。このとき、内部のsnt.Module
の変数は、全体のsnt.Module
の変数一覧(variables)に含まれます。class TotalModel(snt.Module): def __init__(self, name=None): super().__init___(self, name=name) self.sub1 = SubModel1() self.sub2 = SubModel1() self.sub3 = SubModel1() def __call__(self, x): return self.sub3(self.sub2(self.sub1(x)))snt.once
層を定義するときに入力のチャンネル数を書くのってだるいですよね。ということで、その層に初めて入力が来たときに入力のチャンネル数を見て決定するインターフェースになったライブラリをよく見かけます。Sonnet2でこれを実現する仕組みが
snt.once
です。これは、対象の関数が1回しか実行されないようにするデコレータです。
- 初期化の処理のメソッドを作る
- そのメソッドに
snt.once
のデコレータをつける__call__
の先頭でそのメソッドを呼ぶという流れで使うと分かりやすいプログラムになると思います。
Sonnet2とSonnet1の違い(tf.Module)
TensorFlow内部にたくさんあったニューラルネット用の高レベルAPIを
tf.keras
に統一したのがTF2の大きな特徴です。この裏でTensorFlowにtf.Moduleが導入されました(TF1系でも1.14から利用できます)。実を言うと、snt.Module
はtf.Module
の機能をちょっといじった程度のものです。そのため、Sonnetのコア機能がTF2に吸収されたと言えます。
Sonnet1とSonnet2のコア機能のソースコードを比較するとかなりすっきりしたことが分かります。
バージョン コア機能 ソースコードの特徴 ソースコード Sonnet1 snt.AbstractModule
tf.make_template
やcustom_getterを駆使、メソッドが多いsonnet/python/modules/base.py(コミット: ee1731e87f) Sonnet2 snt.Module
すっきり sonnet/src/base.py(コミット: 84817e56a2) 機械学習・深層学習で得られるモデルは、言ってみれば、(大量の)パラメータで構成された関数です。この単位(パラメータ+関数)でニューラルネットを管理する機能を持ったライブラリが多く、
tf.Module
でTensorFlowにもそれが導入されたというわけです。
実は、tf.keras.Model
もtf.Module
を継承しています。SonnetとKerasの違い(訓練シナリオの有無)
ここまで読んでくれた読者は「もうTensorFlowの高レベルAPIはKerasって決まったんだから、それ以外のライブラリを勧めないでくれ!!」みたいに怒り出したりしないでしょうが、Kerasとの違いは気になると思います。両者の違いはカバー範囲にあります。Kerasがネットワーク記述から訓練ループまでサポートしているのに対して、Sonnetが扱うのは個々の部品です。
典型的な訓練パターンであれば、ネットワークをtf.keras.Model
の形で用意し、compile
メソッドでoptimizerをセットしてfit
やfit_generator
を用いて訓練するというのがKerasのやり方です。Kerasの優れた点は、callbackを使って訓練ループをカスタマイズできることです。
一方で、Sonnetの背景には多種の訓練パターンに取り組んでいるDeepMindの研究者の事情があります。READMEには以下のように書かれています。Sonnet has been designed and built by researchers at DeepMind. It can be used to construct neural networks for many different purposes (un/supervised learning, reinforcement learning, ...). We find it is a successful abstraction for our organization, you might too!
違いをまとめるとこんな感じでしょうか。
ライブラリ サポート範囲 想定ユーザー 訓練シナリオ Keras ネットワークから訓練まで多機能 典型的な訓練を行う幅広い人 fit等、callbackでカスタマイズ Sonnet ネットワーク DeepMindの研修者のような多様な訓練を行う人 別途用意 深層学習とモジュール化
相変わらず深層学習の研究は盛んで、論文の再現用コード・訓練ツール・ライブラリ等の形で次々公開されています。近年の手法では、特に、
- アーキテクチャの複雑化
- マルチGPUの活用法の多様化
- データセットの個性化・多様化
が進んでいます。そのような状況のせいか、論文の再現用コードから新しい手法を部分的に取り込もうにも、容易でない場合が多く見受けられます。人気の分野であれば、訓練ツールやライブラリとして整備されますが、そうでないと強い人が力技で書いたコードと魔改造を重ねた秘伝のたれが蔓延しかねません。それを防ぐ上手いモジュール化を議論し共有したいです(この章の内容は「TensorFlow2.0の傾向と対策 〜 TensorFlowの消失」で勧めたリファクタリングの具体案にあたり、当時書こうとしてさぼっていたものです)。
提案は、(訓練)シナリオのモジュールを独立させるという案です。
訓練シナリオの例
例えば、次の疑似コードようにモデル等を引数で動作させる仕組みで抽象化する感じです。
class GANTrainSenario: def __init__(self, step, save_interval, save_dir): """ 訓練ループに関わる設定をまず行う """ self.step = step self.save_interval = save_interval self.save_dir = save_dir def __call__(self, model_g: tf.Module, model_d: tf.Module, opt_g, opt_d, loss_g, loss_d, data_loader): ``` ループと独立したものはこの引数で受け取る ``` for i in range(1, self.step + 1): input_g = data_loader.get("g") # data_loaderは雰囲気で解釈してください opt_g.minimize(lambda: loss_g(model_d(model_g(input_g))), variables=model_g.variables) input_g, input_d, expected = data_loader.get("gd") input_d_concat = concat(model_g(input_g), input_d) opt_g.minimize(lambda: loss_d(model_d(input_d_concat), expected), variables=model_d.variables) if i % self.save_interval == 0: save(model_g, model_d, save_dir)例えば、次のようなディレクトリ構造でファイルを分けるだけでも、部分的に利用したい人にとって大いに助けになると思います。
. ├── oreore_net │ ├── __init__.py │ ├── dataset.py │ ├── loss.py │ ├── net.py │ └── scenario.py ├── README.md ├── samples # ここに論文の再現用コードを置くなど └── setup.py # `pip install`できるようにするSonnetやKerasを見ながら考える深層学習のモジュール
深層学習はそれなりに多くの要素で構成されます。それらは凡そ次のように分類できると考えています。
- 計算系(ニューラルネット, optimizer, loss)
- リソース系(計算リソース, データセット, 作業領域, pretrainな初期値)
- シナリオ系(訓練, 推論)
- 評価系
- エクスポート系(TensorFlowLite, TensorRT, ...)
Sonnetは計算系で、Kerasは全部入りといった感じです。
最後に
Sonnet2はまだベータ版であり、正式リリースが待ち遠しいです。
深層学習のモジュールの分類をしましたが、その中でも、シナリオ系・評価系は他に比べて目立たず充実していないように思います(主観的ですが)。シナリオ系・評価系のライブラリが充実すると世界中の研究がはかどるので、そういうのが増えて欲しいです。