20191008のTensorFlowに関する記事は4件です。

Tensorflow GPUバージョン早見表

Tensorflow GPUとその他パッケージのコンパチ早見表

Tensorflow GPU、なぜか動かなくて禿げそう,いやマジではげそう
そんな時は!

下記ページの「テスト済みのビルド設定」を参照されてください。
https://www.tensorflow.org/install/source?hl=ja#gpu_support_2

image.png

上記バージョンに合わせても動かない場合は下記をチェック!

  • 表のとおりにバージョンを合わせたか?(CUDA=9ならば9.1を避けるなど)
  • tensorflowとtensorflow-gpuがダブっていないか?
  • tensorflow-gpuとpython系は同じバージョンでインストールされているか?
  • 動かしたいソースコードはどのバージョンで作られているか?(更新ごとに関数が追加、削除されるため)
  • 最新バージョンは避ける
  • どう考えてもすべて合わせたのに動かない場合は、全体のバージョンを下げてみる
  • GPUとの互換性はあるか? 新しいバージョンと古いGPUは相性が悪い場合がある
  • 何が動かないのか明確化する
    • tensorflow-gpuはgpuを認識しているか?
    • MNISTデータセットを使ったサンプルは動くか?
    • tf系のメソッドの呼び出しでつっかかっているのか?

全ての手を尽くして、寝ても覚めてもダメなら...
nvidia-dockerを使いましょう

  • このエントリーをはてなブックマークに追加
  • Qiitaで続きを読む

Tensorflow GPU, CUDA, CuDNNのバージョン早見表

Tensorflow GPUとその他パッケージのコンパチ早見表

Tensorflow GPU、なぜか動かなくて禿げそう,いやマジではげそう
そんな時は!

下記ページの「テスト済みのビルド設定」を参照されてください。
https://www.tensorflow.org/install/source?hl=ja#gpu_support_2

image.png

上記バージョンに合わせても動かない場合は下記をチェック!

  • 表のとおりにバージョンを合わせたか?(CUDA=9ならば9.1を避けるなど)
  • tensorflowとtensorflow-gpuがダブっていないか?
  • tensorflow-gpuとpython系は同じバージョンでインストールされているか?
  • 動かしたいソースコードはどのバージョンで作られているか?(更新ごとに関数が追加、削除されるため)
  • 最新バージョンは避ける
  • どう考えてもすべて合わせたのに動かない場合は、全体のバージョンを下げてみる
  • GPUとの互換性はあるか? 新しいバージョンと古いGPUは相性が悪い場合がある
  • 何が動かないのか明確化する
    • tensorflow-gpuはgpuを認識しているか?
    • MNISTデータセットを使ったサンプルは動くか?
    • tf系のメソッドの呼び出しでつっかかっているのか?

全ての手を尽くして、寝ても覚めてもダメなら...
nvidia-dockerを使いましょう

  • このエントリーをはてなブックマークに追加
  • Qiitaで続きを読む

誰でもわかるニューラルネットワーク: 手計算で学ぶ学習(最適化)

ニューラルネットワークや機械学習を始めて学んだときに、大きな障害になるのが学習という概念です。よく耳にするのが「気持ち悪くて使えない」という声です。なぜそのように感じる人がいるのでしょうか?そのような人の多くは学生時代にまじめに数学を学んだ人が多いのです。また、数式を解いて解を得るということに厳しく訓練された人に多いのです。このような方法を解析解を得るといいます。しかし、どのような問題に対しても解析解が得られるわけではありません。問題が複雑になればなるほど解析解は得にくくなります。そこでニューラルネットでは探索法を用いて解を得ています。まずは非常に簡単な例で説明してみましょう。

image.png

この表は掛け算の結果を表しています。$X_1$と$X_2$は2つの変数で、0と1を取ります。$Y$は$X_1$と$X_2$の掛け算の結果です。最初に、$X_1$と$X_2$を入力データとして与えて、つぎに$Y$を正解として与えて、$X$と$Y$の関係を見つけてくださいといったら、一般には結構大変なことをしなければなりません。たとえばこれが掛け算の入力と出力であるとわかっていたとしても、実際にプログラムを組むのは大変です。しかし、ニューラルネットワークでは入力を与えて、つぎに正解データを与えて、学習をさせるとつぎからはちゃんとした答えを返してくれます。その仕組みは探索法にあります。

探索法

実際には
$$Y=f(W_1 X_1+W_2 X_2+B)$$
という方程式の$W_1$と$W_2$と$B$を得ることになります。$f$は活性化関数で事前に指定します。探索法ではこれを探索的に探していくのです。$W_1$と$W_2$に乱数を与えて最も良いと思えるものを得るというのでも可能です。その際には確かに探索のイメージそのものです。しかし、実際にはそれでは問題が複雑になればなるほど結果を得るのにかかる時間が長くなってしまいます。そこで勾配降下法という計算アルゴリズムを用います。アルゴリズムとか言われると難しく感じますが、そうでもありません。勾配というのは階段の上り下り、山登りなどで経験するあの勾配のことです。道の傾斜のことです。これは道の傾きの度合いと言ったらいいでしょうか?では学習の勾配とはどのようなものでしょうか?正直言うと学習の勾配というよりも、学習が定めた目的関数の勾配ということになります。

目的関数と誤差平方和

では目的関数とは何でしょうか?それはこの場合には$Y$と$Y$の推定値$\hat{Y}$の誤差を測定する関数となります。

$$ E=\frac{1}{2}\sum_{k=1}^K(Y_k-\hat{Y_k})^2$$

と表されます。この関数は誤差平方和と呼ばれます。この関数を最小にする$W_1$と$W_2$を見つけるのです。

勾配と微分

山登りの勾配ですが、これは歩いた距離と高さ変化の割合で決まります。関数の場合の同様です。先ほどの例ですと、歩いた距離は$W_1$と$W_2$の変化に相当します。$\Delta W_1$、$\Delta W_2$と書きます。つまりこの場合の勾配は

$$\frac{(W_1+\Delta W_1)X_1+W_2 X_2}{\Delta W_1}$$
$$\frac{W_1 X_1+(W_2+\Delta W_2) X_2}{\Delta W_2}$$
で表されます。$\Delta W_1$を限りなくゼロに近づけると微分になります。この場合には変数が2つあるので偏微分になります。

image.png

この勾配が大きければ、または急勾配であれば重み$W$は最適解から遠く、ゼロであれば傾き、勾配がなく最適解になります。

損失関数の微分は
$$\frac{\partial}{\partial W_1}\frac{1}{2}\sum_{k=1}^K(Y_k-\hat{Y_k})^2=\sum (Y_k-\hat{Y_k})X_{1,k} $$
$$\frac{\partial}{\partial W_2}\frac{1}{2}\sum_{k=1}^K(Y_k-\hat{Y_k})^2=\sum (Y_k-\hat{Y_k})X_{2,k} $$
となります。

勾配法

したがって、勾配法では

$$ 新しい重み=古い重み- 学習率×勾配$$
という形式で更新していきます。
別の書き方をすると

$$ W=W-\eta f(\frac{\partial g}{\partial W})$$
となります。さらに書き換えると
$$W_1=W_1-\eta \sum (Y_k-\hat{Y_k})X_{1,k} $$
$$W_2=W_2-\eta \sum (Y_k-\hat{Y_k})X_{2,k} $$
となります。

$W_1$と$W_2$と$B$の初期値は乱数で決めるのですが、ここでは$W_1=0.1$と$W_2=0.9$と$B=0.5$とします。計算をすると

0.1×0+0.9×0 + 0.5 = 0.5
0.1×0+0.9×1 + 0.5 = 1.4
0.1×1+0.9×0 + 0.5 = 0.6
0.1×1+0.9×1 + 0.5 = 1.5

となります。まとめると

image.png
となります。つぎに活性化関数を当てはめて和算を行います。
image.png

そうすると新しい変数は

W1 = 0.1 - 1×(- 1) = 1.1
W2 = 0.9 - 1×(- 1) = 1.9
B = 0.5 - 1×(- 3) = 3.5
となります。

反復法

誤差を十分に小さくするためにはこの計算を24回程度行えばよいことになります。最終的な重みはW1 = 2.1、W2 = 1.9、B = -2.5となります。この方法は一バッチごとに重みの再計算をしているのでバッチ法と呼ばれます。

さてこの方法のどこが気持ち悪いのでしょうか?それは解がいくつも得られてしまうことです。

確率的勾配降下法

バッチ勾配降下法ではまとまったデータに対して重みの更新をしていきます。しかし、損失関数が最小値に近づいているようなときにはたくさんのデータを用いて損失関数の値を求める必要はないかもしれません。それではときには非効率的です。1つ1つのデータについて重みを更新するのではいけないのでしょうか。損失関数が重みの変化に対してなめらかに減少していくのではなく凹凸がある場合には、そのくぼみから出てこられなくなってしまうかもしれません。よく局所解におちいるというのはこのことです。しかし、別の局面では効率的です。凹凸がなく滑らかであれば、問題ありません。では、局所解におちいる原因はなんでしょうか?いろいろ考えられますが、1つはデータの偏りです。したがって、データの偏りを減らすために乱数を用いて、データの順番を入れ替える方法が考えられました。このような方法を確率的勾配降下法といいます。順番の入れ替えはエポックごとに行われます。またつぎからつぎへと入ってくるデータを用いてそのまま重みを調整するような場合はオンライン学習と呼ばれます。オンライン学習を試してみましょう。

image.png

image.png

参考:
「シミュレーターでまなぶニューラルネットワーク」(アマゾンkindle出版)

image.png

「脳・心・人工知能 数理で脳を解き明かす」(ブルーバックス)
「圧縮センシングにもとづくスパースモデリングへのアプローチ」

誰でもわかるニューラルネットワーク:ロジスティック回帰をテンソルフロー・プレイグラウンドで試してみた。

誰でもわかるニューラルネットワーク

誰でもわかるニューラルネットワーク:「回帰」と「平均への回帰」

誰でもわかるニューラルネットワーク:貧困の撲滅

関連セミナー

4時間でまなぶニューラルネットワーク入門 初心者大歓迎

  • このエントリーをはてなブックマークに追加
  • Qiitaで続きを読む

誰でもわかるニューラルネットワーク: 手計算でまなぶ学習(最適化)

ニューラルネットワークや機械学習を始めて学んだときに、大きな障害になるのが学習という概念です。よく耳にするのが「気持ち悪くて使えない」という声です。なぜそのように感じる人がいるのでしょうか?そのような人の多くは学生時代にまじめに数学を学んだ人が多いのです。また、数式を解いて解を得るということに厳しく訓練された人に多いのです。このような方法を解析解を得るといいます。しかし、どのような問題に対しても解析解が得られるわけではありません。問題が複雑になればなるほど解析解は得にくくなります。そこでニューラルネットでは探索法を用いて解を得ています。まずは非常に簡単な例で説明してみましょう。

image.png

この表は掛け算の結果を表しています。$X_1$と$X_2$は2つの変数で、0と1を取ります。$Y$は$X_1$と$X_2$の掛け算の結果です。最初に、$X_1$と$X_2$を入力データとして与えて、つぎに$Y$を正解として与えて、$X$と$Y$の関係を見つけてくださいといったら、一般には結構大変なことをしなければなりません。たとえばこれが掛け算の入力と出力であるとわかっていたとしても、実際にプログラムを組むのは大変です。しかし、ニューラルネットワークでは入力を与えて、つぎに正解データを与えて、学習をさせるとつぎからはちゃんとした答えを返してくれます。その仕組みは探索法にあります。

探索法

実際には
$$Y=f(W_1 X_1+W_2 X_2+B)$$
という方程式の$W_1$と$W_2$と$B$を得ることになります。$f$は活性化関数で事前に指定します。探索法ではこれを探索的に探していくのです。$W_1$と$W_2$に乱数を与えて最も良いと思えるものを得るというのでも可能です。その際には確かに探索のイメージそのものです。しかし、実際にはそれでは問題が複雑になればなるほど結果を得るのにかかる時間が長くなってしまいます。そこで勾配降下法という計算アルゴリズムを用います。アルゴリズムとか言われると難しく感じますが、そうでもありません。勾配というのは階段の上り下り、山登りなどで経験するあの勾配のことです。道の傾斜のことです。これは道の傾きの度合いと言ったらいいでしょうか?では学習の勾配とはどのようなものでしょうか?正直言うと学習の勾配というよりも、学習が定めた目的関数の勾配ということになります。

目的関数と誤差平方和

では目的関数とは何でしょうか?それはこの場合には$Y$と$Y$の推定値$\hat{Y}$の誤差を測定する関数となります。

$$ E=\frac{1}{2}\sum_{k=1}^K(Y_k-\hat{Y_k})^2$$

と表されます。この関数は誤差平方和と呼ばれます。この関数を最小にする$W_1$と$W_2$を見つけるのです。

勾配と微分

山登りの勾配ですが、これは歩いた距離と高さの変化の割合で決まります。関数の場合も同様です。先ほどの例ですと、歩いた距離は$W_1$と$W_2$の変化に相当します。$\Delta W_1$、$\Delta W_2$と書きます。つまりこの場合の勾配は

$$\frac{(W_1+\Delta W_1)X_1+W_2 X_2}{\Delta W_1}$$
$$\frac{W_1 X_1+(W_2+\Delta W_2) X_2}{\Delta W_2}$$
で表されます。$\Delta W_1$を限りなくゼロに近づけると微分になります。この場合には変数が2つあるので偏微分になります。

image.png

この勾配が大きければ、または急勾配であれば重み$W$は最適解から遠く、ゼロであれば傾き、勾配がなく最適解になります。

損失関数の微分は
$$\frac{\partial}{\partial W_1}\frac{1}{2}\sum_{k=1}^K(Y_k-\hat{Y_k})^2=\sum (Y_k-\hat{Y_k})X_{1,k} $$
$$\frac{\partial}{\partial W_2}\frac{1}{2}\sum_{k=1}^K(Y_k-\hat{Y_k})^2=\sum (Y_k-\hat{Y_k})X_{2,k} $$
となります。

勾配法

したがって、勾配法では

$$ 新しい重み=古い重み- 学習率×勾配$$
という形式で更新していきます。
別の書き方をすると

$$ W=W-\eta f(\frac{\partial g}{\partial W})$$
となります。さらに書き換えると
$$W_1=W_1-\eta \sum (Y_k-\hat{Y_k})X_{1,k} $$
$$W_2=W_2-\eta \sum (Y_k-\hat{Y_k})X_{2,k} $$
となります。

$W_1$と$W_2$と$B$の初期値は乱数で決めるのですが、ここでは$W_1=0.1$と$W_2=0.9$と$B=0.5$とします。計算をすると

0.1×0+0.9×0 + 0.5 = 0.5
0.1×0+0.9×1 + 0.5 = 1.4
0.1×1+0.9×0 + 0.5 = 0.6
0.1×1+0.9×1 + 0.5 = 1.5

となります。手計算でもできます。脳のために良いのでやってみてください。まとめると

image.png
となります。つぎに活性化関数を当てはめて和算を行います。
image.png

そうすると新しい変数は

W1 = 0.1 - 1×(- 1) = 1.1
W2 = 0.9 - 1×(- 1) = 1.9
B = 0.5 - 1×(- 3) = 3.5
となります。

反復法

誤差を十分に小さくするためにはこの計算を24回程度行えばよいことになります。最終的な重みはW1 = 2.1、W2 = 1.9、B = -2.5となります。この方法は1バッチごとに重みの再計算をしているのでバッチ法と呼ばれます。

さてこの方法のどこが気持ち悪いのでしょうか?それは解がいくつも得られてしまうことです。

確率的勾配降下法

バッチ勾配降下法ではまとまったデータに対して重みの更新をしていきます。しかし、損失関数が最小値に近づいているようなときにはたくさんのデータを用いて損失関数の値を求める必要はないかもしれません。それではときには非効率的です。1つ1つのデータについて重みを更新するのではいけないのでしょうか。損失関数が重みの変化に対してなめらかに減少していくのではなく凹凸がある場合には、そのくぼみから出てこられなくなってしまうかもしれません。よく局所解におちいるというのはこのことです。では、局所解におちいる原因はなんでしょうか?いろいろ考えられますが、1つはデータの偏りです。したがって、データの偏りを減らすために乱数を用いて、データの順番を入れ替える方法が考えられました。このような方法を確率的勾配降下法といいます。順番の入れ替えはエポックごとに行われます。またつぎからつぎへと入ってくるデータを用いてそのまま重みを調整するような場合はオンライン学習と呼ばれます。オンライン学習を試してみましょう。

image.png

image.png

解が2つ得られましたが、どちらも正解です。

気持ち悪いを気持ちよいに変える

ここまでで、何となく気持ち悪いという人の気持ちが分かったのではないでしょうか?単純パーセプトロンの欠点は複数の解が得られてしまう点です。また、勾配降下法に相当する自然界の仕組みはありません。そのような点も気持ち悪いに直結するのです。確率勾配降下法ですが、これは勾配降下法に乱数を用いて計算の効率を改善させただけで、やはりこの仕組みは自然界にはありません。しかし、反復法の欠点に思える気持ち悪い点ですが、実は強みでもあるのです。確率勾配降下法の説明の中で局所解におちいるという説明をしました。

image.png

これを解決してくれ方法の1つがシミュレーテッドアニーリングという手法です。これは熱力学的ゆらぎを利用しています。焼きなまし法ともいわれます。重みを最適化する際に、目的関数に乱数を加えてあげます。これは熱力学的ゆらぎを利用しています。また、正則化を利用する方法もあります。その場合には量子ゆらぎを利用していることになります。重みの関数を目的関数に加えます。このような背後に何らかの原理がある柔軟性のある最適化を用いることができることがニューラルネットワークの強みなのです。これは機械学習についても言えます。そして、このような方法は汎化性能という、未知のデータに対しても有効にモデルが機能する能力を向上させる可能性があるのです。

参考:
「シミュレーターでまなぶニューラルネットワーク」(アマゾンkindle出版)

image.png

「脳・心・人工知能 数理で脳を解き明かす」(ブルーバックス)
「圧縮センシングにもとづくスパースモデリングへのアプローチ」

誰でもわかるニューラルネットワーク:正則化をテンソルフロープレイグラウンドで試してみた

誰でもわかるニューラルネットワーク:「回帰」と「平均への回帰」

誰でもわかるニューラルネットワーク:貧困の撲滅

誰でもわかるニューラルネットワーク:分類の仕組み

  • このエントリーをはてなブックマークに追加
  • Qiitaで続きを読む