スクリプト

最近、ディープラーニングを勉強したこともあり、ちょっとしたプログラミングには Python を使うことが多くなった。

古い人間なので、普段は シェルスクリプトと awk を使うことが多かったし、今でも使うけど、Python のライブラリの強力さには魅力を感じている。 Pandas とか Numpy とか Matplotlib とか強力すぎ。

awk は、もう仕様を丸暗記に近いレベルで覚えているので、何も見ずに書けるから早い。 その成立に、敬愛する B.W.Kernighan が関わっているのもいい。 ライブラリとか、言語拡張の類が全く無いので、テキスト処理にしか使えないが。

Perl は chop が便利だったけど、普段使いにはならなかった。

Ruby は日本発なのが良かったし、機能も申し分なかったが、何か馴染めなかった。

Javascript (Node.js) は、たまに使っている。

多少本格的なのを組むことになったら、昔は Java だったけど、今は何になるんだろうな。。。多分組まないけど(笑)

サーバーっぽいのだったら、Node.js かな。

Surface Book の GPU で Deep Learning(続)

以前のネタの続き。

Deep Learning を学ぶにあたって、フロントを Keras 、バックエンドに TensorFlow を使っていたんだけど、Keras はバックエンドに、TensorFlow 以外にも、TheanoMicrosoft の CNTK を使うことが出来ることに気づいた。

Theano は試してみたけど、Windows だと gcc を入れたりとか、数値演算のライブラリのセットアップがかなり面倒な上に、実行時に毎回 g++ だかのビルドが入るので、パフォーマンス的には微妙だった。 CPU使用で、はまると速い感じはしたが、積極的に使いたい感じではなかった。

CNTK は Microsoft 製だが GitHub で公開されていたり、Linux 版があったり、ライセンスがおおむねMITだったりとか、最近頑張ってるなあという印象。

インストールも`pip install whlへのURL` とするだけで簡単だった。

Keras の設定は `C:\Users\ユーザ名\.keras\keras.json` ファイルの


{
    "image_data_format": "channels_last",
    "epsilon": 1e-07,
    "floatx": "float32",
    "backend": "tensorflow"
}

`tensorflow` となっているところを `cntk` に書き換えれば OK。

バックエンドを切り替えるだけなので、Keras 用に書かれた Python のソースは変更する必要は無い。

で、サンプルの実行だが、サンプルにもよるが、全体的に TensorFlow よりも高速に感じられる。 CPUのみだと、逆に遅いケースもあるようだ。

Surface Book での GPU 使用だが、CUDA と CuDNN が入っていれば、何も考えなくても使ってくれる。 使用中の様子は `nvidia-smi.exe -l` で確認できる。

TensorFlow の場合は、多少メモリ効率が悪くて、パフォーマンスが出なくても、なんとか GPU で動かしてくれる感じだったが、CNTK の場合は、テストバッチがメモリに収まりきれないと、簡単にエラーで止まってしまう仕様のように見える。

結果的に、バッチサイズやネットワークの深さの調整が必要になったりするが、GPU を使っているのにパフォーマンスが出ないケースが否が応でも排除されてしまうので、開発の時間効率はかえって良いのではないかと思う。

ということで、CNTK に乗り換えて、結構快適になった。

Surface Book の GPU で Deep Learning

表題の通り、Surface Book (i5モデル) の GPU で Deep Learning を試してみた話。

(2017/08/02 さらに追記)
(2017/07/25 末尾に追記。有効なケースについて)

最近、ふと deep learning について勉強したくなって、ちょっとしたサンプルプログラムを動かしたりしている。 まだ理論をきちんと理解していないので、サンプルを書き換えるのも、ままならない状態だが、何かの役に立てば面白いかなと思っている。

演算には結構時間がかかるが、GPU を使えば高速化できるらしい。
そういえば、Surface にも GPU 入っているのを思い出したので、試してみることにした。

Surface Book の i5/8GB/256GB のモデルには、dGPU という NVIDIA製の無銘GPUが搭載されている。 一応、CUDA も動くみたい。

  • Windows 10
  • Cuda 8.0
  • CuDNN 5.1
  • Tensorflow GPU 1.2.1

どれも普通にインストールしただけ。CuDNNはシステム環境設定のPATHをbinに通しておく。 TensorFlow も公式の手順で pip install しただけ。 インストールして、以下サイトのサンプルを動かしてみると。。。

RNNで来月の航空会社の乗客数を予測する:TFLearnでLSTMからGRUまで実装しよう

なんと、GPU より CPU のほうが早かった。。。
(ひどいオチだ。。。)

なんかね、3000 x 2000 pixel の表示を高速化するために搭載されてはいるが、そういうことには使わないでくださいって感じ。。。

一応認識されたし、動きはしたけど、演算は無理でした。残念。。。

ちなみに、deep learning の参考書はこれ。いい本だと思う。

Surface でこれなので、お得意の Raspberry Pi では。。。インストールする気も起きないです(笑)

(2017/07/25 追記)
サンプルプログラムによっては、速くなるものもあることが分かった。
スピードは倍くらいになる。 GPUのメモリが1GBしかないので、メモリに関する部分でパフォーマンスに差が出るようだ。

とりあえず、GPU版を入れておいて、Windows の場合、システム環境変数で切り替えるのがよさそう。
CUDA_VISIBLE_DEVICES=-1 で無効、CUDA_VISIBLE_DEVICES=0 で有効。

(2017/08/02 追記)
GPUのメモリが少ないので、バッチサイズは小さめにする必要があるが、うまく調整すれば、3~4倍程度のパフォーマンスが出ることを確認。
調整には、nvidia-smi や NvGpuUtilization ツールを使うとやりやすい。

チャイナパワー

しばらくソフトウェアの仕事から離れていて、ここ数ヶ月の間に、再履修みたいな感じで、オープンソース界隈を眺めていた。 自分の興味の対象とかもあって、偏りはあるけれども、おおむね感じたこととしては。。。

最重要なソフトウェアの、重要なポジションに日本人はいる。頑張ってる。
でも、荒削りでも、新しく、元気なソフトウェアプロジェクトのコミッターには、中国の人のパワーを感じる。

ということ。

国内で人気サイトを運営しているところのエンジニアさんの blog なんかを見ると、頑張っている人も沢山いるのも分かるけど。

もっと、日本人も積極的に出て行かないと、終わるよ。。。
というか、終わりの始まりを見ているのかも。

自分が現役でソフトの業界にいたときは、日本ローカルの SI 活動は、責任のなすりつけあいのために、信頼性はあるけど、たいした機能も無い、化石みたいなソフトウェアをありがたがって使っている傾向があったけど、今でもそうなんでしょうかねえ。

Chrome 上の SSH クライアント Secure Shell

SSH クライアントとしては、 Windows では PuTTY を使っていたけど、 Chrome アプリで Secure Shell というのが便利で、今はこっちをメインに使っている。

サーバーのインストールなんかをしていると、 SSH のキーが変わってしまったりすることがあって、そこに Secure Shell をつなぎに行くとエラーが出ることがある。 いわゆる ~/.ssh に相当するものを消せばいいんだけど、 その方法がちょっとわかりにくかったので、ここに書いてみる。

Secure Shell が起動しているタブを開いた状態で、 Chrome の メニューから [その他のツール(L)]-[デベロッパーツール(D)] と操作し、右側に分割画面が出たら、上の方にある [Console] タブをクリック。

以下の内容を打ち込んで [Enter] を叩けば消せる。

キーの削除

term_.command.removeDirectory('/.ssh/')

known_hosts の削除

term_.command.removeAllKnownHosts()

参考: hterm and Secure Shell Frequently Asked Question https://goo.gl/muppJj