C2W2
courseraでAndrew Ng氏のDeep Learning Specializationを受講しています。
いま、course2: Improving DNN: Hyperparameters tuning, Regularization and Optimizationです。
week2が終わりました\(^_^)/
自分用のまとめをあげます。
momentumまではOKだけど、RMS propで二乗がつくところ、さらにAdamでルートがつくところは実装するとうまくいくけど、「何故」っていうのがわからないままです。
Adam+ミニバッチでやると、早く学習できた。しかもメモリーも少なくて済む。
プログラミング課題で引っかかったのは、配列から特定の列を取り出す作業。1次元の配列なら、
W[開始:終了:ステップ]
だけど、終了はその数を含まない。ここ間違えてた。例えば、
W[3:7] は[3 4 5 6]として7は含まない。
Pythonではforループも
for i in range[開始:終了:ステップ]
で、for i in range[7] はi=0,1,2,3,4,5,6で7は含まない(開始のデフォルトは0)。
Pythonはなんでこうしたんだろう。そこが知りたい。
配列のインデックスが1ではなく0から始まるのと同じく、私の中では違和感あるところ。セットで覚えるしかないですね。
さぁ、week3へ!