course3 修了!
CourseraでAndrew Ng氏のDeep Learning Specializationを受講しています。
course3: Structuring Machine Learning Projects
修了しました!
やった\(^_^)/
course2 修了
CourseraでAndrew Ng氏のDeep Learning Specializationを受講しています。
course2: Improving DNN: Hyperparameters tuning, Regularization and Optimization
修了しました!
やったね\(^_^)/
C3W1
けろ〜るです。
CourseraでAndrew Ng氏のDeep Learning Specializationを受講しています。
いま、course3: Structuring Machine Learning Projectsです。
week1が終わりました\(^_^)/
自分用のまとめをあげます。
course3の内容は、今まで大学の授業でも扱われてこなかったユニークなもの、とビデオの中でおっしゃっています。
実践的な内容になっていて面白いです。
avoidable biasとvariance、どちらに手をつけるのが効果的か。training errorやdev errorにどうやって対応していくか。
satisficing metricは、それでもより良い数値の方がいいかな…と思ってしまいがちだけど、閾値を超えてなければ良しとしてそれ以上踏み込まない、ってところも改めてそうだなと思いました。←クイズで迷った時思い出しました。
course3は、プログラミング課題がなく、クイズだけなので一息つけます。
クイズはストーリー仕立てになっていて、peacetopiaの住民は鳥が嫌いなので防犯カメラの映像で鳥検出器を作ろうというもの。最後に猫が出てくるところはAndrew先生のユーモアが効いてます!
さぁ、week2へ!
C2W2
courseraでAndrew Ng氏のDeep Learning Specializationを受講しています。
いま、course2: Improving DNN: Hyperparameters tuning, Regularization and Optimizationです。
week2が終わりました\(^_^)/
自分用のまとめをあげます。
momentumまではOKだけど、RMS propで二乗がつくところ、さらにAdamでルートがつくところは実装するとうまくいくけど、「何故」っていうのがわからないままです。
Adam+ミニバッチでやると、早く学習できた。しかもメモリーも少なくて済む。
プログラミング課題で引っかかったのは、配列から特定の列を取り出す作業。1次元の配列なら、
W[開始:終了:ステップ]
だけど、終了はその数を含まない。ここ間違えてた。例えば、
W[3:7] は[3 4 5 6]として7は含まない。
Pythonではforループも
for i in range[開始:終了:ステップ]
で、for i in range[7] はi=0,1,2,3,4,5,6で7は含まない(開始のデフォルトは0)。
Pythonはなんでこうしたんだろう。そこが知りたい。
配列のインデックスが1ではなく0から始まるのと同じく、私の中では違和感あるところ。セットで覚えるしかないですね。
さぁ、week3へ!
ブログを始めました!
こんにちは。けろ〜るといいます。
雑多な事を描いていこうと思います。
読んだ本のこととか、聞いた講演会のこととか、見た展覧会のこととか。
あと、今勉強してしている機械学習や深層学習のこととか。
記憶力が悪いので忘れないように、書き出しておきたい。
また、書くことによって自分の中に定着させたい。
一箇所にまとめたい。
つまり完全に自分のためですf(^^);
でも、見た方から感想やご意見いただけたらそれも嬉しいです。
ともかく続くかな??
あまり時間かけると続かなそうだから、短めに、
ゆるゆるとやっていこう〜
けろけろ〜