けろろぐ

55歳のとき、主婦はMLに出会って感動しました。現在DL勉強中〜。ミリリットルとデシリットル??

ずぅむ

Zoom

Zoomを使ったイベントに参加したので備忘録。

イベントは55×6コマ。休憩5分、昼休み50分。大学の講義をZoomで聞くことを想定して参加した。Zoomも操作も確認しておく。

ちょっとした感想まとめ。

 

 

・はじめにZoomの説明がありわかりやすかった。

チャット、QAの使い方を説明して、試しに入力してみてくださいなど。また、主催者以外の人からのチャットにあるURLをクリックしないようとの注意もあり。

途中で気づいたけど、スペースバーを押すとミュート解除になる。うっかり触らないようにしないと。

 

・音声を比較 ノーパソのスピーカー、有線イヤホン、完全ワイヤレスイヤホン、の3種類で聞いて比較した。

完全ワイヤレスイヤホンは声がくぐもって聞こえるので、有線イヤホンがベスト。この有線イヤホンは千円くらいのもので巻き取りリール付き、電車内でスマホからCoursera聞くために使ってた安物なのに意外だな。高い音がシャカシャカするので低音響かせる音楽には向かないが、人の声とか聞きやすい。

Zoomで突然音が出ちゃってあわてて消そうとしてiPhoneiPadやパソコンの音量ボタンを下げてもZoomの音量は変わらない。これ結構あせる。Zoomの中でオーディオから音量調節、だったと思う。

有線イヤホンはジャックをパソコンに差し込めばOK。完全ワイヤレスイヤホンはパソコンとペアリングして接続しても聞こえない。Zoomのオーディオメニューでそのイヤホンを選ばないとだめ。パソコンのスピーカーに戻すにも逆の作業が必要。これは本番の授業で試すわけにいかないから事前に要確認だ。

 

・画面の見やすさ比較 ノーパソ(MBA 13インチ)、iPad(12.9インチ)、iPhon SE4インチ)で比較。チャットが常に表示できるという点でノートが一番いい。iPadiPhoneは、チャットを表示させるとメインの画面が隠れてしまう。授業ではチャットはあまり関係ないかもしれないが。チャットが多いと疲れるな、おもしろいんだけど気が散るというか。私、ノーパソとかノートパソコンとかノートって言う言葉ふだん使わないんだけど何ていうのかな?職場でラップトップって言ったらおぉーってなったことがある(古いから)。

 

iPhoneでも原稿見やすい 画面小さいけどスライドははっきり見える。これは意外だった。

 

・チャットすると名前がのる 自分の名前の表示は変えられる。けど、今回参加したイベントでは変えられなかったのは何故かなぁ。主催者側で登録時の名前を表示させるとか? チャットでみんな実名出しててどうかなぁと思った。

 

・スライドの画面みやすい 学校の白板より見やすいかも。私は目が悪いから前の方に座ってても白板見づらいときが、とくにかすれたり細いマーカー、緑のマーカーなど。あと、PC画面を投影されるのも見づらくてスマホで撮って拡大して見てた。みんなは平気だったのか、、。だからZoomだとその点はいいかも。でも板書じゃなくてスライドだと進みが早い、ノート書くと頭に残るからほんとはスライドより板書がいいけどZoomではスライド使用になるだろう。そういえば去年理学部の大教室授業で先生が「年々板書するのがきつくなるからスライドにしようと思うけど・・」ってみんなに聞いたらほとんどの学生が「Noー!板書がいいー」って言ってて、みんなもそうなのかと思った。スライドってなんとなくわかったような気になっちゃうけど実はそうでもないからね。

 

・ノーパソの画面高くしたい 長時間画面見るのは慣れているんだけど、1時間×6は首が痛くなる。途中で台に乗せて見たら良かった。食器棚につける空いてるスペースにお皿などを乗せられる百均で買った台。金属の棒でできてる。9センチくらい高くなり目線も楽。浮いたスペースが有効に使えていいかも。机の奥行きは限られてるので。でもキーボード沢山打つときには不向きなので台から降ろす。なんだかな。



ノートパソコンを乗せた台の図

ノートパソコンを乗せた台の図

 

・画面大きい方が見やすい 授業用には大きいディスプレーを買うというのもありだな。もう少し考えよう。

 

・パソコン壊れたらアウト スマホ等でも使える環境整備しとかないと。

 

・画面見続け疲れる 椅子座り続けも疲れる。なんでかな、授業でも同じなのに。姿勢か。WFH用に椅子買う話は聞くけど。この椅子(以前食卓で使ってた)は別にいいと思うんだけど。膝が90度に固定しちゃいそうな感じ、歩かないからか。

 

・休憩時間には音楽流れてると音声接続してることを確認できるし音量調整できて良かった。

 

・休憩慌ただしいなー イベントでは5分程度だった。身体を動かしたいので、トイレってお茶飲んで戻る。大学でも10分で同じことしてるのに環境が変わるって大事なのかな。教室だけでなく、受講生も変わったりするし。

 

・インターネット不安定になる 1回インターネットが不安定です、って画面に出て音声が遅れた。理由はわからず。もし自宅で例えば子供が何人かいて親は在宅でとみんながネットつないでZoomだなんだとやってたら大丈夫なのかしら。

 

・眠気 やっぱりお昼過ぎはある。これはどうしようもないと思う。なるべくこの時間の授業避けたいけどそうもいかないし。。またミンティア激辛にお世話になるか。

 

・音声の後ろに雑音 最後のほうでスピーカーさんの声の後ろに音楽みたいのがずっと小さく聞こえてた。スピーカーさんの背景音なのか、無線が混戦しちゃったような感じの雑音が聞こえて、謎。

 

以上。ざざっと体験記。

AI美空ひばり

明日の夜、こういう番組があるそうなので。見る前に書きました。

www4.nhk.or.jp

 

先月、これに行きました。

www.mori.art.museum

この展覧会についてはまた別の機会に。

なんで行ったかというと、『特別企画AI×美空ひばり「あれから」』もやっててこちらは2月中だったから。しかも新型コロナで見られなくなりそうと思ってあわてて行った。

 

でもちょっと期待外れ。というか、暗い部屋に大きなスクリーンがあって椅子が沢山並んでて「あれから」のYouTubeが流れている、というものだった。無料なんだから仕方ないけど、これなら家で見た内容と同じ。本当は上のHPにあったような制作の過程とかが知りたかったのに。ちなみに「あれから」のYouTubeはこちら

[NHKスペシャル] AIでよみがえる美空ひばり | 新曲 あれから |

https://www.youtube.com/watch?v=nOLuI7nPQWU

 

私は美空ひばりはリンゴ追分くらいのイメージしかなくて特に聞くこともない。「あれから」は耳に残る曲だし、曲自体は悪くはないけど(好きかどうかは別として)。

 

でもこれは嫌だな。はっきりと嫌。違和感。

 

こんなことしていいの? 死者の尊厳は?

これがヒトラーだったら? XXXXだったら?

どんなに見た感じや歌い方が似てても本人じゃない。

 

2年くらい前に友人のご主人が事故で亡くなった。少し経ってから友人に「もう一度主人に会いたい。VRで写してAIで話すことできるよね?」と言われてその時は彼女の気持ちを思った。でも今は違う。きっと彼女もそれを望んでいないと思う。

 

そして最近見たこの記事も。

亡くなった娘とバーチャルな世界で再会したという記事。その後母親はどうだっただろう。

toyokeizai.net

 

技術でできることと実際に使うことは違う。まさに情報倫理の問題。

 

私は少し前に父が亡くなった。今でも父を思いださない日はない。しかし、父とこのようにして会いたいとは思わない。亡くなった人と別れるのは時間がかかるのだろう。でもそれが自然。人間には乗り越える力があるはず。

 

 

死者に語らせる危うさ 中島岳志 2020/01/29 東京新聞夕刊

死者に語らせる危うさ 中島岳志 2020/01/29 東京新聞夕刊



AIの力で蘇生 実用段階に 藤村厚夫 2020/02/24 日経MJ新聞

AIの力で蘇生 実用段階に 藤村厚夫 2020/02/24 日経MJ新聞

 

2020/04/20 追記:

「情報処理」2020年4月号に折田 明子氏の『亡くなった人とのVR「再会」をめぐって』という記事があり読んだ。

良い記事で考えさせられる。

 

C4W4

CourseraでAndrew Ng氏のDeep Learning Specializationを受講しています。

course4: Convolutional Neural Networksのweek4が終わったので自分用のまとめをあげます。

 

f:id:kerolog:20180624171103j:image

 

今回の"Neural Style Tranfer"は始める前から楽しみでした。やっとここまで来られた! 画像生成は楽しくて、あれやこれやしつこく試しました。それは別の記事であげたいと思います。

weightsではなくpixel valuesをupdateしていくのも新しい。NNっていろんな手法があるんだなぁ。

でも、私にとって仕組みを理解するのは簡単ではないです。

style costについて、、、

Gram matrixの各要素は同じ層のチャネル間の相関を表しているっていうところまではわかりました。でも、チャネル間でのactivationsの相関がなぜ必要なのか。フィルタiとフィルタjが似ていればGijが大きくなるのか。似てても小さいことはないのか。なぜこれでstyleが掴めるのか。

ビデオも何度も見て、programming exerciseも繰り返して、discussion forumも探しました。元の論文も読み、わからないのでネット記事を日本語も英語も読みあさり、動画も見て・・。それでもなんだかもやもやしてます。こんな時、誰かに聞けたらなぁ。あぁ、誰か教えてくださいorz

それでも、論文を読んでみるのはいい経験になります。ネットで手に入る良い時代だと思います。Andrew先生は元の論文をあげてくれるので、今はすらすらとは読めないけれど、もっと読めるようになりたいです。

 

それからもう一つの"Face Recognition"、こちらはきっちりわかりました。

こうやって先人が大量のデータを使ってNNをtrainし、そのパラメータをオープンソースにあげて誰でも使えるようにしてくれているのは、すごいことだなと思います。

オープンソースにあげるようなものは信頼して使えますが、でも、悪意をもった人がデータに正しくないものをいれて学習させてしまっても、NNは中味がみえないから気づかないのではないでしょうか。例えば、ある人物を判断できないようにしたり、ある物を認識しないようにもできるのかな。そんなことも考えてしまいました。

こちらのprogramming exerciseは、以前のThe Happy Houseの続きです。ストーリーの設定がおもしろくて! こういうところにもこのコースの魅力があると思います。

 

 

 

 

AI社会の歩き方

金曜講座で江間有沙さんの「人工知能社会の歩き方」を聞きました。

お話が上手で、とてもわかりやすかったです。話しながらの身振り手振りが自然で、話し方もとても魅力的でした。

 

AI社会について考えていかなきゃいけない問題もあるんだなーと思いました。

 

人工知能は沢山のデータから学習するけど、そもそもそのデータにバイアスがかかっていたら…。

 

AIの出してきた結果の評価は人間が行う。

 

AIの倫理について。

 

…などなど。技術者だけでなく様々な分野の人が議論していく必要があります。

 

そういえば、先日、アメリカのGoogle社の従業員が会社に対して軍事研究につながる開発を行わないよう要求したという記事を読みました。

 

・・・

 

「我々はどのような社会に住みたいのか」をみんなで考えていくことが大事、ということに共感しました。

C4W2

CourseraでAndrew Ng氏のDeep Learning Specializationを受講しています。

いま、course4: Convolutional Neural Networksです。

week2が終わりました\(^_^)/

自分用のまとめをあげます。

f:id:kerolog:20180417151920j:image

CNNの続きです。

代表的なCNNの説明。論文は、AlexNet → VGG-16 → LeNet-5 の順に読みやすい、LeNet-5はちょっと読みにくいそうです。過去の業績にも敬意を払っているのを感じます。過去といってもそんなに前の話ではありませんが。

GitHubからダウンロードするやり方も説明してくれました。一から自分で学習させるより、オープンソースからweightをもってきてtransfer learningする方が早い。

私みたいな初学者でも論文を紹介してもらったり、オープンソースの利用を教えてもらえるのが嬉しいです。論文も読めるようになりたい。

 

ただ、これらの技術は複雑で違和感も覚えます。技術が進んで精度があがっていくのはわかるけれど、人間の目や脳ではこんな複雑なことが行われているとは思えない。人間の目や脳ってすごいなぁ。改めて人間が物を見る仕組みについて知りたいと思いました。

 

プログラミング課題は二つ。はじめのはやりたい人だけ。

Keras tutorial - the Happy House は、入り口でハッピーな顔をしないと家に入れないお話。ハッピーか否かの顔認識システムを作ります。Happy Houseという設定がいいですね!  Kerasは初めてで戸惑いましたが、見よう見まねで書いて動く。っていうかこんなに簡単にできるの?って驚いた。今までback propを必死になって書いてのは何だったんだろうって感じ(もちろん無駄ではない)。モデルを素早く作ってhyperparametersを変えて試すことができる。モデルの流れ図みたいなものを出力できるのも便利。

二つ目の課題は、Kerasを使ってhand signを見分けるための50層のResNetを作るというもの。Kerasで+ではなくAdd()を使うのに引っかかったり、discussion forum見て解決。それ以外は言われるままに書いて動いた。課題は2 epochで5分くらいかかるが精度は低い。その後20 epoch回すと精度がどんどん上がっていくのが見られておもしろかった。でも1時間以上かかったけど。また、すでに学習されたweightをダウンロードすることもやった。先生のお言葉↓ state-of-the-artは最先端ていう意味なんだね(^^)v

 

Congratulations on finishing this assignment! You've now implemented a state-of-the-art image classification system! 

 

おまけ:50層のモデルはこんな感じ。

f:id:kerolog:20180417163938p:plain

 

 

C4W1

CourseraでAndrew Ng氏のDeep Learning Specializationを受講しています。

いま、course4: Convolutional Neural Networksです。

week1が終わりました\(^_^)/

自分用のまとめをあげます。

f:id:kerolog:20180417151754j:image

 CNNが始まりました。画像認識に興味があるので楽しみです!

よくCNNの説明で箱の形の絵がでてたのはこれだったのか。conv filterで特徴量を抽出していく、poolingでshrinkしていく。おもしろいけれど、これで本当に特徴をつかめてるのか、大事な情報を落としてしまっていないのか、不思議な気がします。

 

プログラミング課題は、conv_forwardをpythonとtfで書く。

find the corners of the current sliceはc loopの外でいいんじゃないかなぁ。どちらでも動いたけどもやもや。。

Xavier initializerってどういうものなんだろう。ほかのとどう違うんだろう。調べたけどわからないなぁ。もやもや。このあたりになってくると、ネットで調べてもよくわかならくて。日本語の情報が少ないのはそれだけ新しいってことなんでしょうか。

さらにBack propagation(optional)の部分は、式の導出もわからず。もやもやもや。そのままコードにして動かしましたが、何をやっているのかつかめなかったorz... しかし、かなり時間を費やしてしまったので先へ進めます。

 

week2へ続く〜

 

C3W2

CourseraでAndrew Ng氏のDeep Learning Specializationを受講しています。

 

course3: Structuring Machine Learning Projects

week2

自分用のまとめをあげます。

 

f:id:kerolog:20180318133933j:image

 

先週に続き、エラー分析は実践的で面白かったです。ラベルのつけ間違えやラベルの欠損なども、どう対応すればいいか。

トランスファー・ラーニングは、なるほどそういうやり方があるのか。

 

   ・・・

 

今回やってて便利なことを2つ見つけました!

 

その一

カーソルを左右に移動させるキー←→でビデオを5秒巻き戻し/早送りできる。スマホ用アプリでは15秒巻き戻し/早送りできたの便利だな〜と思ってたら、パソコンYouTubeでこれ知らなかったー。英語聞き取るのに必死です。

 

その二

英単語調べるときスマホgoogle翻訳アプリが便利。

手書きで書いて調べても、カメラで撮影して調べても。カメラはパソコンの画面にでる英語字幕を写せば早い。手書きの適当な字も認識してくれるし。便利〜。