見出し画像

#iOSDC 2020で登壇しました/初のオンラインカンファレンス参加の感想

iOSDC 2020で「機械学習のブルーオーシャン Core ML」という発表をさせていただきました。iOS×MLで実務でこういうことやってますよ、というのを解説しました。

プロポーザル

スライド

動画(字幕付き/目次付きでサクサク飛ばせます!)

(YouTube目次)

00:00 自己紹介
00:54 機械学習はレッドオーシャン
01:57 Core MLはブルーオーシャン
02:12 なぜCore ML?
04:18 Core ML ≠ CoreML.framework
06:09 実案件を例に解説/前提条件/方針
07:42 Core MLをどう作るか?の判断フローチャート
08:30 Core ML Toolsとは
09:29 coremltools 4でどう変わったか
11:03 coremltoolsの環境構築/使い方
12:42 変換エラー
13:05 グラフの可視化
14:06 グラフのどこを切り出すかの検討
17:45 サブグラフの切り出し
19:39 グラフから切り取った部分の補填
24:14 パフォーマンス改善結果
25:00 参考資料

感想

iOSDCは初回からすべて参加してきましたが、今回は初のオンライン開催。まず「事前収録」という登壇スタイルからして圧倒的に例年と違うし、いったいどうなるのか。

・・・と一抹の不安がありましたが、初日の感想としては

技術カンファレンスのオンライン開催、とても良いのでは!

と。

単なるリアルの代わりではなくて「オンラインならでは」の体験がたくさん用意されていて、それらが実際にうまく機能していたように思います。以下箇条書きにて良かった点のメモ。

(発表者の観点から)

・収録ならではの見せ方ができる。僕はモタモタしがちな画面切り替えの時間をカット。その他テンポの悪い無音区間をカットしたりもして自分のトーク力の低さを編集で補えるという安心感があった。
・他の人がやっていた例だと、ライブコーディングのタイピングを早送りでテンポよく見せるというのも事前収録ならではだなと(リアルでのライブコーディングはタイプ量が多い場合はスニペット貼り付けるだけになりがち)
・ニコニコ動画のコメントで補足を入れたり、Discordのパブリックビューイングチャンネルで副音声的に解説したりといった動きができる。
・公式の動画はリソースの都合でどうしても公開されるまでに時間がかかる(例年1ヶ月以上)が、事前収録だと手元に動画があるのでYouTubeに自分ですぐにアップできる。

(オーディエンスの観点から)

・複数トラックをブラウザや別デバイス(iPadとか)で開いておき、気になるものを同時に全部追いかけるということが可能に。
・雑談チャンネルやパブリックビューイングチャンネルでちゃんとコミュニケーションが生まれている。リアルイベントよりも「そっと輪に入ってみる」ということがしやすい。
・登壇当日はいつもギリギリまでスライドいじってるので、オープニングに出られたのは初めてかも。


最後まで読んでいただきありがとうございます!もし参考になる部分があれば、スキを押していただけると励みになります。 Twitterもフォローしていただけたら嬉しいです。 https://twitter.com/shu223/