見出し画像

O'ReillyのData&AIイベント(オンライン)に参加してみた

こんにちは。ブログ運営1年生、お休み中の本業はITのゆきです。

今日は、数日前にメールで案内が来たO'ReillyのRader Event, Data & AIというのに参加してみました。今はお休み中なので、ちょっと久々に聞いてみるか、という感じで。

私とData & AI

今はお仕事はお休みして主婦業 兼 ブログ運営をしていますが、昨年まではITのスペシャリストとしてイギリス含むヨーロッパ数カ国で働いていました。ITといってもいろいろありますが、私はWeb系のプログラマー(データベースもいじれるので、今でいうFull Stackの開発者)から始めて、プロマネとかチームのスプリントマネジメントとか、最終的にはマネジメント系もやっていました。

もともと開発者でデータを扱うのは慣れていて、数年前に働いていたところでは、AIの市場動向についての調査をしました。マネージャー向けのAIコース(あまりテクニカルではなく、活用法メイン)とかも受けて、Excelを使ったモデリングなども試したり、1年くらい片手間にやってました。

最近の数年間はどちらかというとコード書くよりはマネジメント系、文章書いたりチームやプロジェクト管理が多かったのですが、手を動かすのが好きなのと、人に任せっきりなのが苦手なので、結構システム分析や品質チェック(不具合のデータ分析とか照合とか)はずっとやってたんですよね。

実際、海外でAIや機械学習ってどうなの?

私の場合は、情シス系というか、社内システムの面倒を見るポジションばかりだったので、一般企業・団体だと興味はあるけど「AI」のリサーチにお金かける経営判断はまだできないし(なのでインターンとかにやらせることはある)導入までした例は見ませんでした。といっても、数社・団体(しかもITの一部)しか見てないので、あくまで私個人の経験の話です

ただ、すごく高機能なAI!とまでは行かなくても、チャットボット(ユーザが入力した文字列から自動で回答する。Machine Learningさせて高度なやりとりをさせられるし、ただのフローチャートで簡単な受け答えしかできないものもある。結構アプリ・パッケージが提供されてる)とかを導入してるリテール系の会社は最近多いですし、今回講演に参加してたアマゾンのおすすめ機能とか、実際のところ活用されているところでは活用されている感じですよね。

業界によるところは大きいかと思います。残念ながら私は経験したことないですが、医療・健康系とか、検査の判定を機械学習でさせる研究が進んでいたり、サテライト・地理情報を使って収穫高を判断する、天気の予測をするとかたくさん事例はあるようです。

つい最近では、フランスがサテライト情報を使って、申告されていない家のリフォーム情報を収集して税収確保に役立てる、なんてニュースもありました。

機会があったら、自分の復習のためにも他のセミナーなどで聞いた事例をnoteで紹介しようかなと思います。

どんな講演があったの?

まずは最初の挨拶をO'Reillyの人がして、O'ReillyではAI&Dataについて何をしているかと、ざっくり最近のAI&Dataの動向を紹介。その後、キーノートとして2人、各20分くらい。その後、AIトラックとDataトラックに分かれて(分かれてるとはいえ、どちらを聞いてもOK)数セッション、最後にO'Reillyさんが締めの講演をする、という構成でした。

セミナーのウェブサイトでまだ見れますし。

一応画像も以下に貼っておきます。少し小さいですが・・・。

画像1

画像2

画像3

気楽に参加したのと、時間が夕方でご飯の時間に被っちゃったので、私は最初のO'Reillyの人のプレゼン、キーノート2人と、Dataトラックのセッション1.5人分(2人目は途中で抜けたので)しか見てません。後でビデオアップしてくれるらしいので、後で他に興味があった講演を見れたらいいなと思ってます。後から見れるのは、オンラインセミナーのいいところですよね。

キーノートは最近の動向や業界の人が実際どうキャッチアップしてるか簡潔に聞けて良かった!

初っ端、最初のO'ReillyのRachelさんのプレゼンは、トレンド、どんなツールがよく使われているか、どれが伸びているか、実際どのくらいの給料もらってるのか、など超まとまっていて、久々にこれ系の話を聞く私としてはとってもありがたかったです。

例えば、開発言語ならPythonとかC++は有名ですが、Rustなどの新規利用者が伸びてる、とか。PyTorchやRayというのも結構利用者が伸びているとか。給料としては、専門としてるツールがなくても年収150Kドル近かったりとか、Clicktaleが専門の人だと年収225Kドルだとか、かなりいいお給料ですね。ただ、アメリカは日本や欧州よりエンジニアへの給料が高いので、アメリカに限った話ではありますが。

1人目のキーノートのJeremyさんは、AIとヘルスケアという題目でしたが、コロナ禍の初期にマスクは有効ではないという話が欧米で広がっていたのに疑問を持って、著名な仲間を集めて調査してペーパーを出し、最終的に欧米でマスクの着用を定着させるのに一役かったという話でした。

画像5

AIというよりは、地道にマスク不要説の根拠となっていたペーパーやそのデータを分析して、本当はペーパーの統計の使い方が間違ってるとか、ペーパーの結果を読み間違えているというのを明らかにしたので、AIや機械学習を活用したわけではないようですが。技術だけでなくて、分析方法をきちんと選ぶ大切さ、結果を的確に読み解く力の大切さをこの事例で教えてくれたと思います。

彼の講演を聞いて、彼のfast.aiという団体で提供しているAIコースや出版した本「Deep Learning for Coders with Fastai and PyTorch」をちょっとやって(読んで)みようかなという気になりました。

2人目のキーノートのAurelienさんは、How to Keep Up with MLということで、進化の早いこの業界でどうキャッチアップしていくのがいいか、という話でした。

画像4

この分野は毎日100ペーパーも公開されていて、誰もそんなに読みきれないし、加えてソーシャルメディアなどでも情報が溢れてて全部読めない!という悩みに対して、どうしたらいいのか。実際私も日々キャッチアップなんてできませんし、今はお休み中ということもありますが、仕事してる時は忙しくてキャッチアップしてる時間なかったです。

彼のおすすめの方法とは、

1つ目:まずは機械学習系のコミュニティに参加しよう!ミートアップ、Kaggle、ツイッター、Redditのコミュニティ、YouTube、Blogなど。ただ、欲張らないで本当に興味のあるものだけにしよう

おすすめのコミュニティは:

Reddit:Data Science、Computer Vision、Natural Language Processing、Machine Learning Ops、Statistics、A Powerful Machine Intelligence Libraryなど
Twitter:(著名な人)Andrew NG, Andrej Karpathy, David Ha, Francois Chollet, Geofferey Hinton, Hanna Wallach, Hilary Manson, Jeremy Howard, Jess Hamrick, Thomas Wolf, Yann LeCun etc(会社かチーム)Open AI, DeepMind, Google AI, Facebook AI, Microsoft Research, Baidu Research, Scikit-Learn, TensorFlow etc

彼自身、ツイッターは整理するのが結構大変だったけど、今はかなりスッキリしたタイムラインになったそうです。

YouTube: Yannic Kilcher, Machine Learning Dojo (Tim Scarfe), Machine Learning Street Talk, Lex Fridman, Two minute papers (Karoly Feher), Arxiv Insights (Xander Steenbrugge)
Blog: Machine Learning Mastery  etc

2つ目:もし時間があるならリサーチペーパーを読もう!そのために、読みたいペーパーをExcelで整理しておく。もしくは、Arvic-sanity.com(検索できて、自分のライブラリにお気に入りを保存できる)、paperswithcode.com(コード付きのペーパーをまとめてる)を使うといいよ。

私はペーパーを読むというのはかなり苦手意識があるのですが、Redditとかなら始められそうかなと思いました。YouTubeもチャンネル登録してたまに見てみるのはできそう。私個人は、以前の仕事の関係で今も購読してるO'ReillyのニュースレターEmerjというAIコンサルのニュースレターなど、メールで情報を受け取るのもおすすめです。メールなら大体毎日チェックしますからね。

Dataトラックのセミナーは、実際のデータ処理プロセスを実演してくれて参考になった!

Dataトラック1人目のSevさんは、外部データを取り込んでプロトタイプを作り、さらに実用化まで落とし込むまでのプロセスを事例(アメリカ政府の提供している統計データをAPIを使って取り込んで、他のデータと合わせて処理)とコードも含めて説明・実演してくれました。

画像6

私自身は、(内部)データをどうシステムに活用するかというのは仕事柄ずっとやってきたのでなじみはありましたが、外部データを自分の管理するシステムで使うということはほぼなかったので、どんなプロセスやツールを使っているのか、特有の注意点などは参考になりました。

実演はJupyter Notebookを使っていて、説明しているその場(プレゼン内)でコードを実行して結果を見せられるのは、仕事復帰する時には使えるかもなーと思っていました。

Dataトラック2人目のVinooさんは、Sparkを使ったデータ処理(Parquetというフォーマットにする)と、Query Plannerという機能でクエリーの質をあげよう!という話をしていました。

画像7

途中までしか聞けませんでしたが、Sparkの実演は面白かったです。

他にも、Amazon Web Servicesの開発者の人の講演や、AIトラックのMLOpsの話も聞きたかったけど、ライブでは聞けなかったので、録音で聞けたらいいなと思います!

セミナープラットフォームが良かった!

画像8

Hopinというプラットフォームを使ったセミナーだったのですが、セッションに参加する以外に、ネットワーキングできる機能(1対1で5分間話せる)Expoという機能(O'Reillyからのプレゼンビデオなどがありました)、Replay(多分ここに録音が表示される?)という機能もあって、リアルなセミナーに参加してるような充実感がありました。もちろんチャット機能もあって、さらにプレゼンもスムーズ。ファシリテーターもサクサクっと進行していて、画面もわかりやすいし、視聴する側としてはかなり快適でした。

元情シス系IT担当者から見たAI&Data

こういうセミナーを受けるとすごく刺激を受けますし、実際調査していた時は、もう機械学習のシステム作ってみたくて仕方なかったのですが、実際のところそこまでの時間は取れず、しかもひとりでやっていたので勝手が分からず実現には至りませんでした。その後も情シスで既存の社内システムを担当してると、どうしてもその社内システムの運用・開発ばかりで、AI!というような案件に当たることがなくて悶々としていました。

正直なところ、データサイエンスを専門にして学んだわけではないので、統計などの知識は全然足りてないですし。自分で学んでいくか、学校入り直さないといけないのか。ただIT業界に居ただけでは、システムの作り方はわかっても、AI・機械学習が実際役立つ業界・用途のイメージがなかなか掴めず。今だにどうやったらAI・機械学習の仕事に就けるのか全くわかりません。やはり、もっと勉強してネットワーキングしていかなければならないのでしょうか・・・。

今はブログ運営の方に力を入れたいので、AIのことは頭の隅に置きつつ、という感じになりそうです。

長いnoteになってしまいましたが、どなたかのお役に立てば嬉しいです。






この記事が気に入ったらサポートをしてみませんか?