データ分析基盤DevelopersNight #3 参加メモ
こんばんは、くまのみです。
今回はTECH PLAY主催のデータ分析基盤Developers Night #3〜データを活かす基盤の作り方〜に参加してきましたので忘れないうちにメモを残しておこうと思います。
お品書きは3セッションでした。
Digdag/Embulk/Athena で作る Gunosy の ETL 基盤
スライドは上になります。
僕の守備範囲の内容だったので、とても勉強になりました。
Airflowの悪い面のお話があり(上のスライドP25~)、今度はAirflowを使われている会社などで良い面のお話も聞けたらなぁと思いました。
@cosmeにおけるビッグデータ活用の未来
スライドが未公開なので公開されましたらリンクしようと思います。
機械学習によるレコメンデーションシステム構築し、今まで外注に頼っていたものを内政化することでユーザー体験を向上させるお話がありました。
・学習に扱えるデータの多様性が増える
・パラメータ調整やアルゴリズム検証が簡単になる
・データ更新頻度をあげることができる
面白いというか悲しいというかまだ途中なのかな?と思ったのが使った技術の話でPySparkを使いましたと言う話の際に、飛躍的な効果が得られていないということでした。原因は下記3点かもとの・・・。
・コンテンツの表示方法?
・表示件数?
・レコメンデーションとしての精度の低さ
理想の実現に向けての課題の「ナレッジの充足」に興味があり、ぜひどのように展開していく(いった)のかといったお話を聞けたら嬉しいです。
ZOZOのデータ分析・活用基盤とマーケティングエンジニアリング
マーケティングエンジニアリングとは?といったところや、必要なスキル、実際にはどう言う運用をされているのかなどの例がありとても参考になりました。
古着を例に売上価格予測モデルのお話をされていて、うまくやるショップは火曜日にクーポンを打つ。売れるのは土曜日だけど競合と食い合ってしまう。
火曜日は次の土日に買う服を買う!といったお話もありへぇ・・・と感じました。
というのも、僕自身がマッチングサービスに携わっており火曜水曜あたりに土日のスケジュールを立てようとユーザーが動いているように見えていたので納得感がありました。
そのほかにもこんなツールを使っていますなどのお話があったのですが、メモしきれなかったのでひとまずここまでになります。
この記事が気に入ったらサポートをしてみませんか?