![見出し画像](https://assets.st-note.com/production/uploads/images/15512215/rectangle_large_type_2_5e1cf202bb7d5f71d30f37e1a4cb5950.jpeg?width=1200)
マンガでわかるHCI: 今週のコンピュータサイエンス研究 140字での論文解説 まとめ 10/19-10/25
このnoteでは、最新のコンピュータサイエンスの研究を140字でゆるく解説しつつ、気になる論文にはこういう研究もあるよと2-3個似てる研究を紹介しています。
分野の中の人も外の人も、実務で忙しい人もそうでない人も、小学生も大学生も、「なるほど、最先端ではこんなことがおきてるんだな。ふむふむ」と感じてもらえたらと思います。
---
ここ2ヶ月ほど、相当忙しくて全く時間が取れませんでしたが、ようやく一息つきました。(9/20までCHIの〆切 x 2本、その後日本でInvited Talk x 10、その後Proposal DefenseやFellowshipの〆切 x 3本、その後UISTのデモ+Doctoral Consortium+ポスター+プレゼンなど。)とはいえ、まだCHIのレビューがN本あったり、プレゼンやトークがN個あったり、通った論文のCamera-readyがあったりと、仕事は際限なく降ってくるわけですが、とりあえず一段落 (*´﹀`*)
I finished my comprehensive exam (PhD proposal presentation) yesterday.
— Ryo Suzuki (@ryosuzk) October 12, 2019
I really thank my committee members @dleithinger, Mark Gross, Tom Yeh, @ishii_mit , Takeo Igarashi, and Ellen Do for helpful suggestions and feedback. pic.twitter.com/IgiGvB8d8C
個人的な話になりますが、日本滞在中トークなどに呼んで頂き、どうもありがとうございました
— マンガでわかるHCI(ヒューマン・コンピュータ・インタラクション) (@HCI_Comics) October 2, 2019
この場を借りてお礼します _(._.)_
- 東大:暦本先生、川原先生、筧先生、五十嵐先生
- PFN:吉田くん
- ZOZO:中丸さん
- オムロン:牛久くん
- ソニー:中山くん
- Takram:緒方さん
- BBQ:樋口くん
10月はカンファレンスが多く、ちょうど MobileHCI 2019 と UIST2019 が終わりましたが、他にもCSCWやASSETS、あとはML系の方だとICCVと、いろいろ新しい論文が発表される時期になりました。Twitterでも少しずつ論文を紹介していきます。
光を当てて3Dプリントしたものの色を変える
[UIST 2019] Photo-Chromeleon: Re-Programmable Multi-Color Textures Using Photochromic Dyes
#UIST2019 光発色性の染料を吹き付けプロジェクターで照らすだけで3Dプリントしたモノの色を変えられる論文。特定の色の波長に反応して色が変わる素材を混ぜて使うことで複数色できるのが味噌。UVを当てると色が戻るので何度でも柄を変えられる
— マンガでわかるHCI(ヒューマン・コンピュータ・インタラクション) (@HCI_Comics) October 22, 2019
#140字での論文解説https://t.co/futzjvLauj pic.twitter.com/sRU2ecAimx
似てる論文
- [CHI 2018] フォトクロミックインクをボクセル上に並べて3Dプリントの色を変える - ColorMod
- [SIGGRAPH 2012 ETech] 熱反応性の染料を使いレーザーで局所的に照射して3Dプリントしたモノに模様をつける - Shader Printer
スマホで叩いて物体認識
[IMWUT 2019] Knocker: Vibroacoustic-based Object Recognition with Smartphones
#IMWUT2019 スマホでモノを叩くと認識できる論文。叩いた時の固有な振動を見ることで物体を認識できる(83-98%の精度)。モノを叩いてAmazonで注文したり、タイマーのセットやギターのチューニングなど、物体に紐付いたアクションを「ワンノック」でできる#140字での論文解説https://t.co/DNuv8VAAVW pic.twitter.com/vsPc6bTIfB
— マンガでわかるHCI(ヒューマン・コンピュータ・インタラクション) (@HCI_Comics) October 9, 2019
似てる論文
- [Neurocomp 2017] マーカーペンでノックしてその音響を学習して物体認識 - Knock-Knock
- [MobileHCI 2018] 身の回りのモノをノックしたときの音を拾いIoTのコントローラーにする - Knock, Knock, What's There
目の見えない人のためのスーツケース型案内ロボット
[ASSETS 2019] CaBot: Designing and Evaluating an Autonomous Navigation Robot for Blind People
#ASSETS2019 目の見えない人をナビしてくれるスーツケース型ロボット。スーツケースにカメラ + LiDAR + モーターをつけ、ハンドルの振動やスピーチなどでナビしてくれる。途中の状況や障害物なども教えてくれる。盲導犬を連れてけない飛行機旅行などに便利#140字での論文解説https://t.co/TCAvVBC3WP pic.twitter.com/96fI3rUnqq
— マンガでわかるHCI(ヒューマン・コンピュータ・インタラクション) (@HCI_Comics) October 8, 2019
似てる論文
- [CHI 2019] スーツケースに内蔵されたカメラで人を認識し、歩行者が目の見えない人にぶつかりそうになったら警告音を鳴らす - BBeep
超音波浮遊を使った空間プロジェクションマッピング
[UIST 2019] LeviProps: Animating Levitated Optimized Fabric Structures using Holographic Acoustic Tweezers
#UIST2019 超音波浮遊で軽い膜を浮かし、その上にプロジェクションマッピングでディスプレイを表示する論文。超音波で軽めのビーズを多点制御で浮かし、それをアンカーとすることで、任意の形状の膜面を浮かすことができる。豊かなグラフィック表現が可能#140字での論文解説https://t.co/ZB8qXGdpzE pic.twitter.com/xe3nRZFK9J
— マンガでわかるHCI(ヒューマン・コンピュータ・インタラクション) (@HCI_Comics) October 25, 2019
似てる論文
- [PNAS 2019] 超音波の定常波をピンセットのように使いビーズを多点で同時にかつ独立して動かす - Holographic Acoustic Tweezers
- [SIGGRAPH 2014] 超音波の定常波を面のようにはり、3次元空間上でビーズをトラップしてグラフィックスを描画する - PixieDust
かくれんぼの強化学習
[arXiv 2019] Emergent Tool Use From Multi-Agent Autocurricula
かくれんぼを強化学習させた論文。学習が進むにつれ、隠れる側は壁や箱を動かして隠れる術を学んだとのこと。逆に鬼は箱の上に乗って上から探す術を学んだり、今度は逆に鬼を壁に閉じ込めたり無限の彼方まで走って逃げたりと想定以上の戦略を学習している#140字での論文解説https://t.co/IK4zrkr7M9 pic.twitter.com/a95aEtpywZ
— マンガでわかるHCI(ヒューマン・コンピュータ・インタラクション) (@HCI_Comics) September 26, 2019
群ロボットからなるロボット
[Science 2019] A Robot Made of Robots: Emergent Transport and Control of a Smarticle Ensemble
#Science ロボットからなるロボット(A Robot made of Robots)1個1個のロボットは動く能力はないけど、寄せ集まることで全体として移動できる。生物の細胞から発想を得ている。ロボット自体はサーボ2個つけた非常にシンプルな構造で分散処理で動く #140字での論文解説https://t.co/8NwRNNxpLg pic.twitter.com/5GBlZbC5iC
— マンガでわかるHCI(ヒューマン・コンピュータ・インタラクション) (@HCI_Comics) September 25, 2019
似てる論文
- [Science 2014] 1000体の群ロボットを使いSelf-assembly - Kilobots
- [IROS 2013] キューブ型ロボットが内部のモーターの慣性運動を使い、ひとりでに動いてSelf-assembly - M-Blocks
生体音響でジェスチャー認識
[MobileHCI 2019] AudioTouch: Minimally Invasive Sensing of Micro-Gestures via Active Bio-Acoustic Sensing
#MobileHCI2019 手のひらの生体音響でジェスチャー認識する論文。ピエゾ素子を2つつけ、一つは超音波を発生させ、もう一つはその反響音を取る。手の動きや形によりその反響音のスペクトルが変わるのでそれで認識する(83-89%)手袋などに比べ小型にできる#140字での論文解説https://t.co/IfBGbtzfm0 pic.twitter.com/GdsdeOtall
— マンガでわかるHCI(ヒューマン・コンピュータ・インタラクション) (@HCI_Comics) October 12, 2019
似てる論文
- [UIST 2016] スマートウォッチで生体音響を取りジェスチャー認識 - ViBand
編み機コンパイラ
[ICML 2019] Neural Inverse Knitting: From Images to Manufacturing Instructions
#ICML2019 写真から編み物の生成。編み機のプログラムはかなり難しいのだが、適当に手持ちのマフラーなどの写真を撮ると深層学習で同じ編み目模様のコードに変換してくれる。イメージ的には画像からコード生成するPix2Codeに近い(出力は編み機のDSL)#140字での論文解説https://t.co/BpH9iitexk pic.twitter.com/NVyGFclzQA
— マンガでわかるHCI(ヒューマン・コンピュータ・インタラクション) (@HCI_Comics) September 12, 2019
似てる論文
- [SIGGRAPH 2019] 3D形状編み物のためのCADツール - Visual Knitting Machine Programming
いいなと思ったら応援しよう!
![マンガでわかるHCI(ヒューマン・コンピュータ・インタラクション)](https://assets.st-note.com/production/uploads/images/5309235/profile_9462eaa2d7c20b656df550c1a226a3b7.jpg?width=600&crop=1:1,smart)