Leap Motion 勉強会に参加しました


130202 Leap Motion

先週末、東京から AKABANA の有川さんが Leap Motion を持って弊社に遊びに来てくれたので、せっかくなので勉強会をやりました。

今回はとりあえず Leap を動作させてみたあとに、GitHub で公開されている SDK のコードを解析して、これで何ができそうなのかなど、参加者でディスカッションしたりしてみました。

そこでわかったこと(?)というか、気づいた点は有川さんが facebook にポストしてたので、ちょっと追記して転載しておきます。

・アプリ開発は C++ / ObjC / Java / as3 / js でいけそう
・サーバが起動する
・他のデバイスからアクセスできる
(TCP Socket 経由でネットワーク接続できる)
・検出モードは三種類
(精密、スピード重視、その中間)
・手とその向き。+ 加速度
・指とその向き。+ 加速度
(加速度が API から取得できているので便利)
・ツール
(ペンやスティックなどの棒状のもの)
・現状だとジェスチャーは自前実装しなければならない
(この先 API ベースでの提供を期待)
・LeapMotionAS3にはMacOSX向けのANEがある
・白くて長い棒状のものが最適
・as だと worker で受け取ってジェスチャーを検出してみるのがいいかな
・実際のところ何もないから細かい作業はしにくい
・リアルと仮想の差をどのように意識させなくするか

と、こんな感じでした。

Leap の SDK も現在進行中でどんどんバージョンアップされてるようですので(実際に勉強会をやってる時もバージョンアップされていました)これからもっと使いやすくなることが期待できそうです。

あと、僕が個人的に感じた点なのですが、この Leap Motion は Kinect などのある程度限定された用途で使うデバイスではなく、マウスやペンタブのような汎用入力デバイスを目指しているような気がしました。
もしそうなって、ドライバベースでジェスチャーをはじめとした機能が提供されたら、アプリケーション開発側はデバイス制御に関して基本はドライバまかせでよくなって…
楽して対応アプリケーションを作れるんじゃないかと、ちょっと妄想してしましました。

というわけでこの Leap Motion、早く正式版の出荷がはじまらないかなー。