« 「iPhone SDKプログラミング大全」読みました | トップページ | iPhoneの着信音の作り方 »

あれこれ考えてみる(ARToolkitでロボコントロール?...1)

以前、OpenCVのことを書きましたが、OpenCVのことも、なかなか発展させられてないんですが、今回は、ARToolkitを使って、ゴニョゴニョやってみました。

ARToolKitは、仮想世界と現実世界を融合するもので、拡張現実感(Augmented Reality:AR)と呼ばれていて、ARToolKitは加藤博一先生とワシントン大学HITL(Human Interface Technology Lab)によって開発されたもので、OpenCVの3D版みないな感じでしょうかね?

検索すると、た〜くさんの方が試されているようですので、あれこれ細かいことは書きませんが、OpenCV + ARToolkitで、ロボットを認識させたり、コントロールさせたりとかできるかもしれませんねたまたま今日、Avalonさんが、ジェスチャー認識の技術のことを紹介されてました。OpenCV + ARToolkitで似た様なことできますよねぇ

とりあえず、以下の2冊購入

  • 拡張現実感を実現するARToolkitプログラミングテクニック
  • 3Dキャラクターが現実世界に誕生! ARToolKit拡張現実感プログラミング入門

●テスト1

工学ナビさんの所にあった、axis.mqoを、同じく、GLMetaseq.h, GLLight.hをマックで動くように書き換えてやってみました

●テスト2

RZ1ActionやRZ1Basicで使っているロボザックの3Dデータを使ってやってみました位置合わせとか、テクスチャー付けてなくて味気ない、おまけにライティングの方向が悪かったみたいま、今後、画面上で3Dのロボットを動かしたり、ジェスチャーでロボットを動かせたりできたらいいなぁ

●リンク

----------------
にほんブログ村 科学ブログ ロボットへ
にほんブログ村

|

« 「iPhone SDKプログラミング大全」読みました | トップページ | iPhoneの着信音の作り方 »

AR / OpenCV」カテゴリの記事

コメント

コメントを書く



(ウェブ上には掲載しません)




トラックバック


この記事へのトラックバック一覧です: あれこれ考えてみる(ARToolkitでロボコントロール?...1):

« 「iPhone SDKプログラミング大全」読みました | トップページ | iPhoneの着信音の作り方 »