東京大学の篠田・牧野研究室が11月に発表した「バルーン型ディスプレイシステム」は、超音波を用い、操作する風船に映像を投影できるものだ。
音響放射圧を用いて、風船の3次元位置を非接触で制御し、それに映像を投影することで、空中に映像を映し出す仕組み。風船を手で移動させると、投影した画像も同時に移動するインタラクションも提供する。
開発したシステムは、スクリーンになる風船と、それを操作する複数の空中超音波フェイズドアレイ(Airborne Ultrasound Phased Array、AUPA)デバイス、風船の位置を測定する深度センサー、映像を投影するプロジェクターで構成される。風船にヘリウムを注入し浮遊させ、天井には、下向きにAUPAを複数台配置する。各AUPAは浮遊する風船の中心に焦点を形成し、そのときに生じる音響放射力を用いて風船の位置を3次元で制御する。プロジェクターによる投影位置は、Microsoft Kinect V2で取得した風船の位置を用いて決定する。
3Dキャリブレーションされたプロジェクターは、風船の表面に映像を投影する。立体投影モードでは、透視補正映像がレンダリングされ、ユーザーは3Dシャッター方式メガネを通して立体映像を目視できる。
映像を投影した風船を超音波で移動させることで、風船だけでなく映像も移動するため、あたかもバーチャルオブジェクトが空中を移動しているかのように感じる。
さらに、ユーザーは風船を手でつかんで物理的に移動させることで、投影した映像を操作できる。こちらも映像が追跡し動くため、バーチャルオブジェクトを操作したように感じられる。
ユーザーが風船をつかんだか否かは、ユーザーの手と風船の距離で判定する。深度センサーで手の位置を追跡し、手が風船に接近したまま一定時間が経過すると、風船をつかんでいると判断し、風船の位置を指示できるようになる。風船をつかんでいる状態では、常に目標位置が現在の位置で更新されるようになっている。