キーのなる技術は主に2つ。ひとつはユーザの歌唱音声から歌声合成パラメータを自動推定するシステム「VocaListener(ぼかりす)」、もうひとつは人の歌唱を手本にロボットの顔動作を自動生成する技術「VocaWatcher(ぼかうお)」だ。「VocaWatcher(ぼかうお)」は人がうたっている時のビデオ映像を分析して自然な動きを作り出す。
さらに、今回、リアルな息継音を合成するための新機能も開発されている。事前に学習しておいた複数の人の息継音をもとに、どこで息継ぎがでるかを検出し、それを再現している。
メディアインタラクション研究グループ長の後藤真孝氏は「エンタテインメント産業としてロボットが幅広く使われていく。そのひとつのチャレンジとして、どこまで人間に迫ってうたえる姿を作りだせるかを研究しているが、そこで大きく産業が開けていければと思っている」と話している。