AR環境での文字入力装置について(思いつき)

結論から言っちゃうと、母音のみ入力+統計的文脈予測による補完+統計的先読み補完、です。期待してた方すみません。と先に謝っておこう。わはは。
で、デバイスとしては血圧を測るときに使うスコスコするやつ、あんな感じです(補足的に親指ボタンを付けても良いかもしれない:後述)。これで何を入力するかというと、母音だけ。最も強く握った状態から徐々に緩めていく順に、「イ->ウ->エ->オ->ア」が入力されるというもの。
子音はどうするかというと、統計的に補完します(このアイデア自体はどっかにあったと思う)。更にPOBox的に先読み補完も行うと素敵。以上。
・・・えーと、後半はありものなんで面白くないんだけど、このアイデアのキモは、要は発声するときに咽喉で表現しているストレスと同じものを手を使ってやりましょう、というものです。もし子音についても直感的にわかりやすい分類ができれば(強中弱ぐらいの粒度で:kは強、hは弱とか)、親指にでも役割をふれば統計的な補完も精度が上がるだろうなあ。
いや実は最初は文字入力じゃなくて、完全にリアルタイムな、文字を介さず音声としてだけ出力されるための入力を考えてたんです(意味わかります?要は一種の楽器です)。AR環境でコミュニケーション取るときに必要なのはそれぐらいだろうと思って。
で、音声だけだったら漢字変換もいらんし、無茶苦茶単純なデバイスでなんとか入力できるだろうなと思ってたんですがさにあらず。イントネーションやアクセントの存在を忘れてました。結局意味が混じってくるので、漢字変換しないとダメだろうなと。
それともイントネーションも強弱の1次元にマッピングできるだろうか?うーん、もしできたとしても、母音とで2軸、子音もコントロールするとなると3軸の情報を一度に入力することになるので、ちょっとつらいだろうなあ。それとももしかしたら慣れの問題で結構いけるかな?
参考:モバイル文字入力手法情報 by 増井さん