禺画像]
ユーザーインターフェイスデザインでは、視覚情報が大きな役割を果たしていますが、次に使われている感覚は触覚です。
携帯電話(フィーチャーホン)ならブラインドタッチでメールを送れる中学生なんて珍しくありませんが、そのレベルではなくとも、ボタンの形状だけでなく素材感や押した感触なども含めて「肌」が意識している以上に覚えているものです。
しかしこの触覚を、より視覚的なGUIでシステム側が積極的に使うのはとても難しい技術的課題があります。「タッチUI」のタッチはまさに触覚なのですが、まだまだ不完全なんですね。
例えば、画面上に「ボタン」が描かれていてそれを触ることを考えて見ますと、ボタンの位置は視覚から判断して指をその位置に持って行き、触った事は触覚で感じます。
でも本当にきちんと触れたかどうか、画面の変化がなければ自分の感触なんてあまり信用出来ません。重い動画の再生ボタンを何度もタッチしてしまう、なんてありがちですよね。
この触覚を補完するために「グラフィックの変化」「操作音」「バイブレーション」が使われますが、システムの反応が速ければこれは過剰にもなるので、バランスが必要です。
また人は慣れるものですので、そのシステムとのつきあいが長いと「無反応」の意味付けを補完してしまいます。
そこで、このフィードバックを触覚そのもので行えたら過剰ではなく自然なUIになるはずです。
実際に凸凹を感じさせたり、表面の素材感(硬さや抵抗や熱伝導)が変化したら、目をつぶっていても操作が可能になるでしょう。そのための仕組みは私の想像を超えていますが、「そのほうがいい」のであれば、いずれそうなるだろう、と期待もしています。
振返ってGUIに拘らなければ優秀な装置が沢山あります。製品やシステムごとに最適な方法をデザインして行きたいと思います。
ところで、ご縁あって交流させて頂いている「ケイズデザインラボ」のFreeFormは、この触感をフィードバックさせる希有なツールです。3Dデータの作成を目的にしたペン型のインターフェイスと言うのが、現在の技術的な解なのでしょうね。
ミクロン単位まで判ってしまう指先の繊細さが、このツールでさらに強化されたら、、と思うとこれからの展開が注目です。
FreeForm:
[URL]
セコメントをする