💭

デジタル化された私たちの身体 Technology Vision 2024 Trend4

2024/07/18に公開

はじめに

2024年5月27日にアクセンチュア・イノベーション・ハブ東京にて"Technology Vision 2024"が発表されました。
テーマは「Human by Design」(人間性を組み込む)
本シリーズでは、この新しい概念を4つのトレンドに分解して語っていきます。

前回のTrend3 The space we need(私たちが必要とする空間)では、私達が現実の空間から解き放たれてデジタル空間へ進出していく世界が語られました。
今回のTrend4では、このデジタル空間を作り出すテクノロジーと人間との間をつなぐインターフェースの未来を描きます。

人間の情報や意思をこれまで以上の質と量で取り扱えるようになる

ヒューマンインターフェースの発達により、取り扱える情報の種類や量が格段に増加しています。
スマートデバイスを介したAI Agentとの対話からは発話の仕方や使用言語を認識でき、空間コンピューティング技術によって目線の配り方や手の動かし方、顔の動かし方を認識できるようになっています。
そして、将来的には、脳神経による直接制御が可能となる「Brain Computer Interface」へのシフトが見込まれています。これが実現したら、言語や動作ではなく、脳の電気信号そのものを解析し、デバイスにコマンドを送ることが可能となるのです。

人間が気づけない”第六感”の発見

Brain Computer InterfaceはApple Vision Proによって実現されつつあります。
ヘッドバンドで脳波を感知し、次のアクションを予測することができるようになっているのです。これにより、ユーザーが次にクリックするであろうオプションやツールを事前に表示する「予測的UI/UXデザイン」が実現され、より流れるような操作感が提供可能となっています[1]

脳活動の取得が難しくとも、視線の動きからかなりの情報が得られることが分かっています。Apple Vision Proのプロトタイプ開発メンバーによると、画面を操作するユーザーの視線は、クリックする前から動作の結果を期待して動いているようです。つまり、目の動きを測定すれば実操作の前に次の行動を予測可能なのです[2]
開発メンバーがこのような予測的感覚を「第六感」と表現したことは実に印象深いです。

テクノロジーが人間の機微を”察する”

次世代のヒューマンインターフェースは、他にも様々な形で開発が進んでいます。
例えば、同済大学(Tongji University)では、歩行者の足腰の動きや地面と足の角度を測定し、道路横断の意思を予測する車載デバイスが開発されています。この技術によって、0.6秒の間に20メートル先の歩行者の動きを解析し、安全性を向上させることが可能となります[3]

また、コーネル工科大学とアクセンチュアラボによる共同研究では、人の視線や表情、声、動きを観察して自らのミスを検知できるロボットが開発されました。ロボット自ら人間の機微を察して判断してくれることで、機械に指示を出す時の障害となる機械の認識ミスを減らすことができます[4]

ヒューマンインターフェースはより高度に人間に組み込まれ、人間とテクノロジーは分かち難くなる

これまではテクノロジーが人間の外部に存在し、断片的な情報を基に作業を補助していたのに対し、未来のインターフェースは常に人間に寄り添い、人間の一部として機能するようになります。
このようにして、テクノロジーは人間とますます一体化し、分かち難い存在となるでしょう。

インターフェースを意識させないような、常に接続されて人間と道具がお互いに溶け込んでいくような世界に突入していくのです。これは今までの人類史上ありえなかった状態です。

この進化は、ただの技術的進歩にとどまらず、人間の経験と価値を根本的に変革する力を持っています。テクノロジーが人間の生活の一部となり、人間の可能性を拡張することで、私たちはこれまで考えもしなかった新しい世界への扉を開くことができるのです。



これにて全4つのトレンドの解説が終わりました。Technology Vision 2024のテーマ、「Human by Design」(人間性を組み込む)が意味するところのイメージを掴んでいただけたでしょうか?
ぜひ、今一度、Human by Designの記事を読んでみてください。今ならもっと具体的にイメージできるかもしれません。


文責:Nishi, Hanako & PeerWorker

脚注
  1. Health Sensing Retention Band, 2024より ↩︎

  2. Sterling Crispin氏のX投稿(2023.06.06)より ↩︎

  3. Ma, J.; Rong, W. Pedestrian Crossing Intention Prediction Method Based on Multi-Feature Fusion. World Electr. Veh. J. 2022, 13, 158. ↩︎

  4. Bremers, Alexandra, et al. "Using social cues to recognize task failures for hri: A review of current research and future directions." arXiv preprint arXiv:2301.11972 (2023). ↩︎

Accenture Japan (有志)

Discussion