DMN Insight

DMN Report #79 未来を解読する: インテリジェント インターフェースの進化

作成者: DMN事務局|Sep 5, 2023 4:08:23 AM
DMN Report #79 未来を解読する:
インテリジェント インターフェースの進化

Rachel Kobetz

Chief Design executive

 

Decoding The Future: The Evolution Of Intelligent Interfaces

 

私たちが画面を超えて、コンピューティング能力、インターネット、AI を現実世界に解き放つと何が起こるでしょうか?面白くなってきましたよ。

kobewan×Midjourney2023

 

テクノロジーの世界では、常に「次の大きなもの」が目前に迫っています。現在、その領域は人工知能、主にChatGPT、Google のBard 、およびMidjourneyDall-E 2などの生成 AI ツールに関する会話で占められています。一部の職業は生成 AI を受け入れていますが、他の職業はそれを恐れています

その会話には、チャットボットに関する多くの話題が含まれています。しかし、チャットボットは未来ではなく、私たちの現在です。チャットインターフェースは、多くの点で、システムやコンピュータとのより会話的で自然な対話の基礎ですが、さらに大きなものの始まりでもあります。

 

私たちは長きに渡り、この未来を予想してきましたが、適切な材料とテクノロジーが融合したここ数年まで、実際に実現することはできませんでした。今こそがエキサイティングな時です。

 

ユビキタスコンピューティングとインテリジェントインターフェース

私たちが画面を超えて、コンピューティング能力、インターネット、AI を現実世界に解き放つと何が起こるでしょうか? 面白くなってきています。ユビキタス コンピューティングの時代、つまりインテリジェント システムの未来へようこそ。

パーベイシブ・コンピューティングまたはアンビエント・インテリジェンスとしても知られるユビキタスコンピューティングは、1980 年代後半にゼロックス PARC の主任技術者であるMark Weiserによって最初に提案された概念です。その後、Wiser氏は 1991 年にこのテーマに関する「 21 世紀のコンピュータ」というタイトルの論文を書きました。ユビキタス コンピューティングの背後にある考え方は、コンピューターが物理世界にシームレスに組み込まれ、人間とコンピューターの相互作用が自然かつ簡単に行える環境を構築することでした。基盤となるテクノロジーを忘れてしまう場所。Wiser氏は、コンピューティングが「目に見えない」世界となり、ユーザーが関連情報やサービスを提供する「情報ファブリック」に囲まれる世界を構想しました。

 

ユビキタス コンピューティングは、スマートホームから自動運転車に至るまで、日常の物体に埋め込まれた相互接続されたデバイスとセンサーのネットワークであるモノのインターネット (IoT) である程度実現されています。しかし、真にシームレスで統合されたエクスペリエンスとしてのユビキタス コンピューティングの当初のビジョンは、まだ完全に実現されていません。

 

さらに、人間とコンピューターの対話におけるパラダイムシフトを表すインテリジェント インターフェースもあります。ユーザーがシステムの言語を学習する必要がある従来の GUI (グラフィカル ユーザー インターフェース) とは異なり、インテリジェント インターフェースは、システムがユーザーの言語を理解できるようにすることを目的としています。人間がシステムに適応するのではなく、システムが人間に適応するのです。インテリジェントなインターフェースは人間の本能と行動を活用して、より直観的なエクスペリエンスを生み出します。これらのシステムは人工知能 (AI) を統合しており、タッチインターフェース、音声認識システム、ジェスチャーベースの制御からブレインコンピューターインターフェースに至るまであらゆるものを活用でき、マルチモーダルです。

 

これらのインテリジェント システムにより、テクノロジーとのやり取りがより直観的、自然かつ効率的になります。Siri をステロイドにしたようなものです。したがって、私たちが人間とコンピューターの相互作用における新時代の瀬戸際に立っている今、これらのインターフェイスがどのように進化し、どこに向かっているのか、そして私たちがデバイスや周囲の世界と対話する方法にどのような革命をもたらすのかを探る価値はあります。

 

「未来はすでにそこにありますが、それは均等に分配されていないだけです。」
— William Gibson

 

現在の状態

この歩みは徐々に進み、過去 5 年間で勢いが増しています。コマンドライン インターフェースから始まり、グラフィカル ユーザーインターフェース、そしてスマートフォンやタブレットの出現によりタッチインターフェースに移行しました。

 

2019 年の私の Leading Innovation プレゼンテーションのスライド

 

今日、私たちはすでにインテリジェント インターフェースの始まりを目の当たりにしています。スマートホームを管理する Alexa から、次の Netflix の楽しみを推奨する AI アルゴリズムに至るまで、テクノロジーはますます賢くなっています。それらは私たちの電話、車、さらには冷蔵庫の中にも存在します。そして、それらは私たちがテクノロジーと対話する方法を変えています。私たちは現在、日常の物体において、より自然でマルチモーダルなインタラクションを使用しています。Neuralinkなどの企業のブレイン コンピューターインターフェイス (BCI) の初期バージョンの台頭が見られます。

 

消費者として、私たちはデバイスの認証やロック解除に顔認識や指紋などの生体認証を使用することに慣れてきました。BMW でさえ、車内でのハンズフリー インタラクションにジェスチャーインタラクションと視線を使用し始めています。拡張現実 (AR) および仮想現実 (VR) インターフェースはますます人気が高まっており、仮想世界と現実世界を融合した没入型の体験を提供しています。これは、Meta Quest や Microsoft HoloLens などのデバイスで見られます。

 

未来のインタラクションパターン

ChatGPT などで現在私たちが目にしているチャットインターフェースは、将来のマルチモーダルシステムの基礎を築いています。このやり取りの繰り返しにより、システムがどのように私たちと対話し、私たちのニーズを予測し、要求を確認し、私たちに代わって行動するかの基礎が築かれます。

 

私たちはテレビ番組や映画でユビキタス コンピューティングやインテリジェントインターフェースの片鱗を見てきましたが、それは常に遠い遠い話のように思われていました。しかし、私たちは今、AI、コンピューティング、ハードウェアの進歩によって最終的に可能となる製品イノベーションの爆発の直前にいます。かつては SF やイノベーションの概念であったものが、今では現実になりつつあるのは非常に興味深いことです。映画やテレビ番組は、私たちがさらに前進するよう促す上で大きな役割を果たしてきました。

 

Minority Report(2002)

 

最も有名な例の 1 つは、Minority Reportのユーザーインターフェースです。この映画は、インターフェースに対する一般の認識の形成に大きな影響を与え、ジェスチャーベースのインターフェースやその他の新興テクノロジーの実世界への応用にインスピレーションを与えました。Tom Cruiseのキャラクターが使用したジェスチャーインターフェースをほとんどの人が覚えていますが、映画で使用されているコンピューター システムについてはあまり知られていません。Oblong Industries のJohn Underkoffler は、キーボード、マウス、コマンドラインを使用せず、自然なジェスチャーを使用する g-speak 空間オペレーティング環境を作成しました。Underkoffler氏は、『アイアンマン』(2006) のジェスチャー ホログラフィック インターフェースにも取り組みました。

Her (2013)

 

『Minority Report』と『アイアンマン』のジェスチャーベースのインターフェースは私たちに何が可能なのかを垣間見せてくれましたが、映画『He​​r』の音声インターフェースは、デバイスが私たちを非常に個人的なレベルで理解する未来を示してくれました。Herは、自然な UI のアイデア、デジタル アシスタントとの人間のような対話の可能性、テクノロジーが私たちの個人的な生活にさらに統合される未来の潜在的な影響を探ります。

 

Maeveの「属性マトリックス」, Westworld

 

もう 1 つの優れた例は、一時的なインターフェースと人工知能の概念を探求したWestworldです。そこでは、アンドロイドのホストがゲストの行動や好みにリアルタイムで適応して応答し、技術的に進歩した遊園地で高度にパーソナライズされた没入型の体験を作り出します。アンドロイドが「現実世界」に戻ってくるとさらに面白くなります。

 

Blade Runner 2049

 

『Blade Runner 2049』は、プロジェクション マッピングと拡張現実が没入型でダイナミックな環境を作り出す未来を垣間見ることができます。映画では、プロジェクション マッピングによって物理環境と相互作用する大規模なホログラフィック ディスプレイが作成され、没入型で超現実的な雰囲気が生み出されます。

Iron Man のJARVIS AI アシスタントや、 Captain America: Civil Warの仮想アシスタント FRIDAY は、自然な UI の好例です。これらのインターフェースは、自然言語処理と機械学習が、ますます複雑になり相互接続された世界をナビゲートするのに役立つ、洗練された応答性の高いデジタル アシスタントを作成する可能性を示しています。

インテリジェント インターフェースは、テクノロジーとのやり取りをより自然で楽なものにすることを約束します。私たちの行動と本能を活用することで、新しいテクノロジーに関連する学習曲線を短縮し、より幅広いユーザーが新しいテクノロジーにアクセスできるようにすることもできます。

 

未来を形作る新興テクノロジー

未来のインターフェースはチャットではなく、マルチモーダルでユビキタスなものです。

未来は、何ページにもわたる UI フローや、デスクトップかモバイルかを検出することではありません。私たちの将来のインターフェースは、インテリジェントでコンテキストに応じた一時的なものになります。コンテキストと関連性に基づいて、リアルタイムでコンパイルされるちょうどいいインターフェースです。

必要なときに表示され、必要のないときに非表示になる UI。

音声、タッチ、またはタイピングによる対話機能により、ユーザーにとって自然なものに基づいてモダリティを簡単に切り替えることができます。インターフェースが流動的で、サウンドと触覚が穏やかなアンビエントなインタラクションを強化します。あなたが何者であるかを理解した上で、必要なものを提供し、対話するほど良くなる、積極的なコンシェルジュです。

人間が適応するのではなく、人間に適応するシステム。

 

Imran Chaudhri氏、TED 2023 の Humane 共同創設者、会長、社長

 
一部の企業はすでにこの未来のビジョンに向けて取り組んでいます。今年の TED カンファレンスで、Humaneの Imran Chaudhri 氏は、AI、コンピューター ビジョン、プロジェクションを組み合わせて、電話を使わずに 1 日中そばにいて、デバイスが消えるアシスタントを作成するシステムである未公開テクノロジーのプレビューを提供しました。このタイプのシステムの初期の様子は、Pranav Mistry 氏が2009 年に TEDIndia で行った、MIT メディア ラボの論文プロジェクトであるウェアラブル ジェスチャーインターフェイスのSixSense デモを思い出させます。メディア ラボの流体インターフェース研究グループを主宰する、Pattie Maes氏は、その年のTED のメイン ステージでこのプロジェクトを紹介し、大きな話題を呼びました。

限界を押し広げるもう 1 つのチーム、元 Apple のデザイナーで創設者のJason YuanSam Whitmore は、new.computerへの資金提供を受けたところです。その使命は「コンピューターが人間に直感的に適応し、私たちが使用するツールと同じくらい不可欠な関係を築く未来を創造すること」です。今日、“Jason Yuan” の名前は、アプリやフォルダーではなくユーザーの意図に焦点を当てた従来のオペレーティング システムを最小限に流動的に再考したMercury OSの作成者としてよく知られているかもしれません。

 

Refik Anadol氏,『マシン回想録』

 

そして、最も実験的なアートのいくつかは限界を押し広げ、私たちが将来のシステムとどのように相互作用するかを形作るのに役立つかもしれません。Refik Anadol は、プロジェクション マッピングと機械学習を使用して、没入型 AI データ彫刻とインタラクティブ アート インスタレーションを作成します。Anadolの作品は、物理世界とデジタル世界の間の境界線を曖昧にし、美しく考えさせられる環境を作り出しています。

 

AI、機械学習、自然言語処理、人間とコンピューターの対話の進歩により、今後 10 年間でインテリジェント インターフェースの進化が促進されると考えられます。進化する新たなインタラクションやエクスペリエンスの種類について考えるにあたって、その未来に影響を与えるトレンドや発展のいくつかを以下に示します。

 

  1. マルチモーダル インターフェース: 将来のインターフェースでは、テキスト、音声、視覚、さらには触覚の入力と出力が組み合わされる可能性があります。これにより、ユーザーはいつでも自分にとって都合の良い、または直感的な方法で AI と対話できるようになります。たとえば、AI アシスタントにコマンドを話すと、スマート グラスで視覚的な応答を受け取ることができます。

  2. コンテキスト認識型インターフェース: AI は、ユーザー インタラクションのコンテキストをよりよく理解できるようになります。これは、AI がユーザーが何を言っているか、どこにいて、何をしているか、その特定の状況で何が必要かを理解することを意味します。これには、さまざまなセンサーやソースからのデータを統合して、より適切でパーソナライズされた応答を提供することが含まれる可能性があります。

  3. 感情的でインテリジェントなインターフェース: AI は人間の感情を認識し、それに応答することにさらに熟達するでしょう。これには、ユーザーの感情状態を理解し、それに応じて反応を調整するために、声のトーン、顔の表情、さらには生理学的信号を分析することが含まれる場合があります。

  4. プロアクティブなインターフェース: AI インターフェースはコマンドを待つのではなく、よりプロアクティブになり、パターン、習慣、好みに基づいてユーザーのニーズを予測します。たとえば、AI アシスタントは、いつものルートに渋滞があることがわかっている場合、会議のために早めに出発することを提案するかもしれません。

  5. 没入型インターフェース: Humane が実証したような AR、VR、プロジェクション マッピング テクノロジーの進歩により、より没入型の AI インターフェースが期待できます。これらのテクノロジーにより、デジタル コンテンツとのより自然で直感的なインタラクションが可能になる可能性があります。

  6. 協調的なインターフェース: AI は協調的な問題解決能力をさらに高め、人間と協力して複雑なタスクに取り組みます。これには、いつ主導権を握るべきか、いつ説明を求めるべきかを認識するなど、人間らしい会話を理解し、貢献することが含まれます。

将来的には、よりパーソナライズされた没入型のインターフェースが期待できるでしょう。AI と機械学習により、インターフェースはさらにスマートで適応性が高くなります。彼らは私たちの習慣や好みから学習し、テクノロジーとのやり取りをより効率的かつ楽しいものにしてくれます。AR と VR は進化し続け、物理世界とデジタル世界の間の境界線が曖昧になり、インタラクションの新たな可能性が生まれます。ブレイン コンピューター・インターフェース (BCI) はまだ初期段階にありますが、私たちが思考だけを使ってテクノロジーと対話できる未来を約束しています。

 

より継続的でパーソナライズされたアンビエント・インターフェースへの移行が見られるでしょう。これらのインターフェースは私たちの日常生活にシームレスに統合され、他の人間と対話するのと同じように、より自然かつ直感的な方法で AI と対話できるようになります。将来的には、ブレイン コンピューター・インターフェースなどの技術進歩によって可能になる、音声、ジェスチャー、視線、さらには思考ベースのインターフェースの組み合わせを考えてみましょう。

 

この分野における最新の研究は興味深いものです。科学者たちは AI アルゴリズムからブレイン コンピューター・インターフェースに至るまであらゆるものを研究しており、その発見は私たちがテクノロジーと対話する方法に革命をもたらす可能性があります。MIT のコンピューター サイエンスおよび人工知能研究所(CSAIL) の研究者は、人間の感情を理解し、それに応答できるシステムを開発しています。これにより、テクノロジーとのやり取りがより共感的で魅力的なものになる可能性があります。一方、カリフォルニア大学サンフランシスコ校の研究者らはBCI技術の進歩を進めており、最近では脳信号を完全な文章に翻訳できるシステムを開発しています。

 

インテリジェント インターフェースは、人間とコンピューターの対話における次のフロンティアを表します。これらは、私たちのテクノロジーとのやりとりをより自然で直感的で魅力的なものにすることを約束します。重大な課題と倫理的考慮事項が存在しますが、潜在的な利点は計り知れません。1 つ明らかなことは、私たちのテクノロジーとの関わり方が大きく変わろうとしているということです。

 

・・・

 

これは私の通常の投稿よりも密度の高いアプローチです。いつものように、フィードバックをお寄せください。コミュニティがこのトピックに非常に興味がある場合は、パート 2 を書きます。そこでは、インテリジェント インターフェイスの課題、倫理的考慮事項、デザイナーの役割がどのように進化するかについて詳しく説明します。私は自分の研究助手として ChatGPT 4.0 を試していますが、どうでしたか?

 

英語版参照元:

https://uxdesign.cc/decoding-the-future-the-evolution-of-intelligent-interfaces-ec696ccc62cc

 

 

DMNでは、他にも様々なブログを「DMN Insight Blog」にて配信しております。
定期的に記事をご覧になられたい方は、ぜひご登録をお願いいたします!

「DMN Insight Blog」メールマガジン登録