AIチャットボットをより対立的にするケース
本記事は、Fastcompanyにより翻訳されたものです。
AIチャットボットとのやりとりに時間を費やすと、その口調にうんざりし始めることがあります。非人間的なアシスタントにとって、どんな質問も負担になったり、押しつけがましくなったりすることはありません。ボットのフードの下を探りすぎると、対話を鈍らせるように設計された平凡な方法で答えてしまいます。
ジェネレーティブAI革命が始まって1年半近くが経過し、研究者たちはその死ぬほど退屈な形式が最良のアプローチなのかどうか疑問に思い始めています。
ハーバード大学の研究者、アリス・ツァイは「大規模な言語モデルに埋め込まれているトーンや価値観には、何か違和感がある」と言います。「非常にパターナリスティックに感じられました。」それ以上に、アメリカナイズされすぎていて、しばしば砂糖でコーティングされた、全世界が共有しない合意規範を押し付けているように感じるとツァイは語ります。
ツァイが育った家では、批判は当たり前であり、健全なものだったと彼女は言います「それは成長を促す方法として使われ、正直さは家族にとって本当に重要な通貨でした。」それがきっかけとなり、彼女とハーバード大学やモントリオール大学の同僚たちは、より敵対的なAIの設計がユーザーにより良いサービスを提供できるかどうかを探求するようになりました。
オープンアクセスリポジトリarXivで公開されたこの研究で、学者たちは参加者に、現在のジェネレーティブAIチャットボットに命を吹き込んだら、どのように見えるか想像してもらうワークショップを行いました。その答えは、白人の中流階級のカスタマーサービス担当者で、屈託のない笑顔と屈託のない態度でした。そして明らかに、必ずしも最良のアプローチではありません。「私たち人間は、礼儀正しさだけを重視するわけではありません」と、モントリオール大学のヒューマンコンピュータインタラクションの助教授で、この研究の共著者の一人であるイアン・アラウジョは言います。
実際、アラウジョは「多くの異なる領域において、広く解釈される拮抗は良いことです」と語ります。研究者たちは、拮抗するようにコード化されたAIは、隷属的でうんざりするほど同意的なのではなく、ユーザーが自分の思い込みと向き合い、レジリエンスを築き、より健全な関係性の境界を築くのに役立つ可能性があることを示唆しています。
研究者たちが思いついた対決型AIの潜在的な用途のひとつは、ユーザーを悪い習慣から脱却させるための介入でした。「私たちのチームは、あなたが悪い習慣と思われるようなことをしているときに、それを認識できる介入システムを開発しました。」「スポーツや、時には自己啓発でよく使われるような、対決型のコーチング・アプローチを採用しています。」
しかし、アラウジョは、対立的なAIの使用は、特にそのような分野に配備された場合、慎重な監督と規制が必要になると指摘します。
研究チームは、AIをもう少し礼儀正しいものに作り替えるという提案に対して、肯定的な反応が返ってきたことに驚いています。「このようなアイデアやシステムを探求する時期が来たのだと思います」とアラウジョは言います。「もっと実証的な調査をして、実際にどうすればいいのか、どこが有益で、どこが有益でないのか、トレードオフの関係はどうなのかを調べ始めたい。」
以上、AIチャットボットをより対立的にするケースについて紹介しました。最新のAIツールに興味のある方に、テキストを入力すれば、その内容通りの背景を自動生成してくれるeBizシリーズのAI背景生成や、服装の写真をアップロードしたら、AIモデル画像を生成するeBizシリーズのAIファッションモデルを試すのをお勧めします。
Discussion