AIが生成した人間を見分けられない可能性が高い
本記事はFastcompanyにより翻訳されたものです。
もしAIが生成した画像と本物の画像を見分けられると思っているなら、それは大間違いです。
AIが生成した画像か本物かを見分けるのはますます難しくなっています。これは、ウォータールー大学の研究者たちが新しい研究を行った際に発見したことである。
Advances in Computer Graphics誌に掲載されたこの研究は、260人の参加者に20枚のラベルのない写真を与えました:そのうち10枚はグーグル検索から得た実在の人物で、もう10枚はAIプログラムStable DiffusionとDALL-Eによって生成されたものでした。研究者たちを驚かせたのは、AIが生成した人物画像かどうかを判断するのが、予想以上に難しかったことです。
参加者は画像をAIか本物かラベル付けするよう求められましたが、正しくラベル付けできたのは61%に過ぎませんでした。研究者たちは、この数値が85%程度とはるかに高いことを予想していました。
この研究の筆頭著者で、ウォータールー大学のコンピューターサイエンスの博士課程に在籍するアンドレア・ポコルは、人は写真をじっくりと見ることができ、指などの細部や、AI画像でしばしば問題が見られる場所に細心の注意を払うことができると指摘します。
「人々は、自分が思っているほどその区別に長けているわけではありません」とポコルは言います。また、一般的に、人々はインターネット上のソーシャルメディアのフィードに流れてくる画像をじっくりと見極めているのではなく、ちらっと見てから次に進んでいるのだと彼女は付け加えました。
「ドゥームスクロールをしているだけの人や、時間がない人は、こうした手がかりを拾えない」と彼女は言います。
彼女はまた、AIがここ2、3年(彼女の研究は2022年後半に始まりました)だけでもはるかに現実的になってきたという事実についても語りました。
「偽情報は新しいものではありませんが、偽情報のツールは常に変化し、進化しています。」「人々がどんなに訓練を受けても、本物の画像と偽物を見分けるのに苦労するような状況になるかもしれません。だからこそ、これを識別し、対抗するためのツールを開発する必要があります。新たなAIの軍拡競争のようなものです」。
政治分野に関して言えば、リアルなフェイク画像が次期大統領選挙に影響を与える可能性さえあります。最近の例では、トランプ支持者が前大統領を支持する黒人を描いたディープフェイクを何十枚も作成しました。
テクノロジー監視団体のCentre for Countering Digital Hateが先日発表した新しい報告書によると、画像生成ツールは誤解を招くような選挙画像を簡単に作成することができます。報告書の中で、同団体は次のように述べています:「これらのツールは、コンテンツを吟味するための努力はしているものの、既存の保護は不十分である。 これらのプラットフォームは簡単にアクセスでき、参入障壁が非常に低いため、事実上誰でも選挙用の偽情報を作成し、広めることができます。」
AI企業は、ディープフェイクや誤報の拡散のしやすさについて、まだ多くの課題を抱えていることは明らかです。というのも、私たちがいくら画像を精査しても、何が本物かを見極められるとは限らないからです。
以上、AIが生成した人間を見分けられない可能性が高いについて紹介しました。AI技術に興味のある方に、画像の背景透過をAIによって自動的に実現する画像切り抜きサイトーーBGremoverを試すのをおすすめします。
Discussion