🚀

AIイノベーションと倫理的監視のバランス

2023/12/14に公開

本記事は、Entrepreneurにより翻訳された記事です。

AIの未来をめぐる議論が高まるにつれ、AIのガバナンスに関する議論も過熱しています。AIを搭載したツールを使用したり調達したりする企業には自主規制を認めるべきだと考える者もいれば、政府によるより厳格な法整備が必要だと考える者もいます。

急成長するAIの状況において、何らかのガバナンスが急務であることは明らかです。

AIの台頭:新世代のイノベーション

AIの応用例は数多くありますが、人工知能の分野で最も革新的で有名な組織のひとつがOpenAI。OpenAIは、自然言語処理(NLP)であるChatGPTが流行したことで有名になりました。それ以来、いくつかのOpenAIのテクノロジーはかなりの成功を収めています。

他の多くの企業も同様のサクセスストーリーを求めて、より多くの時間、研究、資金を費やしています。Readwrite.comが報じた記事によると、2023年だけでもAIへの支出は前年比27%増の1540億ドルに達すると予想されています。ChatGPTのリリース以来、AIは周縁にあったものから、世界中のほぼすべての人が意識するものになりました。

その人気は、企業の生産性を向上させる可能性など、さまざまな要因によるものです。調査によると、労働者がデジタルスキルを向上させ、AIツールを使って共同作業を行うことで、生産性が向上し、チームパフォーマンスが高まり、問題解決能力も高まったことが分かっています。

このようなポジティブな発表を見て、製造業や金融業から医療や物流に至るまで、さまざまな業界の多くの企業がAIを活用しています。AIが一夜にして新たな常識になりそうな中、急速な導入がテクノロジー依存やプライバシー問題、その他の倫理的懸念につながることを懸念する声も多いです。

AIの倫理:AI規制は必要か?

OpenAIの急速な成功に伴い、安全性や倫理的な意味合いについて、議員や規制当局、一般市民からの議論が高まっています。AI生産における倫理的なさらなる成長を支持する意見もあれば、より大きなイノベーションを可能にするため、個人や企業が自由にAIを利用すべきだと考える意見もあります。
このまま放置すれば、多くの専門家は以下のような問題が生じると考えています:

  • 偏見と差別:企業は、ロボットは差別をすることができないので、AIは偏見をなくすのに役立つと主張しますが、AIを搭載したシステムは、それに供給される情報と同じくらい公正で偏りのないものでしかありません。AIをコーディングする際に人間が使用するデータにすでに偏りがあれば、AIツールは偏りを増幅し、永続させるだけです。
  • 人間の主体性:AIに依存するようになり、プライバシーや生活管理に関する選択権に影響を及ぼす可能性があります。
  • データの悪用:AIは、デジタル化が進む世界でのサイバー犯罪対策に役立ちます。AIはより大量のデータを分析する力を持っており、潜在的な脅威を示すパターンを認識することができます。しかし、企業がAIを使ってデータを収集し、それを人々や消費者の虐待などに利用するという懸念もあります。これは、AIが人々をより安全にするのか、より安全でなくするのかということにつながります。
  • 誤った情報の拡散:AIは人間ではないので、善悪を理解していません。そのため、AIは不注意に虚偽や誤解を招くような情報を広める可能性があり、ソーシャルメディアが普及した現代では特に危険である。
  • 透明性の欠如:ほとんどのAIシステムは「ブラックボックス」のように動作します。つまり、これらのツールがどのようにして、あるいはなぜ特定の決定に至るのか、誰も完全に知ることができません。これは透明性の欠如と説明責任への懸念につながります。
  • 雇用の喪失: 労働力における最大の懸念のひとつは、雇用の喪失である。AIは労働者の能力を高めることができますが、雇用主が倫理よりも利益を選び、従業員を完全に置き換えることを心配する人も多いです。
  • 騒乱: 全体として、AIが規制されなければ、情報の兵器化、サイバー犯罪、自律型兵器など、大規模な騒乱が起きるという懸念があります。

こうした懸念に対抗するため、専門家たちは、AIの利益よりも人類の利益を最優先させるなど、より倫理的な解決策を推し進めています。重要なのは、AI技術を継続的に導入する際に人間を優先させることだと多くの人が考えています。AIは決して人間に取って代わろうとしたり、操作したり、コントロールしようとしたりすべきではなく、むしろ可能性を高めるために人間と協力的に働くべきである。そのための最善の方法のひとつが、AIのイノベーションとAIガバナンスのバランスを見つけることです。

AIガバナンス:自主規制対政府立法

AIに関する政策を策定する際に問題となるのは、AIの倫理的リスクを規制・管理すべきは一体誰なのかということです。

企業自身とその利害関係者であるべきなのでしょうか?それとも、政府が介入して、すべての人に同じ規則や規制を遵守することを求める包括的な政策を策定すべきなのでしょうか?

誰が規制すべきかを決めることに加え、具体的に何をどのように規制すべきかという問題もあります。これらが、AIガバナンスの3つの主な課題である。

誰が規制すべきか?

政府はAIを正しく監督する方法を理解していないという意見もあります。政府が過去にデジタル・プラットフォームを規制しようとした際に策定したルールは、AIのような技術開発のスピードに対応するには機動性に欠けます。

そこで代わりに、AIを利用する企業が擬似的な政府として行動し、AIを統治するための独自のルールを作ることを認めるべきだという意見もあります。しかし、この自主規制的アプローチは、データ・プライバシーの問題、ユーザー操作、ヘイト、嘘、誤った情報の拡散など、多くのよく知られた弊害を引き起こしてきました。

議論が続いているにもかかわらず、組織や政府の指導者はすでにAIの使用を規制するための措置を講じています。例えば、EU議会はすでに包括的なAI規制の確立に向けて重要な一歩を踏み出しています。また米国上院では、チャック・シューマー院内総務が中心となって、AIを規制するための広範な計画を概説しています。ホワイトハウスの科学技術局もAI権利章典の青写真作成に着手しています。
自主規制に関しては、すでに4つの大手AI企業が共同で自主規制機関を設立することを禁止しています。マイクロソフト、グーグル、OpenAI、Anthropicの4社は最近、フロンティア・モデル・フォーラムの立ち上げを発表し、企業がAIシステムの安全で責任ある利用と開発に取り組むことを確認しました。

何をどのように規制すべきか?

安全性や透明性といったことが主な懸念事項である。この懸念に対して、米国標準技術研究所(NIST)は、AIリスク管理のためのフレームワークの中で、安全なAIの実践のためのベースラインを確立しました。

連邦政府は、ライセンスの利用がAIの規制方法に役立つと考えています。ライセンスは規制監督のツールとして機能しますが、AIやデジタル技術の影響が一様でない場合、「一律」のソリューションとして機能するなど、欠点もあります。

これに対するEUの対応は、AIの多様なユースケースによりよく対応する多層的なアプローチを可能にする、より機敏でリスクベースのAI規制の枠組みである。リスクレベルの評価に基づいて、異なる期待が実施されることになります。

まとめ

残念ながら、誰がどのように規制すべきかについて、確固たる答えはまだ出ていません。数多くの選択肢と方法がまだ模索されています。とはいえ、OpenAIのCEOであるサム・アルトマンは、AIの監督に特化した連邦政府機関の構想を支持しています。マイクロソフトとメタも以前、国家的なAI規制機関の構想を支持しています。

しかし、確固たる決定が下されるまでは、AIを使用する企業は可能な限り責任を持ってそれを行うことがベストプラクティスと考えられています。すべての組織は、「注意義務」の下で活動することが法的に義務付けられています。これに違反する企業が見つかれば、法的措置が取られる可能性があります。

規制慣行が必須であることは明らかであり、例外はありません。つまり、今のところ、公共の利益を守り、投資とイノベーションを促進するという綱渡りの最良の方法を決定するのは企業次第なのである。

以上、AIイノベーションと倫理的監視のバランスについて紹介しました。AIを安全的に使うのは私たちにとって解決しなければならない課題ですね。最後ほかのAI製品に関心を持つ方に、AIによる画像を切り抜き、一瞬で透明化にするAI背景透過ツールーーBGremoverを試すのをおすすめします。

Discussion