🦔

AIは未来、倫理の戦場で戦われる理由

2023/04/19に公開

この記事は、fastcompanyにより翻訳したものです。

ここ数カ月、リストラの憂き目がテック業界の労働者を襲っています。収益予測や財務実績に影響を与えるマクロ経済の課題に直面し、ハイテク大手は歴史に残る運命にある前例のない時代を迎えています。

マクロ的な圧力と激動する市場の中で、今年の光は新興技術、特にAIの急成長と導入にありました。AIは決して新しいものではありませんが、世界はこの技術が職場内外のあらゆる会話に浸透するのを止めることができませんでした。

それには理由があります。私たちの日常生活におけるAIの可能性と導入は重要であり、産業の変化を促進し、ジェネレーティブAIのような新しい技術を後押ししています。

しかし、どんな新興技術でもそうですが、現段階では多くの疑問があり、多くの答えがあるわけではありません。ChatGPTの台頭により、ジェネレーティブAIとその成果物の所有権、そしてその作品が著作権保護の恩恵を受けられるかどうかをめぐる新たな法的問題が数多く見られるようになりました。現在、AI開発者が、芸術作品が正当な対価なしに使用されていると主張するアーティストやコンテンツクリエイターからの反発に直面し、すでに裁判が進行中です。

この訴訟の結果は、AIの将来の使用を形成するのに役立ちますが、この技術が持続的な長期的成長を遂げるためには、最終的に倫理的で責任あるものでなければなりません。責任あるバージョンのAIは、とりわけプライバシーとバイアスをその中核として考慮することになります。しかし、リストラが続く中、この重要な要素についてもプラグが抜かれたようです。

AmazonやTwitterがチームを削減する中、ChatGPTをMicrosoft 365製品群に組み込んでいたMicrosoftは、倫理チームを完全に削除するまでに至りました。

これは気になりますね。

これらのチームはもともと、AI技術の開発と責任ある使用に必要な道徳的原則と手法のシステムを作成し、実装する役割を担うために開発されました。AI倫理フレームワークの枠内で活動することで、これらのチームは、私たちの日常生活に深く浸透している技術の未来を開発する責任を負う従業員のための明確なガイドラインを作成するという重要な役割を担っています。このような開発者の責任を問う仕組みがなければ、AIの利用が無責任になり、技術の利用者にとって安全でないものになる危険性が高まります。

重要なのは、倫理的なAIへの投資と導入は、熱心なリーダーシップ・チームの責任であることです。企業の社会的責任(CSR)や環境・社会・企業統治(ESG)に対する注目と同様に、AIは役員室が優先するビジネス略語の棚の一番上に置かれなければなりません。結局のところ、これらは相互に関連しているのです。CSRの重要な柱は、環境、慈善、経済的な要素とともに、企業が人種や性別の差別を含む人権を守る倫理的な方法で事業を運営しているかということです。AIツールを開発し、消費者向け製品に組み込んでいる企業は、アルゴリズムの偏りを緩和し、回避するために、そうした権利を支持する責任を負っています。

顔認識アルゴリズムでは、白人男性を非白人男性よりも正確に認識する人種的な偏りが見られます。また、IBMなどの企業が作成した音声認識システムでは、白人の声と比較して黒人の声を書き写す際のエラー率が高いことが判明しています。AIは非常に大きなデータセットで学習されるため、使用されるデータが倫理的な枠組みに適合しているかどうかを確認することはもちろん非常に困難ですが、このことは、責任のある専門チームに持つことの重要性を物語っています。

また、環境面でも同様に、AIモデルはモデルを訓練するために大量のエネルギーを消費することがあります。これによって、企業はESG目標を達成できるのだろうか。まだ確定はしていませんが、はっきりしているのは、このテクノロジーの成功は、倫理の戦いに勝てるかどうかで決まるということです。

これは、プライバシーガバナンスを設計の中心に据えることから始まります。EUの一般データ保護規則のようなグローバルなプライバシー規制は、AIシステムの使用を規制するために存在しますが、AI、法務、プライバシーチームが開発者と協力して、倫理とプライバシーの枠組みの境界の中で運用できるようにすることは、企業次第です。

先日、Future of Life Instituteが公開書簡を発表し、有害な結果を恐れて強力なAIモデルの育成を中止するよう呼びかけたことで、私たちは決定的な選択を迫られているのです。
企業と政府からなる社会として、私たちはそれぞれ、より包括的で人間らしい未来を建築するための土台を築く役割を担っています。フレームワークとガバナンス構造を確保するために今行動することによってのみ、私たちは、間違いなく私たちの世界を変えることができるテクノロジーの倫理的バージョンを構築し始めることができるのです。

以上、AIは未来、倫理の戦場で戦われなけらばならない原因を説明しました。AIに関心を持つ方に、AI画像鮮明化AI絵画ツールをお勧めします。

Discussion