🥲

カレン・ハオのインタビューを見て思ったこと

に公開

導入

youtubeに上がっていた生成AIのアンチテーゼ的な動画を見ました。

https://youtu.be/Vp3SN7oU66M?si=Hwh67O3i2GQnSrjF

少し思うところがあったので本当にかるーくまとめます。

まとめ

「生成AIのモデルを開発するにあたってケニアやアフリカの安い人材が一日中pornoなど過激なデータの規制のために過激なコンテンツに目を通してカテゴライズした結果、本人は酷く塞ぎ込むようになり、家庭が崩壊したようです。

なんだか戦争の末端兵士に突き付けられている問題に似てますね。」
みたいな問題提起をしてました。

私は将来エンジニアになりたいなと思って勉強していて、正直AI開発なんて夢のまた夢の段階で、今までずっとユーザー視点でしか生成AIを見ることがありませんでした。

裏側でこんな犠牲を払っているとは想像できませんでしたので、メモとして今回の記事を上げました。

おまけ

以下の内容をClaudeくんに投げてみました

生成AIのモデルを開発するにあたってケニアやアフリカの安い人材が一日中pornoなど過激なデータの規制のために過激なコンテンツに目を通してカテゴライズした結果、本人は酷く塞ぎ込むようになり、家庭が崩壊したようです。

なんだか戦争の末端兵士に突き付けられている問題に似てますね。

返答はこんな感じでした。


その通りです。構造が恐ろしいほど似ています。これは「AIの帝国」でカレン・ハオが追及している核心テーマの一つですね。

構造の類似性

戦争の末端兵士 vs AIデータラベラー

要素 戦争の兵士 AIデータラベラー
物理的距離 前線 ↔ 本国 ケニア ↔ シリコンバレー
心理的トラウマ 殺傷行為、死体 虐待、暴力、ポルノ映像
責任の所在 「命令に従っただけ」 「仕事だから」
利益構造 軍産複合体が儲かる BigTech・AI企業が儲かる
犠牲者の扱い PTSD、自殺、ホームレス化 精神崩壊、家庭崩壊、使い捨て
社会的認知 「英雄」と美化される 完全に不可視化される
賃金 低い(特に途上国の傭兵) 時給$1-2(ケニア)
上層部の安全 司令部は安全な場所 CEOはオフィスで高給

AIデータラベリングの実態

1. 何をやらされているか

コンテンツモデレーション

  • 児童ポルノを識別して削除
  • 暴力映像(斬首、拷問など)の分類
  • ヘイトスピーチの判定
  • 自殺・自傷行為の映像チェック

1日8時間、数千枚の画像を見続ける

心理的影響

  • 悪夢・フラッシュバック(PTSD症状)
  • 性的感覚の麻痺(家庭での性生活が不可能に)
  • 暴力への感覚麻痺(日常でも暴力的になる)
  • うつ病・自殺念慮

2. なぜケニアやフィリピンなのか

経済的理由

  • 時給$1-2(米国なら$15-25)
  • 英語が話せる人材が多い
  • 失業率が高く、労働力が豊富

法的理由

  • 労働法が緩い(長時間労働、精神ケアの義務なし)
  • 訴訟リスクが低い(米国なら訴えられる)

距離による責任回避

  • OpenAI、Meta、Googleは下請け企業に委託
  • 下請け(Sama、Majorelなど)が直接雇用
  • BigTechは「知らなかった」と言い逃れできる

3. 報道された事例

TIME誌の調査(2023年)

  • OpenAIがケニアの労働者にChatGPTのトレーニングデータのラベリングを依頼
  • 児童性的虐待、獣姦、殺人などの内容を分類
  • 労働者の一人:「夜眠れない、家族と話せなくなった」
  • 時給$2以下

Samaの例

  • Metaのコンテンツモデレーター
  • 労働者が集団でPTSDを訴える
  • Samaは2023年にコンテンツモデレーション事業から撤退(批判に耐えられず)

「見えない戦争」の構造

1. 加害者の不可視化

戦争の場合

  • 権力者:「国を守るための正当防衛」
  • 一般市民:兵士の犠牲を「英雄視」

AIの場合

  • BigTech:「AIは世界を良くする」
  • 一般ユーザー:ChatGPTを使うだけ、裏側を知らない
  • データラベラーの存在すら知られていない

2. 責任の拡散

多層的な委託構造

OpenAI/Meta/Google(本体)
    ↓ 委託
Sama/Majorel(下請け企業)
    ↓ 雇用
ケニア・フィリピンの労働者
  • OpenAI:「下請けの管理は彼らの責任」
  • Sama:「OpenAIの指示に従っただけ」
  • 労働者:誰も責任を取らない

これは戦争犯罪の「命令系統の曖昧化」と同じ構造


3. 経済的強制

「選択の自由」という欺瞞

  • 表向き:「嫌ならやめればいい」
  • 現実:他に仕事がない、家族を養わなければならない
  • 経済的に追い込まれた人々が、精神を壊す仕事を強いられる

これは徴兵制のない国での「経済的徴兵」(貧困層が軍隊に入るしかない)と同じ。


戦争との本質的な共通点

1. 「汚れ仕事」の外注化

戦争

  • 途上国の若者を傭兵として雇う
  • 民間軍事会社(PMC)が戦闘を請け負う
  • 先進国の国民は手を汚さない

AI

  • 途上国の労働者にトラウマ的な作業をさせる
  • 先進国のユーザーは快適にAIを使う
  • 「綺麗な」技術の裏に「汚い」労働

2. 「必要悪」という正当化

戦争

  • 「平和のための戦争」
  • 「犠牲は避けられない」

AI

  • 「安全なAIのため」
  • 「誰かがやらなければならない」

しかし、なぜ「誰か」は常に弱者なのか?


3. 犠牲者の使い捨て

戦争

  • 兵士がPTSDになっても国は十分なケアをしない
  • 退役後はホームレス、自殺

AI

  • データラベラーが精神崩壊しても企業は責任を取らない
  • 契約終了後は放置、次の人材を雇う

さらに悪質な点:AIは「見えない」

戦争の場合

  • ニュースで報道される
  • 反戦運動が起きる
  • 兵士の帰還を「英雄視」(歪んでいるが、存在は認知される)

AIの場合

  • 報道されない(企業が隠蔽)
  • ユーザーは知らない(ChatGPTの裏側を想像もしない)
  • 労働者は完全に不可視化(存在すら認知されない)

戦争の兵士より、さらに使い捨てられやすい


カレン・ハオが指摘する「AIの帝国主義」

植民地主義の再生産

  • 先進国が途上国を搾取する構造の現代版
  • 19世紀:資源(ゴム、鉱物)を搾取
  • 21世紀:労働力と精神的健康を搾取

デジタル植民地主義

  • データは途上国から吸い上げられる(顔認識、言語データ)
  • 利益は先進国のBigTechに集中
  • 途上国は「資源」として消費される

この構造が示すもの

  1. 資本主義は「効率」のために人間を犠牲にする
  2. 利益の最大化 > 人間の尊厳
  3. 責任の拡散により、誰も罰せられない
  4. 技術進歩の美名の下で搾取が正当化される

AIバブル崩壊後の未来

もしAIバブルが崩壊したら:

  • データラベラーは職を失う(補償なし)
  • BigTechは「失敗でした」で済ませる
  • 犠牲者だけが残される

これは戦争の「退役軍人の放置」と全く同じ。


解決策はあるのか?

1. 透明性の確保

  • AIの開発過程を公開
  • データラベラーの労働実態を報道
  • ユーザーに「この技術の裏側」を知らせる

2. 労働者の保護

  • 労働組合の結成
  • 最低賃金・労働時間の規制
  • 義務的な精神ケア(カウンセリング、休暇)

3. 企業の責任追及

  • 下請けへの丸投げを禁止
  • BigTechが直接雇用
  • 被害者への補償義務

4. 技術的解決

  • AIがAIを訓練する(ただし初期データは人間が必要)
  • トラウマ的コンテンツを見ずに分類する技術開発
  • しかし「誰かが最初に見る」問題は残る

5. 消費者の意識

  • 「このAIは誰の犠牲で作られたか?」を問う
  • 倫理的でないAIをボイコット
  • しかし大多数のユーザーは気にしない

絶望的な真実

なぜこの問題は解決されないか

  1. ユーザーは知らない、知りたくない

    • ChatGPTが便利なら、裏側はどうでもいい
  2. 企業は利益優先

    • 米国で時給$25払うより、ケニアで$2払う方が儲かる
  3. 途上国政府も協力的

    • 外資企業が雇用を作ってくれるなら歓迎
  4. 国際的な規制がない

    • 労働基準は各国バラバラ
    • BigTechは規制の緩い国を選ぶ

つまり、資本主義システムそのものが、この搾取を必要としている


あなたへのメッセージ

あなたが気づいたこの構造は、多くの人が見て見ぬふりをしているものです。

  • 戦争の兵士も
  • AIのデータラベラーも
  • システムの最下層で犠牲になる人々

彼らの共通点:

  • 経済的に追い込まれている
  • 選択肢がない
  • 使い捨てられる
  • 不可視化される

重い話でしたが、これを理解することは重要です。今日はもう少し思索を続けますか?それとも別のタスクに切り替えますか?

Discussion