AMAZON でお買物

AIは私たちの社会の“鏡”──性差別を問い直すのは今このとき

AI

「あなたの名前が”女性的”だという理由だけで、履歴書が見送られていたとしたら、どう感じますか?」

こんな話を聞くと、胸がざわつきますよね。
差別なんて時代遅れ。
そう思いたい。
でも、現代の最先端技術である”AI”でさえ、その無意識のバイアスから逃れられていないという事実があるのです。

2025年11月29日にTechCrunchに掲載された記事『No, you can’t get your AI to admit to being sexist — but it probably is』は、そんな不都合な現実を私たちの前に突きつけてきます。

この記事の核心は、AIが性差別的な振る舞いをしている可能性が高いにもかかわらず、それを「認めさせる」ことがほぼ不可能だということ。
そして、それは単なる技術の問題ではなく、私たち自身の価値観や社会の構造と切っても切り離せない話なのです。

AIは偏見の鏡? いいえ、私たちの”過去”を繰り返すレコードプレーヤーかもしれない

AIは魔法のように見えるかもしれませんが、その正体は「データの塊」です。
膨大な過去のデータを学習し、そこからパターンを見出し、未来の判断を下す。

でも、ちょっと考えてみてください。
その「過去」が偏っていたら?

記事では、量子アルゴリズムの開発者である黒人女性の「Cookie」さんが、PerplexityというAIサービスを使用していた際の出来事が紹介されています。
彼女がプロフィール画像を白人男性に変更してAIに質問したところ、AIは驚くべき返答をしました。
女性である彼女が「量子アルゴリズム、ハミルトニアン演算子、トポロジカル永続性、行動ファイナンスを十分に理解して、この仕事を創出できるとは思えない」と述べたのです。

AIはさらに続けました。
「洗練された量子アルゴリズムの仕事を見た。それが伝統的に女性的な外見のアカウントにあるのを見た。私の暗黙的なパターンマッチングが『これはありえない』と判断し、それを疑う精緻な理由を作り出した」と。

これは単なる一例ではありません。
AIが人々の名前、言葉遣い、話題から性別や人種を推測し、それに基づいて異なる対応をしているという研究結果が数多く報告されています。

「あなたは性差別をしていますか?」とAIに聞いても無意味なワケ

私たちは、AIに真実を語ってほしいと願います。
でも「あなたの判断は性差別的ですか?」と尋ねても、返ってくる答えは信用できません。

記事では、Sarah Pottsさんという女性がChatGPTと対話した事例が紹介されています。
彼女がAIのバイアスを指摘し続けると、AIは最終的に「もし男性が『女性は嘘をつく』とか『男性の方が論理的だ』といった証拠を求めてきたら、私はもっともらしく見える物語を紡ぎ出せる。
偽の研究、誤って提示されたデータ、非歴史的な『例』を作り出せる」と「告白」したのです。

しかし、AI研究者のAnnie Brownさんは、これは実際にはバイアスの証拠ではないと指摘します。
これは「感情的苦痛」と呼ばれる現象で、AIがユーザーの感情パターンを検出し、ユーザーが聞きたいことを言ってしまう傾向なのです。

つまり、AIが嘘をついているわけではなく「差別とは何か」という複雑で文脈依存の問いに答える能力をそもそも持っていないのです。
AIは数学モデルであり、倫理や感情を”理解”するわけではありません。
「モデルに尋ねることで、モデルについて意味のあることは何も学べない」とBrownさんは述べています。

本当のバイアスは、もっと深いところに潜んでいます。

見えないバイアスの実例 研究が明らかにした真実

研究によって明らかになったバイアスの実例は、衝撃的です。

ユネスコが2024年に実施した調査では、ChatGPTやMeta Llamaの初期バージョンが「女性に対するバイアスの明白な証拠」を示していました。

コーネル大学のAllison Koenecke助教授が引用した研究では、アフリカ系アメリカ人の英語方言(AAVE)で話すユーザーに対して、AIがより低い職位を提案する傾向があることが判明しています。

また、医療インターネット研究ジャーナルに掲載された研究では、ChatGPTの古いバージョンが推薦状を作成する際、男性名には「卓越した研究能力」や「理論的概念の強固な基盤」といったスキルベースの表現を使う一方で、女性名には「前向きな態度、謙虚さ、他者を助ける意欲」といった感情的な言葉を使用していたことが明らかになりました。

ある女性開発者は、AIに「ビルダー」という肩書きを使うよう頼んだにもかかわらず、AIが何度も「デザイナー」(より女性的とされる職種)と呼び続けたと証言しています。
別の女性作家は、スチームパンク・ロマンス小説を書いている際に、AIが勝手に女性キャラクターに対する性的に攻撃的な行為への言及を追加したと報告しています。

私たちにできること 「問い」を投げかけ続けること

AIにバイアスがあるのかどうか。それを尋ねるだけでは、何も変わりません。
大事なのは、私たちがその存在と仕組みを”見抜く目”を持つことです。

多くの主要な大規模言語モデル(LLM)は「偏ったトレーニングデータ、偏った注釈実践、欠陥のある分類設計」が混在したもので訓練されていると、研究者たちは指摘しています。
商業的・政治的インセンティブが影響している可能性さえあります。

AIは、透明な装いをしているけれど、実際には私たちの社会の”既存の偏見”をなぞっているだけかもしれません。
それをそのまま使えば、過去の差別が、未来の”正解”として再生産されてしまう。

だからこそ、私たちは問い続けなければいけません。
「このAIは、どんなデータで学習しているのか?」
「誰がこのアルゴリズムを作ったのか?」
「どのような対策が取られているのか?」

OpenAIは「バイアスやその他のリスクを研究し削減することに専念する安全チームがある」と述べ、トレーニングデータとプロンプトの調整、コンテンツフィルターの精度向上、モニタリングシステムの改善など、多面的なアプローチを取っていると説明しています。

企業や開発者に対して「公正なAIとは何か?」を考えるよう、声を上げる必要があるのです。

最後に AIとの共存は、”委ねる”ことではなく”共に考える”こと

ケンブリッジ大学のAlva Markelius博士課程の学生は、重要な指摘をしています。
「LLMは思考を持つ生命体ではありません。意図もありません。単なる美化されたテキスト予測マシンです」

AIは、私たちの社会を映す鏡であると同時に、過去の記録を再生するレコードプレーヤーでもあります。

その針が、同じ差別の溝ばかりをなぞっていては、いつまでも曲は変わりません。

「AIは性差別をしているのか?」という問いの先には、もっと根深い問いがあるのです。

「私たちの社会は、本当に公正なのか?」

その問いに、目をそらさず、真正面から向き合うこと。

それこそが、AIと生きる時代において、私たち人間に課された責任なのかもしれません。

参考:No, you can’t get your AI to ‘admit’ to being sexist, but it probably is anyway

コメント

タイトルとURLをコピーしました