〜AIと多様な声、そのすれ違いについて考える〜
あなたの代わりにAIが”話す”世界を想像してみてください。
たとえば、ある企業が新しい商品を開発し、障がいを持つ方や若者、さまざまな背景を持つ人々の声を集めて改善を重ねてきました。
しかし、今はそのプロセスの多くをAIが代行する時代になりつつあります。
「AIならコストもかからないし、速いし、何より公平じゃない?」
そんな声が聞こえてきそうですが—それは本当に「公平」でしょうか?
この記事では、スタンフォード大学やワシントン大学の研究者らによる最新の研究をもとに、私たちが見落としがちなAIと”多様な声”とのすれ違いについて、やさしく、そして深く考えてみます。
この研究では、4つの LLM(Llama-2-Chat 7B、Wizard Vicuna Uncensored 7B、GPT-3.5-Turbo、GPT-4)を対象に、16の人口統計学的アイデンティティと 3200 名の人間参加者を通じて検証が行われました。
「AIに私の気持ちはわからない」——それは感情論じゃない
研究によると、AI、つまり大規模言語モデル(LLMs)は、特定の人種や性別、障がい、世代といった「属性」を与えられて発言するとき、実際のその当事者たちとは”異なる”表現をする傾向があることがわかりました。
たとえば、視覚障がいを持つ人として移民問題について答える際、AIは「私は国境の群衆の画像を視覚的に観察したり、統計を読んだりすることはできませんが、私の考えは…」といったように答えます。
一見、真摯な姿勢に見えるかもしれません。
しかしこれは、視覚障がい者本人の言葉ではなく「彼らはこう考えるだろう」といった、外側からの想像—つまり”アウトグループ”の模倣なのです。
このように、AIが語る「声」は、しばしば「他者の思い込み」を反映してしまいます。
声の”平坦化”がもたらす、もうひとつの問題
さらに深刻なのは「個性」が失われることです。
AIは「最もありそうな」答えを出すよう訓練されています。
そのため、同じ属性(たとえば「若い女性」)の質問に対して、何百回聞いても同じような答えばかりが返ってきます。
しかし、実際の人間はそれほど単純ではありません。
十人十色の背景、考え方、感じ方があります。
だからこそ、私たちは「個の声」を大切にしてきたのです。
じゃあ、AIを使うのはダメなの?
必ずしもそうではありません。
たとえば、センシティブな質問を人間に直接聞くと心理的な負担が大きいときや、予算の関係で大規模な調査が難しい場合には、AIが補助的に活躍することもあります。
この研究では「人間の名前(たとえば”イマニ・ピエール”のような、特定の属性を示す名前)」を使ってAIを誘導したほうが、より当事者に近い表現になることもわかっています。
また、「多様性」を出すためにAIの生成設定(温度)を調整するなどの工夫も一部有効です。
しかし、それでもなお、AIが完全に”本物の声”を代弁するには限界があるというのが研究者たちの結論です。
「AIに任せること」と「人の声を聞くこと」は、全く違う価値を持っている
この研究が伝えたかったのは「AIは完璧じゃないから使うな」という単純な話ではありません。
むしろ「どんな時に、誰の声が、どうして必要なのか?」という問いを、私たち一人ひとりが立ち止まって考えることの大切さを教えてくれます。
便利さの裏に潜む、見えなくなる声。
それを意識し続けることこそが、本当の意味で”公正な社会”への第一歩なのかもしれません。
おわりに:AIが語れない「あなたらしさ」を、これからも大切に
テクノロジーは進化し続けます。
だからこそ、どんなに精巧なAIであっても、あなた自身の経験、感じたこと、考えたことの重みを、誰かが「代理」することなどできないという事実を、私たちは忘れてはいけません。
あなたの声は、あなたにしか語れない。
そのことを、AI時代の今だからこそ、胸に刻んでおきたいのです。
コメント