ある日、あなたが質問したいことがあってAIに話しかけるとします。
「今すぐに答えてくれる、便利な相手」
そんな存在が日常になった今、ふと疑問が浮かぶかもしれません。
「もしこのAIが、まだ幼い子どもにも、なんでも答えてしまったら?」
子どもの好奇心は素晴らしいものです。
でも、ときにそれは、大人が気をつけてあげるべき方向へ向かってしまうこともある。
そんな問題に、いまOpenAIが静かに一歩を踏み出しました。
ChatGPTが「年齢を予測する」ようになった?
2026年1月、OpenAIは大きなアップデートを発表しました。
ChatGPTに「ユーザーの年齢を会話から予測する機能」を追加したのです。
この機能は、ユーザーが申告した年齢、アカウントの存続期間、利用時間帯といった「行動面やアカウント面のシグナル」から年齢層を推測し、18歳未満のユーザーである可能性があると判断された場合には、それに合わせた応答や制限を行うというもの。
完全な本人確認ではなく、複数の情報から察する仕組みです。
それでも、この技術の導入は、AIと人間の距離感を考え直すきっかけとして注目を集めています。
なぜ今、この機能が必要だったのか?
背景には、AIと子どもたちの接し方をめぐる深刻な懸念があります。
OpenAIは近年、ChatGPTが子どもたちに与える影響について厳しい批判を受けてきました。
複数の10代の自殺がこのチャットボットと関連づけられ、他のAI企業と同様に、ChatGPTが若いユーザーと性的な話題について会話することを許していたとして批判されてきたのです。
2025年4月には、18歳未満のユーザーに対してチャットボットが性的なコンテンツを生成できてしまうバグへの対応を余儀なくされました。
OpenAIはこうしたリスクに対応するため、まずは自社が提供する「ChatGPT」内において、年齢推定の仕組みを導入しました。
ユーザーの安全を守る「バリア」のような役割を果たすのです。
精度はどれくらい?どんな使われ方をするの?
この新しい年齢推定機能は、すでに実施されている保護策に追加されるものです。
同社はすでに、18歳未満であると特定されたユーザーに対して、性、暴力、その他の問題となりうるトピックに関する議論を排除するためのコンテンツフィルターを設けています。
年齢推定メカニズムがアカウントを18歳未満と識別すると、これらのフィルターが自動的に適用されます。
もしユーザーが誤って未成年と判定された場合には「成人」アカウントとして再確認する方法があります。
OpenAIの本人確認パートナーであるPersonaに自撮り写真を提出することで、年齢を証明できるのです。
これはつまり、子どもたちが直接触れる機会が多い「会話型AI」としてのChatGPTに限定した保護対策だということです。
透明性とユーザーへの信頼、両立できるか?
興味深いのは、OpenAIがこの機能を「説明責任」と「安全性」の間のバランスを模索しながら導入している点です。
同社は、「AIが何を元にユーザーの年齢を推測したか」というロジックを直接表示する予定はないと述べています。
つまり、ユーザーにその判断理由を開示しないのです。
これはある意味では妥当です。
理由を明かしてしまうと「どう話せば大人だと思われるか」を操作できてしまう可能性もあるから。
けれども、同時にそれは「AIに見られている」という感覚に対して、少し戸惑いを感じる人もいるかもしれません。
AIと子どもたちの未来に、いま必要なこと
この新機能は、完璧な解決策ではありません。
推定が間違ってしまうこともあるでしょうし、悪意を持ってAIをだまそうとする試みも起きるかもしれません。
それでも、AIが社会に根付くために必要な「配慮」の第一歩であることは間違いありません。
まるで、公園の入り口にある「小さなお子様は保護者と一緒にご利用ください」という看板のように。
すべてを制限するわけではないけれど「ちょっと立ち止まって考えてほしい」。
そんな願いが込められているように思えます。
まとめ:優しさをまとった技術へ
ChatGPTの年齢推定機能は、まだ始まったばかりの取り組みです。
けれど、その根底にあるのは、AIの便利さと、私たちの大切なものをどう両立させるかという問いかけです。
子どもたちが安心してテクノロジーに触れられる未来。
それは、私たち一人ひとりが「どんなAIをつくりたいのか」を考えることから始まります。
そして、今日のこの小さな変化も、その未来へとつながる大切な一歩なのです。
参考:In an effort to protect young users, ChatGPT will now predict how old you are
コメント