私たちは今、世界がどこに向かっているのかを見極めようとする分かれ道に立っています。
AIは超人類的ツールになりうるのか、それとも誰も制御できない危険な機械になるのか—
最前線の研究者が警鐘を鳴らす
この大きな分かれ道の問題に対し、最前線で試されている一人の研究者がいます。
サビアンナ・グレツさんは、AIと社会の関係性を研究している中央ヨーロッパ大学の出身で、現在は OECD のAIに関わるコーディネーターを務めています。
このグレツさんが提起したのが「ルールなきAI改革」の危険性です。
「私たちはテクノロジーに引っ張られすぎている。AIの未来を二極化しすぎて、その誰が何を持ち、誰がルールを決めているのかを見落としている」
これは、一部の大手テック企業によってルールや権限が定められることへの懸念です。
「シンデレラ・モメンタム」の罠
さらに、グレツさんは、現在のAI開発が「シンデレラ・モメンタム」になっていると言います。
「誰も何も決めない、けれどなんとなく誰も止められない。すべてが滑り落ちているような感覚」
この言葉は、技術の進歩に追いつくように決定が行われている現状を表しています。
「信頼できるAI」という課題
このような情勢に、世界中の企業や政治家、研究者が答えを求めている今、最も重要なのは「信頼できるAI」というキーワードです。
でも、その「信頼できるAI」とは何なのか。
誰がそれを判断し、どのように「信頼」をこの世に証明するのか。
現実的でしなやかなルールづくりの重要性
グレツさんは、これらの問題をすべて「現実的でしなやかなルールづくり」の重要性として位置づけます。
強い義務や制約をもってテクノロジーを制御するのではなく、社会全体が連携して、平等で、開かれた話し合いの中で新しいルールを作り出す。
これこそが、AIを本当に「信頼できる」技術にするための、静かながら最も重要な歩みなのです。
参考:Suvianna Grecu, AI for Change: Without rules, AI risks ‘trust crisis’
コメント