AMAZON でお買物

AIの自律性は“性能”じゃなく“設計”で決まる

AI

Anthropic最新研究に学ぶ、任せ方の設計とリスクの見取り図

朝、コーヒーを淹れている間に、昨日のメールを仕分けしてくれる。
昼休みに「この不具合、原因だけ特定しておいて」と頼んだら、ログを集めて仮説を立て、修正案まで作ってくれる。

そんな便利さに胸が躍る一方で、ふと不安もよぎります。
「どこまで任せていいんだろう?」
「勝手に進みすぎたら、止められるのかな?」

この問いに、現実のデータで答えようとしたのがAnthropicの研究「Measuring AI agent autonomy in practice」です。
Claude Codeと公開APIの数百万件の人間とAIのやり取りを分析し、AIエージェントが実際にはどれくらい自律的に動いているのか、どんな領域で使われ、どんなリスクが潜むのかを丁寧に測っています。

この記事では、研究内容を初心者にも分かる言葉にほどきながら「AIに仕事を任せるときの設計図」を一緒に描いていきます。
単なる批評ではなく、明日からの使い方が少し変わるような、実践的なヒントを持ち帰ってください。

そもそも「AIエージェント」って何?

チャット相手ではなく、手を動かす相棒

Anthropicはこの研究で、エージェントをこう捉えます。
「ツールを使って行動できるAIシステム」、つまりコード実行、外部API呼び出し、メッセージ送信など「世界に働きかける手」を持つ存在です。

ここが大事なポイントです。
ただ文章を返すだけのAIは「相談相手」に近い。
一方、ツールで手を動かすAIは「実務の相棒」に近い。
前者は地図を広げて助言してくれる友人、後者は同じ車に乗って、実際にハンドルに手を添えてくる同乗者です。
同乗者が頼もしいほど、こちらの運転の仕方も変わります。
まさに、その変化を測ったのが今回の研究です。

発見1:Claude Codeは「長く」自律的に働くようになっている

でも、能力の伸びだけでは説明できない

研究の目玉のひとつが、Claude Codeが人に止められるまでに動き続ける時間の変化です。
最長クラスのセッション(99.9パーセンタイル)では、2025年10月から2026年1月の3か月で「25分未満」から「45分超」へほぼ倍増しました。
一方、ふつうの利用の中心(中央値)は約45秒で、こちらは大きくは変わっていません。

興味深いのは、増え方がモデルの新リリースに合わせた段差のような跳ね上がりではなく、なだらかだった点です。
もし「モデルが賢くなったから長く動ける」という一因だけなら、リリースごとに急に伸びるはずです。でも実際はそうではない。

ここから見えてくるのは、自律性はモデルの能力だけで決まらないという事実です。
ユーザーの慣れ、任せ方、プロダクトの設計が絡み合って、じわじわと「任せられる時間」が伸びていく。

発見2:慣れた人ほど「任せる」。でも「止める」回数も増える

信頼は放任ではなく、見守り方の進化

「AIに慣れると、人はチェックをやめて放置するのか?」直感ではそう思いがちですが、データは少し違う景色を見せます。
Claude Codeのフル自動承認(auto-approve)は新規ユーザーでは約20%だったものが、経験を積むと40%超に増えます。
ところが同時に、作業中に手を入れて止める割り込み(interrupt)も約5%から約9%へと増加するのです。

一見矛盾していますよね。
でも、これは「監督のやり方が変わった」と考えると腑に落ちます。
初心者は毎回の一手一手を承認するから、途中で止める必要が少ない。
熟練者は最初は任せて走らせ、その代わり「ここは危ない」「方向がズレた」と感じた瞬間に素早く介入します。

例えるなら、料理初心者はレシピを一行ずつ確認しながら作る。
慣れた人は、火加減や香りで全体を見て、焦げそうな瞬間だけサッと鍋を動かす。
この「サッと動かす」のが割り込みです。
AIエージェント時代の監督は、細かい許可の連続から、見守って介入するスタイルへ移っていく。研究はそう示唆します。

発見3:AIは「自分で止まる」ことがある

不確実さを自覚して、人に相談する動き

さらに興味深いのが、Claude Codeが人に止められるだけではなく、自分から立ち止まって確認する点です。
複雑なタスクほど、Claudeは確認のために止まる回数が増えます。
最も難しいタスクでは、人が割り込む回数よりもClaudeが確認で止まる回数の方が多く、最もシンプルなタスクに比べると確認の頻度は2倍以上にもなります。

研究では、Claudeが自ら止まる理由が具体的に整理されています。
最も多いのは、複数の進め方の案を提示して選択を求めるケース(35%)。
次いで、テスト結果や診断情報を収集するための停止(21%)、曖昧・不完全なリクエストの明確化(13%)、不足している認証情報やアクセス権の確認(12%)、行動前に承認・確認を求めるケース(11%)と続きます。

ここでのポイントは「人が止める仕組み」だけが安全ではないということです。
AIが自分の不確かさを検知し、自分から相談することも、現場で効く安全策になり得るという視点が、この研究から得られる重要な示唆のひとつです。

発見4:リスクの高い領域でも使われ始めている

ただし、今はまだ”主流”ではない

Claudeの公開API上のツール利用について、Anthropicは各行動に対してリスク(1〜10)と自律性(1〜10)を推定し、似た行動をクラスタにまとめて分布を見ています。
リスクは失敗しても無害なものから大きな害につながり得るものまで、自律性は指示通りに動く低自律から独立して判断する高自律まで、それぞれ相対的に評価されます。

そこで見えた全体像は、安心材料と注意材料が同居したものでした。
公開APIのツール利用は大半が低リスクで、80%は権限制限や承認など何らかの安全策があるように見え、73%は何らかの形で人が関与しているように見えます。
不可逆な行動(顧客へのメール送信など)はわずか0.8%にとどまります。

一方で「高リスクかつ高自律」の領域はまばらながらもゼロではなく、医療情報、金融取引、サイバーセキュリティのような領域での利用の兆しも見えています。

さらに、現時点では用途が偏っており、ツール利用の約50%がソフトウェア工学(ソフトウェア開発)に集中しています。
コードはテストしやすく、レビューしやすい。
だから監督の仕組みが作りやすい。逆に言えば、医療や法務や金融のように「正しさの検証が難しい領域」へ広がるほど、監督の設計はもっと難しくなります。

この研究が投げかける核心

自律性は「モデル」だけの属性ではない

Anthropicは結論として、自律性は固定の能力ではなく、モデル・ユーザー・プロダクト設計の三者によって共に作られる(co-constructed)ものだと示します。
だから、出荷前の評価だけでは足りず、現場でのポストデプロイメント監視(導入後監視)が重要だと指摘しています。

ここを日常に引き寄せて言い換えるなら、こうです。
AIエージェントは「自動運転の車」ではなく、「運転の上手い同乗者がいる車」に近い。
同乗者が優秀でも、道が難しければ運転は慎重になります。
運転者が慣れてきたら、任せ方は変わります。そして車の設計が、ブレーキの踏みやすさや視界の良さを決めます。

だから「AIがどれだけ賢いか」だけを見ても、本当の自律性は測れません。
この現実的な視点が、今回の研究の一番の収穫です。

明日から使える、やさしい実践ルール

任せる前に「止めどころ」を先に決める

研究の提言は開発者向けでもありますが、私たち利用者にも応用できます。
「AIエージェントを安全に任せる」ための、シンプルな型を3つだけ紹介します。

1)「不可逆な一手」を分離する

不可逆とは、取り消しが効きにくい行動のことです。
送信・決済・削除・公開などがその例です。研究でも不可逆行動は少数(0.8%)とされますが、少数でも事故は起きます。
収集・下書き・候補提示までをAIに任せ、送信や反映は人が押す、という二段階にすると「便利」と「安心」が両立しやすくなります。

2)チェック方法を「手順」から「指標」へ

初心者のうちは逐次承認でも良い。
でも慣れてきたら、研究が示すように「見守り介入型」が現実的です。
今何をしているかという進捗の可視化、何を根拠に判断したかというログや引用・差分の確認、そして何が不確かかというAIからの確認質問、この三つを見守りの指標にすると、細かい承認に頼らなくても監督が成立します。

3)「確認してほしい条件」を先に伝える

Claude Codeが自分で確認のために止まるのは良い兆候ですが、止まるタイミングが完璧とは限りません。
だからこそ、最初の依頼に「止まる条件」を書いておくと強い安全策になります。
たとえば「外部に送信する前に必ず確認して」「権限が必要なら勝手に進めず、何が必要か質問して」「確信が持てないときは、推測と事実を分けて教えて」のように伝えておくと、AIにとってのガードレールになります。

用語ミニ辞典

自律性(autonomy)人の細かい指示や監督なしで、AIが自分で判断して進める度合い。
今回の研究では文脈から1〜10で相対評価。ツール利用(tool use)コード実行、外部API呼び出し、メール送信など、AIが実際に行動するための手段。
ポストデプロイメント監視導入後に、現場でAIがどう使われているかを観測し続けること。
出荷前テストだけでは見えない実態を捉える。
不可逆な行動(irreversible)やり直しが難しい行動。送信・公開・決済など。

まとめ:AIに任せるとは、「信頼」を設計すること

Anthropicの研究が教えてくれるのは、派手な結論ではありません。
むしろ、とても生活感のある事実です。
AIは長く働けるようになっている。
人は慣れると任せるが、介入もする。
AIも自分で止まって相談することがある。リスクの高い領域はまだ主流ではないが、芽は出ている。
そして自律性は、モデルだけでは決まらない。

だから、私たちがやるべきことは単純です。
「任せる前に、止め方を決める」
これだけで、AIエージェントは「暴走しそうで怖い存在」から「一緒に走ってくれる相棒」に近づきます。

AIに任せるのは、未来に目隠しすることではありません。

未来に、ブレーキと地図と合図を用意することです。

参考:Measuring AI agent autonomy in practice

コメント

タイトルとURLをコピーしました