Rackspaceが最近公開したブログ記事では、多くの読者にとって馴染み深い課題が取り上げられています。
データの混乱、不明確な責任の所在、ガバナンスの欠如、そして本番環境でモデルを運用する際のコスト。
同社はこれらの課題を、サービス提供、セキュリティ運用、クラウド近代化というレンズを通して捉えており、そこに同社自身が注力している領域が見て取れます。
セキュリティ業務における実運用AI
Rackspace社内における実運用AIの最も明確な事例の一つが、セキュリティ事業にあります。
1月下旬、同社はRAIDER(Rackspace Advanced Intelligence, Detection and Event Research)について説明しました。
これは社内のサイバー防衛センター向けに構築されたカスタムバックエンドプラットフォームです。
セキュリティチームは膨大なアラートとログの中で業務を行っていますが、セキュリティルールの手動作成に依存している限り、標準的な検知エンジニアリングはスケールしません。
Rackspaceによれば、RAIDERシステムは脅威インテリジェンスと検知エンジニアリングワークフローを統合し、AI Security Engine(RAISE)とLLMを活用して検知ルールの作成を自動化します。
これにより、MITRE ATT&CKなどの既知のフレームワークに沿った「プラットフォーム対応」の検知基準を生成するとしています。
同社は検知開発時間を半分以上削減し、平均検知・対応時間も短縮したと主張しています。
これはまさに、重要な内部プロセスの変革です。
エージェントAIによる複雑なエンジニアリングプログラムの効率化
同社はまた、エージェントAIを複雑なエンジニアリングプログラムの摩擦を取り除く手段として位置づけています。
1月に公開されたAWS上でのVMware環境の近代化に関する記事では、AIエージェントがデータ集約的な分析や反復作業を処理する一方で「アーキテクチャ上の判断、ガバナンス、ビジネス上の意思決定」は人間の領域に残すモデルが説明されています。
Rackspaceはこのワークフローを、シニアエンジニアが移行プロジェクトの脇役に追いやられることを防ぐものとして提示しています。
記事では、多くの移行計画がインフラを近代化したものの運用慣行は近代化できていないことに気づく段階である「2日目の運用」を視野に入れることを目標としています。
AI支援による運用の未来像
他の記事では、監視がより予測的になり、定型的なインシデントはボットや自動化スクリプトで処理され、テレメトリと履歴データを使用してパターンを発見し、修正を推奨するAI支援運用の姿が示されています。
これは従来のAIOpsの言葉遣いですが、Rackspaceはこうした言葉をマネージドサービスの提供に結びつけており、顧客向け環境でのAI活用というより馴染み深い用途に加えて、運用パイプラインにおける人件費削減のためにAIを活用していることを示唆しています。
AI運用を産業化するために必要なもの
AI対応運用を説明する記事の中で、同社は戦略、ガバナンス、運用モデルの重要性を強調しています。
AIを産業化するために必要な仕組みとして、ワークロードがトレーニング、ファインチューニング、推論のいずれを伴うかに基づいたインフラストラクチャの選択を具体的に挙げています。
多くのタスクは比較的軽量で、既存のハードウェア上でローカルに推論を実行できます。
同社はAI導入における4つの繰り返し発生する障壁を指摘しており、特に注目すべきは断片化された一貫性のないデータです。
モデルが一貫した基盤を持てるよう、統合とデータ管理への投資を推奨しています。
これはRackspaceに固有の意見ではありませんが、技術ファーストの大企業がこれを明確に示していることは、多くのエンタープライズ規模のAI展開が直面している課題を如実に表しています。
Microsoftのエージェント型AIとエンタープライズ運用
さらに大規模な企業であるMicrosoftは、システム間で自律エージェントの作業を調整しようとしています。
Copilotはオーケストレーションレイヤーへと進化しており、Microsoftのエコシステムでは、複数ステップのタスク実行とより広範なモデル選択が存在します。
しかし、Rackspaceが指摘しているのは注目に値します。
同社によれば、生産性の向上は、アイデンティティ、データアクセス、監視が運用にしっかりと組み込まれた時にのみ実現するとのことです。
Rackspaceの今後の方向性
Rackspaceの短期的なAI計画は、AI支援セキュリティエンジニアリング、エージェント支援近代化、AI拡張サービス管理で構成されています。
今後の計画は、プライベートクラウドAIトレンドに関する1月の記事から読み取れるかもしれません。
その記事では、推論の経済性とガバナンスが2026年までアーキテクチャの意思決定を左右すると論じています。
パブリッククラウドでの「バースト的」な探索を予想する一方で、コストの安定性とコンプライアンスを理由に推論タスクをプライベートクラウドに移行することを見込んでいます。
これは、目新しさではなく予算と監査要件に基づいた実運用AIのロードマップです。
実装を加速させるための具体的なステップ
自社の展開を加速させようとしている意思決定者にとって、有益な要点は、RackspaceがAIを運用上の規律として扱っているということです。
同社が示す具体的な公開事例は、反復可能な作業におけるサイクルタイムを短縮するものです。
読者は同社の方向性を受け入れつつも、同社が主張する指標には慎重であるべきかもしれません。
成長中の企業が内部で取るべきステップは、反復プロセスを発見し、データガバナンスのために厳格な監視が必要な箇所を検討し、一部の処理を社内に取り込むことで推論コストを削減できる箇所を見極めることです。
参考:Combing the Rackspace blogfiles for operational AI pointers
コメント