この記事の内容

記事をダウンロード

地政学的な緊張が高まり、サプライチェーンが不安定化し、各国の規制が厳格化する――そのような深刻な不確実性の時代において、多国籍企業が反射的に選びがちなのは「集約」です。

 集約がもたらすのは、私が「企業シングルトン」と呼ぶ状態、すなわち世界中の拠点に散らばっていた自社データをひとつのAIクラウド基盤に集約し、「全知全能の唯一神の視点」ですべてを見渡して、混乱を予測・制御しようとする構造です。しかし、極端な中央集権化はレジリエンスではありません。むしろ、それ自体が単一の障害点となります。

  テクノロジー業界では長年、「データは新しい石油である」という比喩が使われてきました。データは採掘され、中央の精製所に送られ、収益化される“不活性な資源”だという考え方です。しかし、この比喩はもはや古い。データは石油ではなく、土壌です。人や組織の意思決定が根を張る、生きた大地です。異なる土壌が異なる成果を生むのは、気候や微生物、歴史、そして手入れの仕方によって、土そのものの性質が異なるからです。データも同様に、生まれた土地の文化、制約、現実と不可分の関係にあります。生態系から切り離されれば、その意味の多くも失われます。

  しかし、土壌ですべてが決まるわけではありません。組織はデータの保存場所に関する要件(レジデンシー)をきっちりと満たしながらも、最も重要なもの――「判断」――を手放してしまうことがあります。つまり、データの解釈、優先順位づけ、行動への反映といった核心的な判断を、自組織のために設計・統治されたAIではなく、よそで開発・管理され、他者のリスク許容度に最適化されたAIに委ねてしまうのです。

  データ主権を守るために重要なのが、AIアーキテクチャーです。AIアーキテクチャーは、ローカルなデータをローカルなルールと説明責任の下で扱うのか、あるいは汎用モデルによって処理するのかを規定します。汎用モデルは法制度や統治の枠組みをまたいで用いられ、判断の説明責任が担保されない構造になりがちです。これまでのデータ主権は「データがどこにあるのか」という問いを中心に据えてきました。次に問われるのは「意思決定がどこにあるか」です。これを私は、データの保管場所とその管理を指す「データ主権(data sovereignty)」の先を見据えて、「意思決定主権(decision sovereignty)」と呼んでいます。すなわちそれは、AIがどのようにデータを解釈し、どのような行動を引き起こし、誰がその行動を問い直し、状況が変わったときには権限をどうやって人や組織に引き戻すのか――この一連の流れを制御する判断の主体性のことを指しています。

  ここで重要なのは、AIそのものが主権の主体なのではなく、AIは主権を行使するか手放すかを決める「仕組み」であるということです。

メインフレーム思考への挑戦

  多くの企業が、今なおAIを「メインフレーム的」に捉えています。クラウド上にひとつの巨大なエンタープライズ・コパイロット(組織全体を横断的に補助する単一のAI)があって、すべてのドキュメントやワークフロー、アプリケーションが同じAIに接続し、誰もが自分の端末からそのAIに情報を入力する、といった発想です。

  これはかつてのメインフレームがそうであったように、効率的に見えます。しかしこの構造は、モノカルチャー(単一の設計や技術への過度な依存)によるリスクを生み、攻撃や障害が集中しやすい「中央のハニーポット」をつくりだします。AIがどのルール下で判断しているのかを自社では把握しにくくなり、外部への依存が深まり、組織は次第に自ら判断する力を失っていきます。現場個別の事情に即した判断は、プロンプトを工夫しなければ引き出せず、権限は実質的にアクセス権の担当割り当てにまで縮減されます。平時には便利でも、危機が訪れた際にはボトルネックとなるでしょう。新たな関税や規制、紛争などによって、一夜にしてローカルルールが書き換わり、前四半期には優秀なはたらきを見せていたグローバルモデルがリスクに転じることもあり得ます。

  能力とリスクの双方を一箇所に集中させる中央集権化は、解ではありません。かといって断片化が答えでもない。正解は、「境界づけられた委任(bounded delegation)」です。

神から守り役へ:データと意思決定主権のモデル

  日本の神道において「神(かみ)」とは、森、川、古い木など特定の場所に結びついた守り手です。その役割は普遍的な統治ではなく、限定された生態系を守り、世話することにあります。「神」は、“企業ガバナンス”の形態にもたとえられます。実務的な意味を明確にするため、ここでは“企業”に当たるものを「守り役(もりやく/steward)」と呼ぶことにします。守り役は、特定のコミュニティのために、特定の権限範囲のもと、説明責任をもってAIを運用する主体です。個人、チームいずれの場合もあれば、「境界づけられたシステム」であることもあります。川の神は、森を支配しようとはしません。同じように、病院でトリアージをするAIの守り役は、給与計算や調達、従業員の監視を担いません。

  オックスフォード大学AI倫理研究所で、私はキャロライン・グリーン博士とともに、この思想に基づいた「6-Pack of Care」というガバナンス・フレームワークを構築してきました。その中核となる思想は「境界性」です。異なるタスクには、異なる権限、責任の所在、検証法が求められます。

  ミッションクリティカルなインフラを運営する組織は、このような守りをすでに発揮しています。ただ、それはあえて名前を与えられることもなく、暗黙の実践として行われてきました。

  村井純慶應大学名誉教授は、Kyndryl Instituteの記事「レジリエンスとはつながること」で、横断連携の重要性を説きました。そこには同意します。ただしここで重要なのは、ガバナンスの主体が誰であるかということです。ガバナンスは、境界のないモデルが中央で一元的に担うのではなく、それぞれの領域における守り役が、定められたルールのもとで担うべきです。

  大企業のITシステムが、“すでにできていること”を見てみましょう。サービスの対象は、常に限定されています。病院のネットワークに登録された患者、地域銀行の預金者、特定の交通システムの利用者といった、区切られたコミュニティです。システムの運用は、明確なサービスレベル合意(SLA)のもとで行われます。いつ誰が何をしたか履歴が保存され、インシデント対応の手順も明確に定められています。変更を行う際はまず小規模で検証し、安全に並行運用したうえで、問題があれば迅速に切り戻す余地を残して展開されます。システムは恒久的に占有されることなく、契約が終了すれば、運用権限と管理責任が適切に引き渡されます。これらはすでに、「境界づけられた守り」に特有の運用のあり方です。

  こうした組織は、運用上の規律を欠いてはいません。足りないのは、AIの権限を明確にし、現場にひもづけ、必要に応じて見直せるようにするための、ガバナンスの枠組みです。

中央集権化はレジリエンスではない。それは単一障害点にすぎない。

Sovereignty Stack ── 主権を成立させる階層構造

  AIを中核的な意思決定に用いる組織にとって、「意思決定主権」は、データの所在の管理以上の意味合いを持ちます。それは解釈、行動、検証、そしてシステムの停止や置き換えまでを含めて判断できることを指します。要件を、5つの階層に整理して考えるとわかりやすいでしょう。

  1. 所在――データがどこに存在するか
  2. アクセス ――データを誰が閲覧・利用できるか
  3. 推論――どのAIモデルや分析システムに結論を導かせるか
  4. 実行―― その結論をもとに、運用システムは何をしてよいのか(通知送信、支払い承認、案件の振り分け、機器の停止など)
  5. 出口―― 業務の継続性や記録、説明責任を失うことなく、システムを停止・移行・廃止できるか

  驚くほど多くの組織で、AIの取り組みが最初の二層で止まってしまっています。そして最大のリスクは、第3層と第4層にあります。データはローカルに保管されていても、患者のトリアージ、サプライチェーンの順序づけ、従業員に関する調査、機械の停止といった判断を、どこか別の場所にある汎用モデルに委ねてしまっているケースは少なくありません。データの所在を管理するだけでは、判断は守れないのです。さらに第5層の「出口」が欠けている場合、推論と実行をベンダーに委ねてきた組織は、障害や規制変更、危機などの局面で継続運用が許容されなくなったときにそれらを取り戻す現実的な手段を持ちません。

  日本、ブラジル、ドイツで保険金請求処理を行う多国籍保険会社を想像してみましょう。従来型のアプローチでは、これら三地域すべてが、米国のデータセンターにある単一の大規模基盤モデルにデータを送ります。このモデルは強力ですが、汎用的です。汎用モデルは、日本の契約者が期待するやりとりのトーンやテンポが、ブラジルの契約者と異なることを理解していません。ドイツの厳格なデータ処理要件に対応するには、モデルがデータを扱えるようになる前段階で、組織側が多層的な変換と検証を施さなければなりません。AIが請求内容を誤って判断・分類したり、現地規制で求められる補償を拒否した場合の再審査が、影響を受けたコミュニティと直接関係のないグローバルチームに回されてしまいます。

  境界づけられたAIモデル、つまり現地の請求データ、規制文書、やり取りのパターンに合わせて地域ごとに調整された、小規模なドメイン特化モデルを運用する場合、こうはなりません。共通の評価枠組みを共有するため、グローバルのリスクチームは成果を比較し、知見を集約できますが、判断の解釈や運用、再審査の権限は各地域に残されます。各モデルは個別に監査され、再学習や調整を含む更新も個別に行われ、必要時には個別に一時停止または廃止されます。

安全性は中央集権化せず、分散連携で実現する

  境界づけられた守り役どうしが、協調する必要はあります。このとき、我々が脱しようとしている中央集権的な脆弱性を、再び生み出してはなりません。その解決策が分散連携です。単一のグローバルな安全統治機関を置くのではなく、多数の地域の守り役が、共通のプロトコルのもとセキュリティ情報や評価手法も共有しつつ、運用そのものは各地域で担うという考え方です。

  これはすでに現実のものとなっています。2025年2月のパリAIアクションサミットで立ち上げられた「ROOST(Robust Open Online Safety Tools)」は、そのモデルを示しています。この取り組みでは、Bluesky、Roblox、Discordといった参加企業が、それぞれのAIモデルにそれぞれの文脈に即した有害行為を、オープンソースの安全リソースから学習させています。脅威に関するシグナルは、分散連携学習を通じて共有されます。安全対策は各社の価値観や慣行に合わせて調整され、単一の企業ポリシーに支配されることはありません。

  このような分散連携が機能しているかどうかは、簡単に測れます。障害や混乱が生じたあと、現場のチームやパートナーが、そのシステムを以前よりも信頼するようになっているか、それとも信頼できなくなったのか。変動の激しい世界において、危機の後に信頼が高まるか損なわれるかは、事業継続性を左右する中核的な指標なのです。

終わらせる勇気

  企業のITインフラは、私が「帝国的肥大」と呼ぶ現象に悩まされています。それは、システムが「永遠に使われるもの」として設計されているがゆえに、本来の役割を超えて拡張していくことです。ここでの「守り」は本来、明確に区切られた目的の範囲内でシステムを運用することであるべきです。しかし、その目的が明示されず、振り返られることもなく、終わりも見えないままでは、守りはやがて帝国的なものへと変質していきます。メンテナンス作業のスケジュール調整のためのAIが、いつの間にか調達を担うようになる。不正検知モデルが、密やかに従業員監視の仕組みへと変わる。お客様サポートのAIが、ひっそりと行動評価をするようになっている。誰も、こんな拡張を認めてはいなかった。ただそのAIには、境界や終わりが定義されていなかった──それだけなのです。

  境界づけられた「企業の守り役」は、サンセット条項を備えて設計されます。サンセット条項とはすなわち、リソースの厳格な上限、明確な使命、そしてサービス終了または見直しの期日です。一時的なジョイントベンチャーが終了したとき、買収後の統合作業が完了したとき、あるいは特定の危機が収束したとき、守り役は静かにその役割を終えます。組織の記憶は整理・保存され、それまでの判断の履歴や評価を後継システムに引き継ぎ、電源が落とされる。必要以上の機微な情報を半永久的に抱え込まず、説明責任を保って消える──それが、この設計の狙いです。

  企業を破壊しないと停められないようなAIは、ツールではありません。負債です。手放す様が美しい組織こそが、次の導入で顧客からの信頼を得られる組織です。

そこで私は、リーダーの方々に下記のことを勧めたいと思います。

  1. すべてのAIシステムに「憲章(チャーター)」を与える 本番化は、責任者、適用範囲、停止条件、引き継ぎ計画がはっきりと決まってからです。それらが定義されていなければ、どんな高度なモデルもインフラを統治できません。
  2. データの所在を、制約ではなく設計の前提条件と捉え直す AIを地域ごとに最適化することに投資しましょう。日本特有の保険請求パターン、ブラジルの給与規制、ドイツのエネルギー規制といった地域固有のパターンを学習したモデルは、汎用モデルより高い性能を発揮し、所在地要件も満たすことができます。
  3. 導入の前にまず憲章を書く 当事者を集めて議論し、AIの適用範囲、限界、問題が生じた際の重大度分類と対応策を定義します。 それを調達仕様の基礎とし、適用範囲を拡大させる場合には、必ず新たな承認を求めます。
  4. 分散連携型のネットワークに参加し安全を確保する サイバーセキュリティ関連の情報共有を、AI特有のインシデントにも対応できるよう拡げてください。共有すべきなのは、個人情報や業務の詳細を含む生データではありません。かわりに、そのAIが何を想定して作られ、どこに限界があるのかを示すモデルカード、実運用での検証結果や、その良し悪しを測る共通の評価指標を共有します。皆で同じデータや同じAIに依存することなく、共同防御を目指すのです。
  5. スケールする前に出口戦略を考える すべての導入に、サンセット条項と引き継ぎ計画が必要です。モデルやクラウド、ベンダーを切り替えると継続ができないというのなら、そこに主権はありません。それは主権ではなく、管理された依存にすぎないのです。

企業のプルラリティ(多元性)

  単一のグローバルな知的レイヤーこそが解である、という考えは、見直されるべきです。脆弱性の高い環境や、厳しい規制のもとに置かれた環境ではなおさらです。どこよりも分厚い壁や、どこよりも大きなデータベースを中央に築いた企業が繁栄するわけではありません。生き残るのは、データを生きた土壌として扱い、それを手入れする守り役を任命した企業です。その成功は、プレッシャーの下でも、信頼・協調・説明責任が強まっているかどうかによって測られます。重要なのは、ひとつのモデルが世界中のあらゆる問いに答えられることではありません。

  レジリエントな企業とは、ひとつの「脳」に例えられるようなものではなく、信頼された守り役たち――それぞれの土壌を手入れし、得られた学びを共有し、その役割を譲るべきときを知る、説明責任を持ったガバナンスの主体――が連携する姿です。

References
  1. Image illustration based on photo at audreyt.org, licensed CC BY-NC-SA 4.0 Kaii Chiang

Have questions or want to learn more?

Email us

記事をシェアする

記事をダウンロード