AIモデルを欺いて誤った判断をさせたり、機密情報を漏えいさせたりするように設計された悪意のある攻撃です。 敵対的攻撃から保護するには、新たな防御メカニズムと堅牢なモデル検証が不可欠です。
攻撃者はAIモデルの学習データを破損させ、偏った出力や不正な出力となるようにします。そのため、AIにおける厳格なデータ整合性チェックと安全なデータサプライチェーンが必要です。
クリス・ラブジョイ:
キンドリルのグローバル セキュリティ&レジリエンシー
プラクティスリーダー
AIの台頭は、産業構造を再構築するだけでなく、データに対する私たちの認識や優先順位を根本から変革しています。この新たなテクノロジーがこれまでサイロ化されていたデータセットを結びつけることで、一見重要でない情報であっても、ひとたび集約されることで重要な資産に、あるいは負債にもなり得るようになりました。
この新たな現実が、セキュリティおよびレジリエンスの戦略においてパラダイムシフトとも言える変化を引き起こしており、個々のデータポイントと、それらを統合することで導き出されたインサイトの両方を保護することが、これまで以上に重要になっています。
従来、組織はデータを分類し、機密性に応じて異なるレベルのセキュリティを割り当ててきました。とりわけ、財務記録、知的財産、個人識別情報(PII)は「最重要データ」とされ、最大限の保護が与えられてきました。しかし、AIがこの階層構造を変えつつあります。
AIアルゴリズム、特に機械学習モデルは、大規模で多様なデータセットを駆使することで機能します。その力は、人間には認識できないパターン、相関関係、インサイトを導き出す点にあります。つまり、特別な意味を持たないように見えるデータポイントである、閲覧履歴、位置情報、センサーデータ、カスタマーサービスとのやり取り、さまざまなシステムから生成されるメタデータなどを組み合わせることで、極めて詳細で価値ある全体像を描き出せる可能性があります。例えば、AIは製造ラインのセンサーデータを天候パターン、サプライチェーンの物流データと関連付けて、リアルタイムで製造を最適化することができます。また、カスタマーサポートの記録と購入履歴、ソーシャルメディアの センチメントを分析して、顧客離れを驚くべき精度で予測することも可能です。
このように点と点をつなげることで、ほぼすべてのデータの価値が高まります。かつては散在した事実の集合体だったものが、戦略的資産へと変貌するのです。
しかし、AIは、前例のない革新や可能性をもたらすと同時に、データセキュリティに大きな影を落とし、既存の課題を深刻化させ、新たな複雑さを生み出しています。将来のリスクに対するAIの備えに自信があると答えた企業のリーダーがわずか29%しかいないのも驚くことではありません。データ保護の基本原則は変わらないものの、AIがもたらす規模、スピード、そして脆弱性によって、既存のセキュリティ対策のスピードアップと強化、そして新たな脅威への的確な対応が求められています。
長年にわたり、組織はデータセキュリティの基盤となるタスクに取り組んできました。しかし、AIの文脈において、かつては日常的に行われていた取り組みがこれまで以上に重要性を持つようになっています。
29%
経営層の29%は、自社のAI導入が将来のリスクを完全に管理できる準備ができていると感じています。
31%
経営層の31%は、データプライバシーとセキュリティをAI導入における最大の障壁と認識しています。
25%
経営層の25%は、AI技術を既存のシステムや業務フローに統合することに困難を感じていると報告しています。
膨大なデータセットに対するAIモデルの飽くなき要求は、多くの場合構造化されておらず、分散した状態にある機密情報が新しい方法で集約され、利用されることを意味します。データの無秩序な拡散という問題を抱えていた、既存のデータ検出方法は、現在、さらに困難な課題に直面しています。データがAIシステムに取り込まれる前に、データの内容や所在、そして機密性のレベルを正確に把握することが極めて重要になってきているからです。一旦AIシステムに取り込まれると、データが意図せず漏えいしたり、悪用されたりする可能性があります。
企業の経営幹部にとっての急務は、AI開発を加速させるダイナミックなデータ環境に対応できるインテリジェントな(多くの場合AI強化型の)データ検出ツールを導入することです。
AIシステムは、その性質上、データを処理し変換するため、新たなデータ漏えいのリスクを生み出します。社内に潜む脅威、侵害され信頼性が損なわれたAIモデル、またはAIアプリケーションと連携する安全でないAPIは、いずれも重大なデータ損失を引き起こす可能性があります。データ使用状況に異常がないか監視すること自体は新しいことではありませんが、これをAIエコシステムに適応させることが非常に重要です。これには、AIモデルによるデータの使用方法の監視、AIプラットフォーム間のデータ移動の追跡、AI生成出力内に埋め込まれた機密情報の不正な抽出や露出の防止などが含まれます。
AIの出力に意図せず機密情報が含まれることで、情報漏洩が自動的かつ加速度的に進行するリスクがあり、リアルタイムでインテリジェントな監視を行うことの重要性は、かつてないほど高まっています。
AIモデルを欺いて誤った判断をさせたり、機密情報を漏えいさせたりするように設計された悪意のある攻撃です。 敵対的攻撃から保護するには、新たな防御メカニズムと堅牢なモデル検証が不可欠です。
攻撃者はAIモデルの学習データを破損させ、偏った出力や不正な出力となるようにします。そのため、AIにおける厳格なデータ整合性チェックと安全なデータサプライチェーンが必要です。
フェデレーテッドラーニング(分散型データセットでモデルを学習させる方法)や差分プライバシー(個人データを保護するためにデータにノイズを加える)など、生の機密データの露出を最小限に抑えながらAIを開発するテクノロジーが注目されています。
AIモデルやデータをホストするプラットフォームやインフラ自体が攻撃対象となります。オンプレミスのサーバーからクラウドベースのAIサービスに至るまで、これらの環境のセキュリティを確保することがとても重要です。
AIシステムが倫理的かつ公平に、透明性を持って使用されることが、ますます重要な課題となっています。これには、明確なガバナンスフレームワークの確立と、AIの意思決定プロセスを理解して説明するテクノロジーの開発が必要であり、それがセキュリティの脆弱性の特定にもつながります。
機密情報によってAIモデルをトレーニングするケースが増えているため、機密データ要素を非機密の代替データ(トークン)に置き換える、データトークン化のテクノロジーが不可欠になっています。これにより、組織は実際の機密情報を公開することなく、現実世界の情報を模倣したデータによってAIモデルのトレーニングと実行が可能になります。トークン化はデータベースや決済システムでのデータ保護に関する定番の方法でしたが、AIトレーニングのデータセットや推論プロセスに対する適用は、プライバシーリスクを軽減し、攻撃対象領域を縮小するうえで、より喫緊の課題となっています。
この新たな現実が、セキュリティおよびレジリエンスの戦略においてパラダイムシフトとも言える変化を引き起こしており、個々のデータポイントと、それらを統合することで導き出されたインサイトの両方を保護することが、これまで以上に重要になっています。
AIのセキュリティは暗号鍵から
機密データやAIモデル自体を保護する暗号鍵は、極めて価値の高い標的です。暗号鍵については、生成、保管、配布、ローテーション、失効を含む堅牢なライフサイクル管理はセキュリティの基盤です。しかし、AIシステムでは、その性質である分散性、データソースの多様性、モデルの知的財産を保護する必要性によって、鍵管理の複雑さがさらに増しています。ひとたび鍵が漏えいすれば、大規模なデータ漏えいやモデルの盗難につながるリスクがあります。そのため、スケーラブルで自動化された、監査可能な鍵管理の実践をAIパイプライン全体に厳格に適用することが求められています。
確かに、AI時代には、即時の対応が求められるセキュリティ上の課題が新たに生じています。敵対的な攻撃、モデルを欺く悪意ある入力、モデルポイズニング、学習データの破損などの脅威はすべて、より強力なモデル検証とデータ整合性が不可欠であることを表しています。
それと同時に、オンプレミスであれクラウドであれ、AIに対応したインフラのセキュリティが非常に重要になってきています。 AIシステムが複雑化するにつれ、倫理的かつ透明性の高い利用を担保し、隠れた脆弱性を明らかにするためには、ガバナンスと説明可能であることが必須となります。
一方、分散学習や差分プライバシーのようなプライバシー保護技術は、機密データを露出させることなくAI開発を行う有望な方法です。 データセキュリティの黎明期を思い出す方々にとって、今はゼロから始める時ではありません。新たな喫緊の課題に実績ある手法を適用し、AIの現実に適応させ、こうしたリスクの高まりに決断力を持って行動することが重要です。 ツールは馴染みのものかもしれませんが、リスクはかつてないほど高まっています。
これらの進化するセキュリティ要件は、AIガバナンスのあり方を形作るだけでなく、AIデータの保管場所に変革をもたらしています。 組織が機密性の高いアセットの管理強化を模索する中、インフラに関する意思決定が新たな検討要素になってきています。
膨大なデータセットを収集、連携、推論するAIの能力は、プライバシーをコンプライアンス上の懸念から設計上の核心的な課題へと引き上げています。 システムがより強力になるにつれ、意図せず個人情報が外部にさらされることや、非匿名化、悪用のリスクも高まっていきます。
国際プライバシープロフェッショナル協会(International Association of Privacy Professionals : IAPP)によれば、消費者の68%がオンラインプライバシーに懸念を抱いており、57%がAIの脅威が増していると見ています。 また、法規制の圧力も高まりを見せています。 欧州(EU) AI規制法は、特定のリスクの高い利用を全面的に禁止し、個人データの取り扱いについて厳格なガバナンスを課しています。
また、非機密データと機密データの境界線が曖昧になりつつあります。 今やAIは、無害に思える入力データから明白な結論を導き出すことができます。プライバシーを保護する技術、倫理的フレームワーク、透明性は、もはや「望ましい取り組み」ではなく、必要不可欠な基盤となっています。 ライフサイクルの始まりからAIにプライバシーを組み込むことは、もはやオプションなどではなく、信頼を勝ち取るための投資です。
高度なAIの登場は、データを取り巻く状況を一変させました。AIは、私たちが生成・収集する情報から計り知れない価値を引き出し、日常的なデータポイントさえも戦略的インサイトの重要な要素に変換させています。このパラダイムシフトによって、データセキュリティへのアプローチにも進化が求められています。
データ保護は、既定の「最重要データ」を保護するだけのものではなく、すべてのデータに内在する莫大な可能性とリスクをAIの視点から認識することが必須になっています。組織がますますこのテクノロジーを活用するようになっている中、データを包括的に保護し、重要なAIワークロードのデータリパトリエーション(データやその処理を自社の管理下に再配置すること)の影響を検討し、厳格なプライバシー基準を遵守することは、責任を持ってAIのパワーを持続的に活用するための最優先課題となります。インテリジェントな未来は、安全かつ倫理的に管理されたデータを基盤として築かれるでしょう。
当記事は、2025年6月2日(米国現地時間)にKyndrylが発表したArticleの抄訳です。
原文は下記URLを参照してください。
https://www.kyndryl.com/us/en/about-us/news/2025/06/protecting-data-in-ai-era#accordion-301b959951-item-5618d6adda