著者:
カロライン・フランカム(Caroline Frankum)
英マーケティング調査会社カンター(Kantar) Profiles部門CEO
プライベートエクイティ(PE)を背景とした企業変革やM&A、最新テクノロジーとAI活用による成長加速に高い専門性を持つ。多様性を経営の中核テーマと位置づけ、社会的価値とビジネス価値の両立をリードしている。
2025年2月5日 | 所要時間: 5分
世論分析はAIで『現実』をどこまで可視化できるか
AIの影響や将来性をめぐる議論は、「期待」と「警戒」の二極に分かれています。技術を積極的に取り入れAIのメリットを享受するか、あるいはAIの潜在的リスクや負の側面を強く警戒するかの2つの立場です。
私は長年、感情の対立を伴う複雑なテーマを扱いながら、世論を調査・分析し、全体像を文脈の中に位置づけすることに取り組んできました。自らAIの利点と課題の両方を体験してきた実感からいえば、AIに関する現実は、他の多くの社会的論争と同様、二極のいずれかに単純化できるものではなく、その中間領域にこそ本質があると考えています。
世論分析は、科学的手法と洞察力を要する複雑なプロセスです。バイアスや認知の歪み、解釈の差異、そして予測不能なノイズに丁寧に対処しながら、結論の信頼性を高める必要があります。そのむずかしさはアナログ時代も、社会がデジタル化し世論を収集、読み解く手段と速度が劇的に変化した現在も、本質的には変わりません。ただ、やりづらくなりました。一方で、世論分析を行うことの意義は、かつてなく高まっています。
世論やトレンドを正確に把握することは、戦略の優先順位づけや投資判断を担う経営層にとって不可欠です。ここに曇りが生じると、戦略判断を誤り、重大な損失を招くリスクがあります。しかし、現代のデジタル環境では、ボットによる大量投稿やフェイク情報の氾濫が新たな問題として長い影を落としており、真の世論の収集、分析、理解が一層困難になっています。ノイズに満ちた環境下で、従来手法では対応しきれなくなりつつあるのです。
2023年、スタンフォード大学のコミュニケーション学者であるジェフ・ハンコックは、この問題の核心を突く
問いを投げかけました。
人間の自然言語を模倣するAIツールが増殖する世の中で、「真実」や「本物」とは何を意味するのか。どの程度信じ、どの程度を疑うか、判断基準をどう設けるべきかーと。
“
調査会社の役割は、視野を広げ、影の先にある実像を見ることです。
影に惑わされず、真の世論をとらえる
私たちのような調査会社や専門家が世論をどのようにとらえているのか、どのような課題に直面しているのかを理解する助けとして、私は「洞窟の比喩」を用いることがあります。
この「比喩」では、囚人たちは洞窟の中で後ろを向けないように拘束され、背後では焚き火が燃えています。焚き火の前を何かが通り過ぎると壁に影が映りますが、囚人たちに見えるのは、その曖昧に揺れる影だけです。洞窟の外の世界についても、推測するしかできません。囚人たちにとっての現実は、影だけです。ところが、ひとりの囚人が拘束から逃れ外へ出て、影は現実ではなく、単なる幻想でしかなかったことに気づきます。囚人は洞窟に戻ってそれを語りますが、慣れ親しんだ見方に固執するほかの囚人たちは、外の世界の現実を容易には受け入れません。
AIの時代に真の世論を見極めようという私たちにとっての「洞窟に映る影」は、世論になりすまし疑似的なシグナルを発する悪意ある主体(ボットやフェイク情報キャンペーン)が生む、歪んだデータです。私たちの役割は、そのような「嘘の文脈」に囚われることなく、視野を広げ、影の先にある実像を見ることです。
決して楽な仕事ではありません。三つの大きな課題を調整しながら、日々業務を進めています。
第一の課題は、「人々の注目を集め、調査に協力してもらうこと」です。誰もがデスクトップPCからインターネットにアクセスしていた時代には、30分のアンケートに回答してもらうことはさほどむずかしくありませんでした。しかし、モバイルへの移行とオンライン調査の普及により、状況は一変しました。今では、アンケートに協力してもらえる時間は最長で5分、しかもアンケートは回答者にとって負担が少ない、「短く」「わかりやすい」だけでなく、「参加する価値」が感じられる設計でなければなりません。「常時接続」の世界では、膨大な数のモバイルアプリが人々の関心を奪い合っているからです。
第二の課題は、「詐欺などの悪意ある行為が生む、フェイクデータとの闘い」です。市場調査業界には、多くがAIの登場によって業務の難易度が上がった事実を、認めようとしなかった面があります。しかし、フェイクデータは増え続け、サンプルの中に紛れ込み、品質不良によって調査が却下されるケースが近年約
約300%も増加しています。
フェイクは量だけでなく、AIと自動化によって高度化しており、「世論を歪めるオンライン詐欺が産業化した」ともいえるような状況です。
第三の課題は、「データプライバシーに関する法規制」です。グローバル企業は、あらゆる市場でコンプライアンスを遵守しなければなりません。しかし、統一的なアプローチは存在せず、政策もどんどん変化します。この環境下での世論分析は、ますます難度が増しています。
とはいえAIには、世論調査に課題をもたらす一方で、世論調査を進化させる力があることも事実です。必要なのは、比喩的な『洞窟』の外へ踏み出す勇気です。
混乱の中で明確さを求めて──AI時代の世論分析の挑戦
AI時代の世論分析では、膨大な情報の中から「本当に重要な声」や「思考パターン」を見極めることが不可欠です。AIや新しいテクノロジーを適切に活用できれば、社会に大きな価値をもたらし、確かな世論を見極める力強い手段となります。
ただし、AIの可能性をこの分野で最大限に引き出すことは、多くの企業にとって時間を要する作業となります。私の専門領域では、AIやアルゴリズムを「真実を見極める」レベルで活用できるようにするまで、重要なデータセットの学習に約1年半を要しました。変わり続ける現実を正しく反映させるには、その後もリアルタイムのデータを継続投入しAIを学習・適応させ続ける、不断の努力が欠かせません。次に重要なのが、ツールを使いこなせる人材の育成です。どれほど優れたAIを導入しても、人間の知見が追いつかなければ、最良の成果は得られません。人と機械が適切に協働しなければ、高度なモデルも現実を正しく体現するものにはなりません。くわえて、AI活用の方針やルールを定める、強固なガバナンス体制も不可欠です。
私たちは現在、「シンセティックパネル」、具体的には「デジタルツイン技術」という新たな概念を深く検証する実験を進めています。「なりすまし」ではないことが担保された、実在の人物に似せたアバターを、法令や規制・社内ルールに準拠して構築するという発想は、技術的にも運用的にも複雑ですが、非常に大きな可能性を秘めています。常時稼働し、現実の動きを反映する仮想ペルソナは、特定の小規模なグループの行動をより正確に把握し、不正行為を抑止し、イノベーションを加速する可能性があります。正確性を期するため、アバターが実際の人を正しく反映しているかは、定期的に本人と照合します。
現実世界の動きを反映した仮想人物の集団や、行動の仮想モデルを作ることを想像してみてください。この仮想の空間では、仮想の人々がどのようにソーシャルメディアや金融取引を利用し、調査に応えるかなどをモニターし、それに基づいて思考や行動を予測することができます。仮想環境におけるシナリオの実行、仮説の検証から、AIを活用した行動パターンの把握やトレンド予測が可能となり、データの歪みや再調査の負担を抑えながら、真の世論をとらえられることがみえてきました。ノイズやボット、偽アカウントの影響を受けずに、データに基づいて、人々の意識をより高精度に把握できるようになります。一方で、調査を仮想環境に移行するとしても、悪意による妨害への警戒と迅速な対応は怠ることができません。不正対策の点では、我々はAIを活用して日々2,000件以上の不正な参加登録を阻止し、業界平均の6.6倍の不正防止を実現しています。詐欺の手口に対してAIで先回りする手法も、すでに効果を上げています。
世論を集め公表する仕事は、テクノロジーや社会トレンドが変化し続ける中で、常に更新が迫られる挑戦です。変化に追随するには、データを精査し、それがどう整理され、AIを含む新興技術にどう活用されるのかを慎重に見極めていかなければなりません。次に備えるための「テクノロジー対応力」は、手元のツールだけでなく、それを扱う人材の問題でもあります。AIという強力なドライバーに振り回されるのか、主導権を握るのかは、私たち次第です。ここでいう「対応力」とは、学習と適応を継続する姿勢です。
しかし、もしあなたに安全地帯を越えて、「洞窟」の外へ一歩踏み出す覚悟があるなら、ノイズを切り抜け、興味深くも厄介な数々の課題を乗り越える道を、共に探っていきましょう。