メインコンテンツにスキップ
03
人間の思考力を守るAI時代の戦略設計とは
著者:
アシュウィン・メータ
(Ashwin Mehta)
AIストラテジスト、ソートリーダー、経営コンサルタント、ラーニングテクノロジー・リーダー。
学習分野におけるAIおよび先端技術を専門とするコンサルティング会社「Mehtadology」を創業する一方、Learning and Performance Institute(LPI)の最高AI戦略責任者を務めている。
2025年5月28日 | 所要時間: 11分
生成AIの登場により、今後数年で、あらゆる業界で働き方が根本から変わると予想されています1。無数の機会が生み出される一方、人々の思考力が少しずつ衰えていく危険も示唆されています。人間が持てる力を失わず、AIとの相乗効果で最大の利益を生み出すため、リーダーができることとはなんでしょうか。
生成AIは、自動化は不可能と考えられていた認知的な仕事を補完し、さらには置き換える可能性があるという点で、これまでのイノベーションの波とは異なる存在です。労働力の大幅な置き換えが生じる可能性がある一方で、急速に変化するツールや技術にスキルを適応させられる人材には、新たな役割に就く機会も生まれるでしょう2,3
テクノロジーへの投資がビジネスリーダーにとって価値を持つのは、社員がそれを活用でき、競争上優位となるスキルを身につけ、さらに新たな技術を受け入れる土壌がある場合に限られます。社員がテクノロジーを受け入れられるかどうかの鍵は、新技術の導入と受容、そしてテクノロジーに対する人間の行動という難問をいかに解くかにあるといえるでしょう。
過去50年にわたり、人とテクノロジーの関わりを明らかにする研究が幅広く行われてきました。人があるイノベーションを「使い続けたい」と感じる要因を、解明する試みが中心です。個人だけでなく、グループやサブカルチャー、組織全体へイノベーションをどのように広めていくかについての研究も進められてきました4。くわえて、人々が自身または企業の目的を実現するためにテクノロジーを採用し、受け入れていく過程には、テクノロジーに対する行動の自己決定5や自己調整6、そして認知的な要因も大きく影響します。
生成AIから最大の価値を引き出すためには、企業の予算担当や導入担当が、人間の行動を左右するさまざまな要因を正しく理解し、意図的な導入や準備と人材育成を通じて、変革の効果を最大化していくことが欠かせません。短期的な価値を追求する一方で、長期的に見ると、AIが人間の認知的な仕事を置き換えることによって社会に深刻な影響が生じる可能性がある点にも注意が必要です。ツールがますます高度になる一方で、人間の能力が相対的に低下してしまう危険性が指摘されています。

テクノロジーの受容とイノベーションの拡散
この50年、情報システム分野で進められてきた、人とテクノロジーがどのように関わるのかを解明する研究の多くが、合理的行動理論や計画的行動理論といった心理学モデルを基盤にしています7。特定のイノベーションが「役に立つ」と判断され、周囲の社会的文脈からも肯定されると、人はその技術を使うようになり、継続的に使い続けようとします8,9。逆にその条件が整わなければ、人はその技術を拒否します。10
技術を受け入れ、採用する過程は複雑です。信頼、プライバシー、倫理、透明性、公平性、バイアスなど、AIに関し議論されている多くの問題が、影響します。これらが対応不十分だったり、適切に管理されていなかったりすると、人間の行動に悪影響を及ぼします11,12。中でも、受容するかどうかを決める最大の要因は、一貫して同じ―その技術が、ユーザーの目的に対して「本当に役に立つかどうか」です。
「本当に役に立つかどうか」の指標は、あらかじめ定義された目的に対するパフォーマンスです。しかし現在のAI革命においては、ユーザーのスキルもユースケースも、技術の進化スピードに追いついていません。AIの能力が驚異的である一方、多くの企業はまだ「導入を検討している段階」にあり、何から始めるべきか、そもそも何ができるのかを模索しています。IT部門は環境へのAIソリューション導入を着実に進めていますが、「何に使うべきか」については、現場が自力で考えざるを得ない状況になっています。結果、組織のAIスキルは正規分布を描くだけで、AIの活用は初歩レベルにとどまりがちです。メール返信、議事録作成、認知負荷の軽減といった「基本タスク」が中心になってしまうのです。
企業も社会も、人材のスキル向上と再教育に重点を置き続ける必要があります。AI革命が加速する中で、人間が本来持つ認知能力を失わないためです。
AI導入が人間の能力にもたらすリスク
テクノロジーによって従業員の認知負荷を減らし、知識労働の生産性を高めることで得られるメリットは、たくさんあります。しかしその一方で、リスクも存在します。AIの利用は、ものごとの先送りや注意力の散漫を引き起こし、結果的にパフォーマンスを低下させる可能性があります13,14。また、AIツールを使うことで自分の能力を過大評価してしまう「過剰適格感(over‑qualification)」が生じ、仕事への満足度やモチベーションに悪影響を及ぼすこともあります15。AI主導の自動化で見落とされがちな影響のひとつが、人間の認知そのものへの作用です。AIに過度に依存すると、認知機能の萎縮(cognitive atrophy)が起きる可能性があります。16
人間の脳は非常に可塑性が高く、日常的に使う能力に応じて構造が変化します17。“Use it or lose it(使わなければ失われる)”はまさに脳に当てはまります。精神的なタスクを継続的に機械に委ねると、自分の認知スキルが鈍ってしまうリスクがあるのです18。たとえばGPSに強く依存する人は、自力で道を探す人と比べて、空間記憶が弱くなり、脳の海馬(ナビゲーション機能を担う部位)の活動が低下することがわかっています19
AIだけでなく、SNSの大量情報消費がもたらす影響も、すでに広く認識されています。事実と虚構の判別能力の低下、注意持続時間の短縮、情報を自分で確かめるかわりにレーティングに依存してしまう、などです20
これらは、産業社会の基盤そのものに関わるリスクです。もし人が複雑な問題解決に取り組まなくなり、AIがすべてを処理する状態が続けば、人間の脳はその能力を必要としなくなり、やがて縮小していきます。
AIがより強力になり、日常的な認知タスクを難なくこなせるようになるほどに、問いが浮かび上がってきます――認知作業を行う人間の存在価値は、どこにあるのでしょうか?
多くの職務において、まもなくAIが業務を代替できるようになります。教育業界では、人間は今後も問題解決や批判的思考、意思決定を担うのだと強調されていますが、実際には、AIはこれらの領域でも急速に能力を高めています。人間の能力が正規分布を描くのであれば、高い付加価値を出せるのは上位層の一部に限られていくでしょう。だからこそ企業も社会も、人材のスキル向上と再教育に重点を置き続ける必要があります。AI革命が加速する中で、人間が本来持つ認知能力を失わないためです。

では、私たちはAIをどのように活用すべきなのでしょうか?
近い将来、人間には急速な適応力が求められることでしょう。その適応は大きく三つの段階に分かれます。AIテクノロジーそのものの実装、未来の労働力の設計、そして両者を支えるデータ基盤の整備です。
人間とAI、そしてデータシステムが連携して働く「ハイブリッド型の労働環境」を構築する中で、企業は人材基盤を整え、AIを構築・運用できる専門人材を計画的に育成していく必要があります。
すでに一部の企業では、新しい職種が生まれています。たとえば、AIの出力を管理する「AIスーパーバイザー」や「プロンプトエンジニア」などです。また、倫理・ガバナンス・データバリデーションといった既存の職務も、AIを前提とした役割へと変化していきます。そして、人と人の関係が本質となる役割――「コーチ」や「メンター」といった仕事――も今後さらに重要性を増すでしょう。
「人間が関与し続けること(human-in-the-loop)」 は、品質管理だけでなく、倫理や安全性の観点からも欠かせません。AIの判断が社会的価値観と整合するよう、人間にはそれを監督する能力が必要です。この監督に関わるスキルや役割は、AI革命と並行して進化します。代表例が自動運転です。技術的には高いパフォーマンスが実現されていますが、社会や規制の準備が整っておらず、「完全無人」を許可する段階にはまだありません。
リスクはあるものの、AIには学習を加速させ、スキル獲得を促進するといったメリットがあります。適切に活用すれば、人間の認知能力を補完し、スキルを柔軟に適応させ、働き方そのものを進化させる力を持っています。人間を置き換えるためではなく、人間の能力を拡張するためにAIを使うことが重要です21

リーダーはテクノロジーと人材を同様に重視すべき
これからの課題は二つあります。AIを事業運営に統合する「技術面」と、労働力と企業文化を再設計する「組織面」の課題です。
リーダーはまず、人材計画を含む、明確なAI戦略を策定する必要があります。これが企業変革との相乗効果で、競争優位につながります。多くの企業が、人材戦略とマッチさせないままAIプロジェクトを始めてしまい、社員の混乱や抵抗を招いてしまっています。経営層は「AIをなぜ、どのように使うのか」を明確に示し、技術受容や導入の研究を参照しながら、変革を進めなければなりません。
次に、企業は組織全体でAIリテラシーを底上げすべきです。全社員がAIの能力と限界を基本的に理解し、システム全体が相互運用可能で堅牢な技術基盤を備えることが重要です。AI人材を揃えることも、成功の鍵となります。自社でAIを構築・実装・運用できる専門人材(「AIビルダー」「AI マスター」)の計画的な育成が求められます。
テクノロジーと人材を戦略的に結びつけた企業は、AIをより速く、より効果的に導入でき、同時にスキルが高く適応力に富み、人間の強みを最大限に活かせる人材を備えることができるのです。
  1. Dwivedi, Y. K. et al. “So what if ChatGPT wrote it?”、Multidisciplinary perspectives on opportunities, challenges and implications of generative conversational AI for research, practice and policy. Int J Inf Manage 71, (2023).
  2. McKinsey Global Institute. Generative AI and the Future of Work in America(2023)
  3. WEF. Future of Jobs Report 2025. World Economic Forum (2025)
  4. Rogers, E. M. Diffusion of Innovations. (The Free Press、ニューヨーク、1995年)。
  5. Ryan, R. M. & Deci, E. L. Self-determination theory and the facilitation of intrinsic motivationAmerican Psychologist 55、68–78(2000)
  6. Bandura, A. Social cognitive theory of self-regulationOrgan Behav Hum Decis Process 50, 248–287 (1991)
  7. Ajzen, I. From intentions to actions: A theory of planned behaviorin Action control: From cognition to behavior(アクションコントロールにおける意図から行動へ:プラン行動理論)(eds. Kuhl, J. & Beckman, J.) 11–39 (Springer., Heidelberg, Germany, 1985). doi:10.1007/978-3-642-69746-3_2.
  8. Venkatesh, V., Morris, M. G., Davis, G. B. & Davis, F. D. User Acceptance of Information Technology: Towards a Unified ViewMIS Quarterly 27, 425–478 (2003)
  9. Bhattacherjee, A. Understanding Information Systems Continuance: An Expectation-Confirmation Model.MIS Quarterly 25, 351 (2001)
  10. Venkatesh, V., Thong, J. Y. L. & Xu, X. Consumer Acceptance and Use of Information technology: Extending the Unified Theory of Acceptance and Use of TechnologyMIS Quarterly 36, 157–178 (2012)
  11. Dwivedi, Y., Rana, N., Chen, H. & Williams, M. A Meta-analysis of the Unified Theory of Acceptance and Use of Technology (UTAUT). in IFIP International Working Conference on Governance and Sustaibability in Information Systems: Managing the Transfer and Diffusion of IT 155–170 (Springer Berlin Heidelberg, 2011). doi:10.1007/978-3-642-24148-2_10.
  12. Williams, M. D., Rana, N. P. & Dwivedi, Y. K. The Unified Theory of Acceptance and Use of Technology (UTAUT): A Literature Review. Journal of Enterprise Information Managementvol. 28 (2015)
  13. Swargiary, K. The Impact of ChatGPT on Student Learning Outcomes : A Comparative Study of Cognitive Engagement , Procrastination , and Academic Performance. (2024) doi:https://dx.doi.org/10.2139/ssrn.4914743.
  14. Sukri, A., Rizka, M. A., Purwanti, E., Ramdiah, S., & Lukitasari, M. Students’ Perceptions of ChatGPT in Higher Education: A Study of Academic Enhancement, Procrastination, and Ethical ConcernsEuropean Journal of Educational Research 11, 859–872 (2022)
  15. Zhao, H., Ye, L., Guo, M. & Deng, Y. Reflection or Dependence: How AI Awareness Affects Employees’ In-Role and Extra-Role Performance?Behavioral Sciences 15, (2025)
  16. Dergaa, I. et al. From tools to threats: a reflection on the impact of artificial-intelligence chatbots on cognitive healthFront Psychol 15, (2024)
  17. Fuchs, E. & Flügge, G. Adult neuroplasticity: More than 40 years of research. Neural Plast 2014、(2014年)。
  18. Sadegh-Zadeh, S.-A. Neural reshaping: the plasticity of human brain and artificial intelligence in the learning processAm J Neurodegener Dis 13, 34–48 (2024)
  19. Dahmani, L. & Bohbot, V. D. Habitual use of GPS negatively impacts spatial memory during self-guided navigationSci Rep 10, (2020)
  20. Moravec, P. L., Dennis, A. R. & Minas, R. K. How Asking Users to Rate Stories Affects Belief in Fake News on Social MediaInformation Systems Research 33, (2022)
  21. Hoffman, R. R., Mueller, S. T., Klein, G. & Litman, J. Measures for explainable AI: Explanation goodness, user satisfaction, mental models, curiosity, trust, and human-AI performanceFront Comput Sci (2023) doi:doi:10.3389/fcomp.2023.1096257