著者:
Dr. Kameel Khan
Project ReMake創設者、スタンフォード大学客員研究員およびDCIフェロー(2017-2019)、元裁判官(英国)
2025年5月28日 | 所要時間: 8分
あなたが過去5年間刑務所で過ごし、今度仮釈放を申請していると想像してください。
仮釈放委員会は、2つの情報源に基づいて、釈放するかどうかを決定します。一つ目はあなたの弁護士です。もう一つは、あなたの行動と釈放の適性を評価するための、報告書や記録を含む詳細な情報ファイルです。この書類はHMPPS(刑務所・保護観察)によってまとめられ、刑務官や所長を含むさまざまな職員からの報告が含まれています。正確な場合もあれば、そうでない場合もあります。関係者によって挿入された伝聞やゴシップで満載なこともあります。
さて、仮釈放委員会がアルゴリズムの助けを借りれば、より良い決定を下せると思いますか?
そのアルゴリズムは、未来、特にあなたの将来の行動や、釈放された場合に仮釈放違反を犯す可能性を予測するように設計されています。
2001年以来、英国の保護観察サービスは、再犯の可能性を予測し、判決、仮釈放、更生に関する意思決定を導くために、ほぼ不透明なアルゴリズムシステムである犯罪者評価システム(OASYS)を使用してきました。通常、これらのツールは意思決定の精度を高めます。しかし、このシステムは性別、年齢、民族によって正確性に差があるとして批判されています。伝統的に、仮釈放委員会は50%~62%の確率で正しい決定を下します。米国での経験では、アルゴリズムは80%以上の確率で正しい決定を下します。すべてのアルゴリズムが公平、平等、正確であるとは限りません(データの品質に依存します)が、優れたアルゴリズムは、受刑者、社会、政府の予算と効率に大きな影響を与える可能性があります。これにより、公共の安全に影響を与えることなく、より多くの人々を安全に釈放することができます。また、政府が人員と予算をより適切に配分することも可能になります。監視する必要のない人々を監視する代わりに、低リスクの人々が社会に復帰できるよう支援し、高リスクの人々へのアプローチを再考するなど、より多くのことができるはずです。
仮釈放委員会によるAIの活用は、AIがどのように幅広い意思決定の改善に役立ち、私たち単独では達成できないより良い結果にたどり着くよう促すのかを知る手がかりとなります。仮釈放のような人生を変える決定に貴重な情報を提供するアルゴリズムを構築できれば、同じ技術を活用して、企業がデータに基づいたより良い意思決定を行うことができるはずです。「より良い」とは、より正確で、偏りが少なく、より迅速かつ効率的に管理されることを意味します。特に、私は刑事司法制度でのAIの活用方法に基づき、ビジネスに3つの潜在的なメリットがあると見ています。
- より積極的になり、事後対応が減る
AIを使用して、問題が発生する可能性のある事象を探し、異常を検出し、早期警告システムを構築することができます。これにより、私たちはより機敏かつ意識的に行動できるようになり、組織は問題が拡大する前に、計画、戦略、そして思慮深い対応を行うための貴重な余裕を持つことができます。
- 制度的偏見の軽減
ケンブリッジ大学の研究者らは、より多様な労働力を促進するように設計されたアルゴリズムが疑似科学に似ていることを発見しました。しかし、これは複雑で進化し続ける分野を過度に単純化したものです。アルゴリズムのアプローチの中には、設計が不十分だったり、厳密な妥当性に欠けているものがあるのは事実ですが、だからといって、アルゴリズムの公平性や多様性を高める技術の領域全体が無効になるわけではありません。まだ実現されていないとしても、偏見を確実に検出できる採用システムを構築することは可能だと私は今でも信じています。
- より良いガバナンスの達成
リーダーがAIをリスク管理に統合し、リスク委員会のツールとして利用できるようにすれば、より責任ある意思決定を促すことができるでしょう。
クリティカルマスに達した場合、より良い意思決定は組織のレジリエンスを構築し、効率性向上させ、より成功したイノベーションを支援するはずです。地政学的紛争、気候変動、経済の不確実性が非常に高まっている時代において、あらゆる組織は、認知能力と未来の可能性を向上させる強力なツールとしてAIを検討すべきです。もちろん、どのツールも単独ではこれを行うことはできません。ツールを適切に使用し、その結果を解釈し、賢明に実装するためのスキルが必要です。
では、私たちの未来を予測するAIを開発し、信頼するには何が必要でしょうか。アルゴリズムに組み込まなければならないアクションと、従業員の中で育てなければならないアクションがあります。
私たちは個人としても組織としても新しいスキルを開発しなければなりません
将来を見据えたAIは、組織として私たちが準備できていない情報を提供してくれる可能性があります。サプライチェーンの特定の部分で障害が発生する可能性があるとわかっている場合、その情報をどのように活用して組織のレジリエンスを向上させますか?適切なスキルを持つ適切な人材が、適切なプロセスを使用してデータに基づいた意思決定を行っていますか?
このような疑問は、スキルギャップに関する多くの議論で主に扱われる技術的スキルの範囲をはるかに超えています。技術的なスキルは、採用が難しいとはいえ、Pythonなどの汎用プログラミング言語の習熟、強力な数学的および統計的基盤、機械学習、データ分析、視覚化の能力など、比較的簡単に特定できます。
しかし、データの解釈、批判的思考、問題解決、コミュニケーションの専門家も必要です。機関や組織は、これらのスキルが組織が頻繁に求める技術的スキルのカテゴリーにきちんと当てはまらない場合でも、これらのスキルの開発を優先する必要があります。これらの解釈、問題解決、コミュニケーションのスキルがなければ、現実世界やほぼ現実の未来に対する正確なガイドとして機能する、効率的かつ倫理的なAIシステムを設計・実装することはできません。
根深い偏見を特定し、取り除くことを学ぶ必要
“
伝統的に、仮釈放委員会は50%~62%の確率で正しい意思決定を下します。米国での経験では、アルゴリズムは80%以上の確率で正しい決定を下します。
根深い偏見は有害であり、検出が困難になる可能性があります。ある採用アルゴリズムが組織内で成功した候補者のプロフィールを照合しようとしており、その組織のリーダーシップが圧倒的に男性である場合、アルゴリズムは女性候補者を除外します。特に指示がない限り、アルゴリズムは過去を振り返って現状を再現しようとします。アルゴリズムが信頼されるためには、公平で正確な情報に基づいていなければなりません。仮釈放委員会の意思決定に使われるアルゴリズムは、開発者が埋め込まれた偏見を排除しようと努力してきたこともあり、成功し、信頼できると考えられています。これらのツールは、さまざまな入力(時には数個の変数、時には100個を超える変数)を処理し、逮捕の可能性や不出廷などに基づいてリスクスコアを割り当てます。これが正確性を生み出す方法です。ただし、人種や性別など、一部のデータは差別的であると見なされるため考慮されません。誰かが警察に止められた回数に関するデータも、投獄された人の行動よりも警察の行動を反映している可能性があるため、アクセスが禁止されています。郵便番号も考慮されません。なぜなら、郵便番号にも人種的偏見が含まれている可能性があるからです。公平性を求めるほど、予測の精度は低くなります。
モデルとその入出力を精査する必要
多くの法域では、埋め込まれた偏見が十分に緩和されておらず、入力や意思決定に関する透明性が提供されていない可能性のあるアルゴリズムの使用に関して、依然として厄介な倫理的問題に直面しています。2013年の有名な事件では、アルゴリズムによって実行されたリスク評価に基づいて、Eric Loomisが懲役6年の刑を宣告されました。彼は、アルゴリズムがなぜ自分にその刑罰がふさわしいと判断したのかを知るために訴訟を起こしましたが、アルゴリズムがそれを製造した会社の知的財産であるという理由で敗訴しました。これはまさに、AI を使用して効率的かつ公正な意思決定を行いたい場合に警戒する必要がある種類の結果です。
代替案としては、受動的なユーザーになることに甘んじるのではなく、定期的にこれらのモデルを調べるスキルを身につけることです。モデルは正しい質問をしていますか?適切なデータがありますか?適切なデータを除外しましたか?
規制を推進する必要
多くのビジネスリーダーは規制に対してアレルギー反応を示しますが、合理的な規制は、企業が顧客やその他の関係者から信頼されるために必要なガードレールを提供します。米国では現在、アルゴリズムの安全性や有効性を判断するための米国食品医薬品局に相当する機関は存在しません。アルゴリズムによる決定はブラックボックスと呼ばれることが多いですが、ある程度の透明性を求めるべきです。これはつまり、モデルがどのように決定を下すのか、特定の結果がどのように生成されるのか、そしてどのようなデータが入力やトレーニングに使用されるのか理解する能力を意味します。また、出力が公正かつ正確であることを確認するために、出力を監査できるようにする必要があります。
すべてを規制することはできません。アルゴリズムは成果を予測し、性別、人種、その他の差異を結果から排除すると、アルゴリズムの予測精度が低下します。偏見は常に存在しますが、人間が意思決定を下した場合よりも少ないかもしれません。透明性と説明責任が確実に向上するでしょう。
未来を見据えたAIの恩恵を享受するためには、私たちが構築するインテリジェンスがより良い世界へと導く能力を持つように、絶え間なく努力する必要があります。埋め込まれた偏見の除去は、アルゴリズム、その入力、トレーニングの透明性を主張することと同様に、この方向への重要なステップです。ますます強力になるこれらのアルゴリズムを適切に精査して管理するためには、責任ある規制を提唱し、問題解決能力と批判的思考能力が、より簡単に定義できる技術スキルと同様に重視されるようにする必要があります。AIが可能な限り信頼性が高く、正確であることを保証するために協力することで、急速に変化する不確実な世界を理解し、対応するための強力な新しいツールを手に入れることができます。
無限のリソースは不要 — 必要なのは戦略的であること
AIは確かに、ほとんどの組織が注目すべき展開です。だからといって、ここに巨額の資本を投入する必要はありません。規律を守りながら賢く参加することで、会社の未来を賭けることなく、新しい動向を常に把握することができます。