メインコンテンツにスキップ

キンドリルの責任あるAI(Responsible AI)

キンドリル最高技術責任者 アントワン・シャグーリー(Antoine Shagoury)、
キンドリル最高情報責任者 マイケル・ブラッドショー(Michael Bradshaw) 

キンドリルの責任あるAI(Responsible AI)

キンドリルは、ミッションクリティカルなインフラやアプリケーションを運用する信頼性の高いテクノロジーサービス企業として、人工知能(AI)の実用的な意義について視点を持っています。お客様中心でベンダーにとらわれないアプローチにおいて、キンドリルはAIがもたらす潜在的なビジネス上の利益を、適用される規制、倫理的要件、関連する法的リスクと照らし合わせて認識し、理解するために、リソースを割り当てています。

AIのベストプラクティスへの継続的な投資、AIツールやプラットフォームの慎重な選択、適切な機械学習アルゴリズムによるAIモデルの安全なトレーニング、確実な技術的保護は、技術革新の最前線に立っているキンドリルのコミットメントを示しています。キンドリルは、AIが「アルゴリズムやモデル以上のもの」であることを認識し、AIソリューションを実現・開発する従業員のスキルアップと強化に取り組んでいます。世界最高のエンジンであったとしても、車輪やステアリングがなければ、車両に価値はありません。

キンドリルは世界最大級のITインフラストラクチャーサービスプロバイダーであり、データに関する専門知識とソリューションを駆使して、企業のお客様が大規模なAIを導入し、特定のビジネス成果を達成して利益を生み出すための支援を行っています。AIの導入と開発にリスクベースのアプローチを採用することで、AIアプリケーションのライフサイクル全体のリスクを特定、評価、軽減しています。

私たちは、AIシステムはソリューションのトレーニングに使用されるデータによってのみ強化されると考えています。AIシステムから集めるインサイトに関してはデータ品質の確保と、さらにはデータ戦略が重要になります。AIシステムを最大限に活用するには、適切なデータが重要です。 
 

キンドリルの責任あるAI(Responsible AI)アプローチでは、以下の基本的な義務を遵守しています。
 

  • 透明性と説明可能性: AIソリューションは、モデルの基礎となる意思決定プロセスや、AIモデルのトレーニングに使用されたデータセットの性質、ソース、品質について可視性を提供するように設計される予定です。また、AIソリューションの性質と機能は、ユーザーの信頼を獲得するために説明可能である必要があります。
     

  • バイアスの検出と削減: AIの設計と使用における公平性を促進し、バイアスを最小限に抑えるために、AIソリューションを使用または開発する際には、潜在的なバイアスを考慮、測定、削減するための措置を講じます。

     

  • プライバシーと機密性: 私たちは、AIの使用および開発において、Kyndryl Code of Conductおよびキンドリルのデータ・プライバシー・ポリシーを遵守します。AI 機能に関してキンドリルと協力するサプライヤーに対しても、同様の原則を遵守することを求めます。 

     

  • 安全かつセキュア: AIソリューションは、設計によるセキュリティ原則を取り入れ、個人、個人のグループ、環境または風評などの被害から当社および当社のお客様を保護するために、パフォーマンスを評価および監視する必要があります。

     

  • 説明責任: 私たちは、人権、法の支配、民主主義の原則を尊重し、信頼できる説明責任を果たすAIエコシステムに貢献するため、企業内およびパートナーやお客様とのAI使用を評価・監督するガバナンス・プログラムを導入しています。 

     

  • 教育とトレーニング: 私たちは、上記の原則を確実に遵守し、責任あるイノベーションを促進するため、AI技術の利用者に対して徹底したトレーニングと明確なガイダンスを行います。


キンドリルは、これらの基本を遵守することで、社内およびお客様との間で責任あるAIの利用を促進できるように、適切な保護措置とプロセスを培ってまいります。  


* このページは抄訳です。原文はこちらをご覧ください。https://www.kyndryl.com/us/en/company/responsible-ai