Skip to main content Skip to footer

責任あるAIを企業に普及させ、体系化する

責任あるAIが重要な理由

>80%

2024年までにAI予算の10%以上を規制要件の遵守に充てると回答した組織の割合

95%

提案されたEU規制によって自社の業務の少なくとも一部が影響を受けると考えているリーダーの割合

2%

組織全体で責任あるAIを完全に導入していると回答した企業の割合。そのうち、今後18か月以内に導入する予定の企業は31%

『Responsible AI innovation: a conversation with WEF(責任あるAIイノベーション:WEFとの対談)』

『Advancing responsible AI innovation: A Playbook(責任あるAIイノベーションの推進:プレイブック)』

Arnab Chakrabortyが世界経済フォーラムのCathy Li氏を迎え、アクセンチュアとの新しい共同レポートで得られた重要なポイントと知見についてお話を伺います。このレポートでは、責任あるAIの導入における、信頼、コンプライアンス、イノベーションを損なう恐れがある障壁について取り上げています。

対策

責任ある設計、導入、および使用に対する明確な説明責任とガバナンスを含む、責任あるAIの原則を採用します。

定量的/定性的な評価を活用して、組織のAIのユースケース、アプリケーション、システムのリスクを把握します。

AIの人間への影響、公正性、説明可能性、透明性、正確性、安全性について継続的なテストを実施します。問題を軽減するために、最先端の責任あるAIツールとテクノロジーを活用します。

AIシステムを継続して監視し、責任あるAIの取り組みを管理しながら、問題の軽減とコンプライアンス対策を実行します。

責任あるAIのコンプライアンスプログラムは、法令遵守、サステナビリティ、プライバシー、セキュリティの観点から企業全体のコンプライアンスを考慮し、部門横断的に取り組む必要があります。

リーダー紹介

Arnab Chakraborty

Chief Responsible AI Officer