責任あるAIが重要な理由
>80%
2024年までにAI予算の10%以上を規制要件の遵守に充てると回答した組織の割合
95%
提案されたEU規制によって自社の業務の少なくとも一部が影響を受けると考えているリーダーの割合
2%
組織全体で責任あるAIを完全に導入していると回答した企業の割合。そのうち、今後18か月以内に導入する予定の企業は31%
対策
責任ある設計、導入、および使用に対する明確な説明責任とガバナンスを含む、責任あるAIの原則を採用します。
定量的/定性的な評価を活用して、組織のAIのユースケース、アプリケーション、システムのリスクを把握します。
AIの人間への影響、公正性、説明可能性、透明性、正確性、安全性について継続的なテストを実施します。問題を軽減するために、最先端の責任あるAIツールとテクノロジーを活用します。
AIシステムを継続して監視し、責任あるAIの取り組みを管理しながら、問題の軽減とコンプライアンス対策を実行します。
責任あるAIのコンプライアンスプログラムは、法令遵守、サステナビリティ、プライバシー、セキュリティの観点から企業全体のコンプライアンスを考慮し、部門横断的に取り組む必要があります。
責任あるAIのトレンド
リーダー紹介
Arnab Chakraborty
Chief Responsible AI Officer