責任あるAI
#責任あるAI
「AI倫理」戦略ハンドブック
#責任あるAI
「AI倫理」戦略ハンドブック
AIの「暴走」をどう防ぐか? 「責任あるAI」実現のための「AI倫理」戦略ハンドブック
「責任あるAI」とは、顧客や社会に対してAIの公平性・透明性を担保する方法論のことである。その考え方のベースにあるのは「人間中心」のデザインであり、機械任せにするのではなく人間が意思決定の中心となって研究・開発・評価・展開を行うということである。人間が中心になる以上、そこには行動指針や規範が必要になる。「責任あるAI」実現のために守るべき規範が「AI倫理」である。
本書の目的は、目まぐるしく変動する世界情勢にあって今求められている「責任あるAI」について理解を深めることと、私たちが意識しなければならない「AI倫理」について、実際にどのようなリスクがありどのような対策をとればそれらのリスクが軽減されるのか、あるいは効果的に火消しができるのかを理解することである。これらの理解を通して真にAIを活用するリーダーとなるための指針が得られるはずである。
(「はじめに」より一部抜粋)
はじめに
Part 1「責任あるAI」「AI倫理」とは何か?
Part 2「責任あるAI」を実践する4つのアプローチ
おわりに