概要

AIの「暴走」をどう防ぐか?
「責任あるAI」実現のための「AI倫理」戦略ハンドブック

「責任あるAI」とは、顧客や社会に対してAIの公平性・透明性を担保する方法論のことである。その考え方のベースにあるのは「人間中心」のデザインであり、機械任せにするのではなく人間が意思決定の中心となって研究・開発・評価・展開を行うということである。人間が中心になる以上、そこには行動指針や規範が必要になる。「責任あるAI」実現のために守るべき規範が「AI倫理」である。

本書の目的は、目まぐるしく変動する世界情勢にあって今求められている「責任あるAI」について理解を深めることと、私たちが意識しなければならない「AI倫理」について、実際にどのようなリスクがありどのような対策をとればそれらのリスクが軽減されるのか、あるいは効果的に火消しができるのかを理解することである。これらの理解を通して真にAIを活用するリーダーとなるための指針が得られるはずである。

(「はじめに」より一部抜粋)

目次

はじめに

Part 1「責任あるAI」「AI倫理」とは何か?

  • なぜ今「責任あるAI」が重要なのか?
  • 求められる「AI倫理」とは?
  • AIの潜在的リスクに備える4つの観点からのアプローチ

Part 2「責任あるAI」を実践する4つのアプローチ

  • 技術のリスクを防ぐアセスメントの方法
  • ブランド価値を守り、高めるESGアプローチ
  • ガバナンスにおける効果的な「火消し」の方法
  • 組織・人材に「AI倫理」を根付かせる

おわりに

著者

保科 学世(ほしな がくせ)
ビジネス コンサルティング本部 AIグループ日本統括 AIセンター長

慶應義塾大学大学院理工学研究科博士課程修了。博士(理学)。アクセンチュアにてAI・アナリティクス部門の日本統括、およびデジタル変革の知見や技術を結集した拠点「アクセンチュア・イノベーション・ハブ東京」の共同統括を務める。AI HUBプラットフォームや、業務領域ごとに体系化したAIサービス群「AI POWERED サービス」、需要予測・在庫補充最適化サービスなどの開発を手がけるとともに、アナリティクスやAI技術を活用した業務改革を数多く実現。『アクセンチュアのプロが教える AI時代の実践データアナリティクス』(共編著、日本経済新聞出版)、『日経ムック AIフロンティア』(監修、日本経済新聞出版社)、『HUMAN+MACHINE 人間+マシン』(監修、東洋経済新報社)、『データサイエンス超入門─ビジネスで役立つ「統計学」の本当の活かし方』(共著、日経BP社)、『アクセンチュアのプロフェッショナルが教える データ・アナリティクス実践講座』(監修、翔泳社)など著書・監修書多数。厚生労働省保健医療分野AI開発加速コンソーシアム構成員などを歴任。一般社団法人サーキュラーエコノミー推進機構理事。

鈴木 博和(すずき ひろかず)
ビジネス コンサルティング本部 AIグループ シニア・マネジャー

東京工業大学大学院情報理工学研究科計算工学修士課程、東京理科大学大学院イノベーション研究科技術経営修士課程修了。事業会社にて十数年におよびAIの研究開発・マネジメントおよびエネルギー・デバイス・メディカルなど多領域での研究企画に従事。その後、IT系コンサルティング会社にて主に情報通信・流通・メディカル業界のクライアントに対し、自然言語処理を中心としたソリューションのPoC〜導入・運用支援を多数経験。現在はアクセンチュアにて、AI POWEREDサービスの一つ、AI POWEREDバックオフィスの開発・提案・デリバリーのリードを行いながら、さまざまなAI技術を活用した業務改革の実現に日々奔走している。

ニュースレター
責任あるAI 責任あるAI