AIに責任を組み込む

AIはどのように信頼を得ることができるでしょうか。責任あるAI(レスポンシブルAI)を導入することは信頼を生み、さらに「ヒューマンファースト(人間中心)」のアプローチを採用することで、AIの本格導入を成功させるための基盤を築くことができます。適切なガバナンスプロセスと技術手順を通じて人間がより良い意思決定を行い、説明責任を果たせるよう、テクノロジーを活用することが大切です。アクセンチュアの調査レポート「AI:Built to Scale(ビジネス全体でAIを活用する)」によると、戦略的スケーラー(AIの本格導入に成功しているトップ企業)では、責任あるAIに対する企業の取り組みについて、従業員に明確に指示する傾向が他の企業と比べて大幅に高くなっています。AIにとって責任はもはや「あった方が良いもの」以上の存在であり、最も重要な課題のひとつです。

AIの価値は理解したものの、どうしたら信頼できるのか?

ビジネスの効率と成果の向上から産業全体の再構築に至るまで、AIは膨大な機会をもたらします。しかし一方で、AIによる意思決定が人々の生活に実際に及ぼす影響や、AIの倫理性や信頼性、適法性および責任に関するいくつかの大きな問題も提起されています。機械が意思決定を行えるようにすることは、企業への信用、雇用や人事、データプライバシー、健康と安全などにまつわる様々な問題を生み出し、企業はリスクにさらされる可能性もあります。

「責任あるAI(レスポンシブルAI)への入り口」に関するトピックはメディアでも盛んに取り上げられており、官民いずれの組織においても現実的な検討課題になっています。

機械が間違った判断や違法な判断を下した場合にはどうなるでしょう。企業に罰金や制裁が科せられ、ビジネスの持続可能性を脅かす可能性もあります。予期しない悪い結果がもたらされた場合に果たして企業は存続できるでしょうか。想定外の方法やデータによってAIが偏見を学習してしまうことで、企業ブランドの評価を損なう可能性もすでに明らかになっています。例えば、Amazonが開発したAI搭載の採用プロセスツールでは、AIが女性に対する偏見を学習していることが分かったため、そのツールは廃棄されることになりました。機械が主導するプロセスに人間が介入すべきタイミングを、どのようにすれば検知できるのでしょうか。

AIの運用方法における信頼の設計

取締役会は、株主や従業員、社会全体に対して負っている義務を改めて理解し、意図しない結果を招くことなく企業にAIを導入することを保証する必要があります。

CEOはAIによって生じ得る企業ブランドやPR上のリスクについて徹底的に検討し、企業としてどのように信頼を保証していくのかを考える必要があります。一方、最高リスク責任者や最高情報セキュリティ責任者は、AIの導入にあたり、どうすればデータ保護規定を遵守できるのかを考える必要があります。AI導入のための強固な倫理基盤を構築することで、設計段階で法的な問題や倫理的な問題を取り除くことができます。

もちろん、適切なガバナンス構造を確立するだけでは十分ではありません。倫理的かつ法的なフレームワークを、ソフトウェアで実装することができる明確な統計的概念にまで落とし込むことが重要です。

どこから始めるべきか?

最初に、AI導入における検討事項が自社のコアバリューと堅牢なコンプライアンスの各プロセスに組み込まれていることを確認しましょう。従業員やクライアント、市民、他の組織を保護するために、具体的な技術ガイドラインを導入してAIシステムの安全性、透明性、説明責任を確保する必要があります。

次に、新たな役割や変化する業務を洗い出し、技術スペシャリストをはじめとする多様な専門家のチームを集めて適切なトレーニングを実施し、チームが新しい役割と権限を十分に理解して、業務を遂行できるようにします。

これらすべての要素が、責任あるAIのための革新的な青写真(設計図)の一部であり、すべての部門およびプロジェクトに適用することが可能です。これにより、企業のあらゆる行動における倫理的意義を明確に示すことができ、また管理できるようになります。

信頼の構築と維持のために倫理を中核に据える

AIの本格導入を計画する際には、倫理的なフレームワークを用いて設計しましょう。驚くかもしれませんが、AIに人間が望む通りの結果を返すようにアルゴリズムをプログラミングすることもできるのです。そして問題は、単純なアルゴリズムが、すべてのデータを不変のものとして扱い、個人の嗜好や収入、生活状況などの情報も処理できてしまうことです。アルゴリズム次第では、出身や歴史、あるいは従来のステレオタイプによって人間を振り分けて差別を助長する事態も起こり得ます。これらの「悪しきフィードバックループ」は、社会に悪影響を及ぼします。

この問題は、AIの機械学習アルゴリズムそのものに起因するものではありません。AIと人間社会との相互作用の中で、AIが何らかの方法で誤った学習をした結果、予期せぬ事態が生じるのです。そのため、新しいアルゴリズムの開発では常に倫理的意義を中核に据えることが非常に重要になります。

データプライバシーやサイバーセキュリティの問題が、特定部門の課題から取締役会での重要検討課題として扱われるようになったように、AIを活用するすべての組織で、責任あるAIガバナンスの重要度を早急に引き上げる必要があります。

アシーナ・カニョーラ

アプライド・インテリジェンス最高アナリティクス責任者 兼 グローバル・リード 博士​


保科 学世

ビジネス コンサルティング本部
AIグループ日本統括 マネジング・ディレクター 博士(理学)

関連コンテンツはこちら


Subscription Center
最新コラム・調査をニュースレターで 最新コラム・調査をニュースレターで