概略

概略

  • AIの価値を実現するための鍵は、信頼できるAIを構築することです。しかし、それにはリスクが伴い、多くの企業はそのリスクを乗り越えるのに苦労しています。
  • 一般的に、アジャイルなイノベーションをサポートし、リスクを包含する問題 をエスカレーションするスキルをチームに取り入れるアプローチが好まれます。
  • これにより、効果的でアジャイルなガバナンスとAIイノベーションを支援するとともに、リスクを早期に予測して火種を消し去ることができます。


AIは急速に発展しているため、法律や規制、業界規範で責任ある行動について定め、標準化されたAIテクノロジーのガバナンスを確立するには、長い年月を要するかもしれません。その間、企業はAIが責任を持って使用されるように自主規制しなければなりません。しかし、企業はこの自主規制を、どのように行えばよいのでしょうか。イノベーションを阻害することなく、効果的にマネジメントすることはできるのでしょうか。

囲碁は2,500年の歴史を持つ、戦略ボードゲームです。2016年、Google傘下のDeepMindが開発したAI囲碁プログラム「AlphaGO」が、当時の人間の世界チャンピオン、イ・セドル氏に勝利しました。

この歴史を変える対局の重要な場面で、AlphaGoは奇妙な動きをしました。あるプロ棋士は次のように述べています。「人間がこのような一手を打つのは見たことがありません。」しかしそれがAlphaGoの勝利に貢献したのです。

AIはそのような驚きに満ちていますが、AlphaGoの新しい戦略のように、そのすべてが「美しい」わけではありません。例えば、Amazonは、AIを搭載した人材採用ツールが女性応募者に対して偏見(バイアス)を示した問題を受け、アルゴリズムを改善しようと努めましたが残念ながら叶わず、ツールを廃止しました。近年のこうした出来事もあり、ビジネスリーダーを対象としたアクセンチュアのグローバル調査では、88%もの回答者がAIに基づいた意思決定やアウトプットに自信が持てないと述べています。

AIは、従来のコンピュータ・プログラムに比べて予測が難しいだけでなく、ほとんどの企業にとって新しい技術です。AIの秘めるパワーは大きく、すでに多くの業界に変革をもたらしています。同グローバル調査では、ビジネスリーダーの85%が「AIによって新しい製品、サービス、ビジネスモデル、市場が生まれる」と予想し、78%が「今後10年間でAIによって自らの業界に創造的破壊が起こる」と回答しています。

AIはパワフルであると同時に、時として予測不可能であるため、AIアプリケーションに対する倫理やガバナンスに対する関心が高まっています。企業は、AIを利用することで意図しない結果を招く可能性を危惧しながら、その関心を高めてきました。しかし、懸念すべきは、誤った規制によってイノベーションが妨げられ、AIプロジェクトのメリットが抑え込まれることです。つまり、イノベーションの開花を促す適切なAIガバナンスが喫緊に求められているのです。

88%

アクセンチュアのグローバル調査において、AIに基づいた意思決定やアウトプットに自信がないと述べた回答者の割合

78%

アクセンチュアのグローバル調査において、今後10年間でAIによって自らの業界に創造的破壊が起こると予想していると述べた回答者の割合

AIはパワフルであると同時に、時として予測不可能であるため、AIアプリケーションに対する倫理やガバナンスに対する関心が高まっています。

ポリスパトロール vs. 消防隊員

AIガバナンスのアプローチには、主に「ポリスパトロール」と「消防隊員」の2種類があります。

ポリスパトロールアプローチは、AIのガバナンスルールをトップダウン方式で適用した結果です。企業が人を監視してルール違反を見つけることでコンプライアンスを強化します。このモデルは一見分かりやすい選択肢のように思えますが、共同責任ではなく障害と見なされるため、イノベーションの妨げになる傾向があります。

消防隊員アプローチはこれとは異なります。このモデルでは、注意が必要な問題をエスカレーションするためのスキルをチームに組み込んでいます。消防隊員は警報が鳴るとすぐ必要な安全対策を実行するのと同様に、被害が大きくなるのを防止します。

一般的に、AIガバナンスにおいては後者のアプローチが好まれています。このアプローチは、企業が競争力を確保するために欠かせないイノベーションとアジャイル開発をサポートし、AIテクノロジーの急速な変化に合わせて進化することができるからです。

適切な人材、プロセス、トレーニングをチームに取り入れることが重要です。

消防隊員アプローチで成功を収めるための3つの方法

消防隊員アプローチでは、結果に対する強い責任感と主体性がチームに求められます。そのため、適切な人材、プロセス、トレーニングをチームに取り入れることが重要です。それらすべてを適切に確保するために、まずは次の3つに取り組みが求められます。

  • 「消防隊員」を選ぶ:アジャイル開発は、AIを主導するのに最適なアプローチとして一般的に受け入れられています。その中心は共同設計であるため、共同開発プロセスにAIガバナンスを取り入れる必要があります。開発チームの中からキーパーソンを選び、同僚と一緒にAIイニシアティブをとり、問題が発生した場合には火災報知器のようにエスカレーションを行います。彼らの仕事は、火を消すことではなく、警告プロセスに従い問題を解決することです。
  • 規制に関する専門知識を取り入れる:企業には、データサイエンスチームと法務チームまたはコンプライアンスチームの間を取り持つ人材が必要です。この人材は、両部門の意見を同僚に分かりやすく伝え、あらゆる視点から起こり得る事態に対する理解を深めます。アジリティを最大限に高めるために、法務よりも技術に精通し、AIプロジェクトの推進に深く関わっている開発チームのメンバーがこの役割を担うのが理想的です。
  • 誤警告を容認する:チームが倫理的で公正「責任あるAI」の利用について理解し、リスクの可能性がある物事を直感的に把握できるようになるには、時間が必要です。すべてのチームがこれを適切に実行できるようになるには、時間がかかります。そのため、警告を発することに対するチームの不安を払拭しなければなりません。警告が誤りであることより、警報がないために脅威を制御できなくなることの方がはるかに危険です。チームがリスクを予測する能力を高め、責任あるAIの本当の意味を理解するには、経験を積むしかありません。

本質的に、消防隊員アプローチは信頼関係によって成り立ちます。そのため、リーダーと従業員の縦の信頼関係と、チームの横の信頼関係を強固なものにする必要があります。

本質的に、消防隊員アプローチは信頼関係によって成り立ちます。そのため、リーダーと従業員の縦の信頼関係と、チームの横の信頼関係を強固なものにする必要があります。

状況に応じたAIガバナンスの適用

企業がAIを利用し、責任を持って持続的に成功を収めるためには、個人レベルで意識を高め、個人が賢く行動できるようにしなければなりません。そうすることで、リスクを予測して問題を早期に解決するとともに、効果的で迅速なガバナンスとAIイノベーションをサポートする大きなチャンスを得ることができます。

ニュースレター
最新コラム・調査をニュースレターで 最新コラム・調査をニュースレターで