En bref

En bref

  • Les entreprises doivent se pencher sur des questions telles que la confiance, la responsabilité, la sécurité et le contrôle.
  • Elles doivent adopter une approche responsable de l'IA en matière de gouvernance, de conception, de surveillance et de reskilling.
  • Autre point essentiel pour conserver la confiance du public : l'« explicabilité » de l'IA (néologisme qui a fait son entrée en force).


Comme toutes les innovations, les nouvelles possibilités que nous offre l'IA ne sont pas totalement exemptes de risque.

Pour une entreprise qui se lance dans l'aventure et décide de miser sur l'IA, il est judicieux de commencer par identifier clairement les risques potentiels, et ce, dans quatre grands domaines :

  • La confiance. Comment prouver que l'utilisation de l'IA est à la fois sûre, éthique et responsable ? Comment éviter l'introduction inconsciente de biais dans l'IA depuis sa création ?
  • La responsabilité. Que se passe-t-il si une IA commet une erreur – ou pire : si elle enfreint la loi ? À qui revient la responsabilité juridique ?
  • Sécurité. Comment prévenir les manipulations non autorisées ou malveillantes des IA ?
  • Contrôle. Que se passe-t-il quand une machine se charge d'un processus ? Comment les humains peuvent-ils reprendre la main si nécessaire ?

L'IA responsable

Pour répondre à ces questions, les entreprises doivent adopter une approche responsable de l'IA. Et pour ce faire, elles doivent placer les humains au cœur de leur réflexion. En effet, il est possible de limiter les risques liés à l'IA si on respecte ces quatre impératifs :

  • Gouvernance. Mettez en place un cadre de gouvernance adapté pour exploiter tout le potentiel de l'IA. Ancrez-le aux valeurs fondamentales de votre entreprise et à ses principes éthiques.
  • Concevoir. Instaurez une relation de confiance dès le départ : tenez compte des questions de confidentialité, de transparence et de sécurité, et ce, dès les premières étapes de la conception.
  • Contrôle. Définissez des indicateurs qui permettent à l'entreprise de mesurer la réussite ou l'échec de l'IA (sans oublier d'y inclure les indicateurs de responsabilité, de biais et de sécurité), et évaluez régulièrement ses performances.
  • Reskilling. Démocratisez l'IA et assurez-vous qu'elle soit bien comprise dans toute l'entreprise. Vous aidez ainsi les salariés impactés par la technologie à surmonter les obstacles.

« L'IA explicable »

Ce qui permettra de gagner la confiance du public en matière d'IA ? Une seule chose : son explicabilité. En d'autres termes, nous devons pouvoir expliquer comment une IA en est venue à prendre la décision qu'elle a prise ou à choisir une solution donnée. Dans les secteurs régulés tels que les services financiers, l'explicabilité constitue déjà un défi à relever en matière de conformité. Mais il ne faut pas perdre de vue un autre facteur, plus général : par essence, les humains sont tout simplement plus susceptibles d'accorder leur confiance quand ils comprennent de quoi il retourne.

Or, cela n'est pas toujours aussi simple qu'il y paraît. Car le propre des algorithmes de machine learning et des réseaux neuronaux du deep learning, c'est que leur fonctionnement peut s'apparenter à celui des boîtes noires – ce qui complique considérablement l'explication de leur processus de prise de décision. Mais des solutions orientées IA explicable commencent à émerger. Et elles seront indispensables à l'utilisation de l'IA dans les années qui viennent.

Patrick Darmon​

Directeur Executif

POUR ALLER PLUS LOIN


Inscription
Restez informé avec nos dernières publications Restez informé avec nos dernières publications