La adopción de la inteligencia artificial nunca es completa si no se tienen en cuenta los aspectos éticos. La IA evoluciona a un ritmo vertiginoso y, como ocurre con cualquier otra tecnología, las empresas tienen que ganarse la confianza del público y asumir responsabilidades ante sus clientes y empleados.
En Accenture definimos la “IA responsable” como la práctica de diseñar, desarrollar y desplegar IA de un modo que sea beneficioso para empleados y empresas y que tenga efectos positivos para los clientes y la sociedad, lo que contribuye a que las empresas generen confianza y puedan escalar la IA con seguridad.
Confianza
Cualquier empresa que utilice la IA es objeto de escrutinio. Se ha hecho habitual el teatro de la ética, que consiste en que las empresas pregonan el uso responsable que hacen de la IA al tiempo que participan en actividades dudosas a las que prefieren no dar publicidad. Los prejuicios inconscientes son otro problema frecuente. La IA responsable es una nueva tendencia que pretende generar confianza entre las empresas y sus empleados y clientes.
Seguridad de datos
Los problemas de protección de datos y el uso no autorizado de la IA pueden producir graves daños a la reputación y los sistemas de una organización. Las empresas deben incorporar confidencialidad, transparencia y seguridad a sus programas de IA desde el principio y tomar medidas para garantizar que los datos se obtienen, usan, administran y almacenan con seguridad y responsabilidad.
Transparencia y explicabilidad
Ya sea con la formación de un comité de ética o con la revisión de su código ético, las empresas necesitan crear un marco de gobernanza que oriente sus inversiones y evite riesgos éticos, legales y regulatorios. A medida que las tecnologías de IA se hagan responsables de tomar decisiones, las empresas tienen que saber cómo llegan los sistemas de IA a un resultado determinado y sacar estas decisiones de la “caja negra”. Un claro marco de gobernanza con un comité de ética puede facilitar el desarrollo de prácticas y protocolos para que las soluciones de IA reflejen el código ético de la empresa.
Control
Las máquinas no tienen cerebro, pero cometen errores. Las empresas deben tener sistema de gestión de riesgo y planes de contingencia para responder a cualquier problema. Tienen que dejar claro quién es responsable de las decisiones adoptadas por sistemas de IA y definir el mecanismo administrativo para dar traslado de problemas cuando sea preciso.