En resumen

En resumen

  • La IA no está exenta de riesgos. Las empresas deben tener en cuenta cuestiones como la confianza, la responsabilidad, la seguridad y el control.
  • Las empresas deben adoptar un modelo de IA responsable que incluya control, diseño, supervisión y formación.
  • La capacidad de explicar las decisiones adoptadas por una IA es fundamental para mantener la confianza del público.


Como con toda innovación, las nuevas oportunidades con la IA no llegan sin riesgos.

Podemos ayudar a iniciar cualquier viaje de IA con una visión clara de los posibles riesgos en cuatro áreas clave:

  • Confianza. ¿Cómo demostramos que la IA es responsable, ética y segura de usar? ¿Cómo evitar que los sesgos se arrastren desde el principio?
  • Responsabilidad civil. ¿Qué sucede cuando la IA comete un error o incluso infringe la ley? ¿Quién es legalmente responsable?
  • Seguridad. ¿Cómo evitamos la manipulación no autorizada o maliciosa de la IA?
  • Control. ¿Qué sucede cuando una máquina se hace cargo de un proceso? ¿Cómo puede un humano recuperarlo si lo necesita?

IA Responsable

Para encontrar las respuestas, una empresa debe hacer un uso responsable de la IA y dar siempre prioridad a las personas. Los riesgos de la IA se pueden mitigar cumpliendo cuatro mandamientos:

  • Controlar: Crear una estructura de gobierno que permita el desarrollo de la IA sin perder de vista los valores fundamentales y la ética profesional de la organización.
  • Diseñar: Generar confianza en la IA desde el principio garantizando la privacidad, la transparencia y la seguridad desde las primeras fases de diseño.
  • Supervisar: Definir métricas para determinar el éxito o el fracaso de la IA en la empresa, incluyendo factores como rendición de cuentas, prejuicios y seguridad, y realizando auditorías periódicas.
  • Formar: Democratizar los conocimientos sobre IA, extendiéndolos a toda la empresa.

IA Explicable

  • Hay un factor que contribuye más que ninguna otra cosa a mantener la confianza del público en la IA: la “explicabilidad”; o lo que es lo mismo, la capacidad de explicar cómo llega la IA a una decisión. Eso ya es algo habitual en algunas industrias reguladas, como los servicios financieros. Se trata en realidad de una cuestión más amplia, ya que es más probable que las personas confíen en algo que comprenden.
  • No siempre es fácil conseguirlo. Por su propia naturaleza, los algoritmos de aprendizaje automático y las redes neuronales de aprendizaje profundo se parecen mucho a una “caja negra”, lo que hace que sea muy difícil explicar cómo llegan a una decisión. Sin embargo, existen ya algunas soluciones de IA explicable que serán muy importantes para el uso de la tecnología en los próximos años.

Ray Eitel-Porter

Managing Director de Accenture Digital, responsable de inteligencia aplicada en Reino Unido e Irlanda


Narendra Mulani

Chief Analytics Officer

MÁS INFORMACIÓN


Centro de suscripción
Continua informado con nuestra newsletter Continua informado con nuestra newsletter