Un nuevo estudio de Accenture revela que más del 80% de las empresas a nivel mundial dedican al menos el 10% de sus presupuestos de Inteligencia Artificial (IA) para cumplir con las regulaciones locales. Sin embargo, solo el 2% de estas empresas ha implementado sistemas de IA responsable, mientras que un 31% planea hacerlo en los próximos meses.
“Es fundamental para las empresas adoptar modelos responsables de IA para aprovechar los beneficios de esta tecnología, al mismo tiempo que se protegen los valores organizacionales. Los sistemas de IA que cumplen con las regulaciones no solo ayudan a atraer y retener consumidores e inversionistas, sino que también fortalecen la confianza en la marca”.
Francisco Rojas, Director Ejecutivo de Accenture Chile
El informe de Accenture recomienda varias acciones clave para avanzar hacia una IA responsable. En primer lugar, la adopción de principios de gobernanza claros, que deben incluir políticas precisas y una medición continua del diseño e implementación del modelo de uso responsable de la IA. “Estos principios deben garantizar la transparencia y la correcta implementación de la tecnología”, explica Rojas.
Otra recomendación es identificar los potenciales riesgos asociados con la IA, mediante evaluaciones cualitativas y cuantitativas de los casos de uso, aplicaciones y sistemas de la organización. “Es necesario testear continuamente la IA para comprobar su impacto humano, imparcialidad, explicabilidad, transparencia, precisión y seguridad”, añade Rojas.
Finalmente, la gestión de los impactos de la IA debe involucrar a todas las funciones de la empresa, abordando aspectos como la fuerza laboral, el cumplimiento de leyes, la sostenibilidad, la privacidad y la seguridad. “Un programa de cumplimiento de IA responsable debe integrar a todas las áreas de la empresa para abordar estos desafíos de manera efectiva”, concluye Rojas.
Estas medidas son especialmente relevantes con el auge de la Inteligencia Artificial Generativa, la cual, de acuerdo con los expertos, presenta riesgos potenciales como sesgos, alucinaciones o ciberataques. Rojas destaca que el talento humano y el liderazgo son fundamentales en la implementación de modelos de IA responsable. “Preparar a las personas para trabajar de manera colaborativa con nuevas tecnologías es clave para el éxito de la IA responsable”, afirma.
Otras consideraciones de la implementación responsable
Diego González, CEO de Defontana, señala que implementar IA de manera responsable no solo es una cuestión ética, sino también una estrategia de negocio inteligente.
“Las empresas que adoptan un enfoque responsable en la IA ganan la confianza de clientes y socios, están mejor preparadas para adaptarse a un entorno regulatorio en constante cambio y tienen una ventaja competitiva en un mercado que valora la ética y la responsabilidad tecnológica”.
Diego González, CEO de Defontana
González también destaca los riesgos de no adoptar prácticas responsables en el uso de IA, que incluyen sanciones legales, pérdida de confianza y daño reputacional, además de la perpetuación de sesgos y discriminación. “El uso irresponsable de IA puede resultar en decisiones ineficientes y errores que impacten negativamente en la operación y competitividad de la empresa”, advierte.
Para implementar IA de manera responsable, González recomienda establecer políticas claras de privacidad y seguridad de datos, fomentar la transparencia en los algoritmos, realizar evaluaciones regulares de impacto ético y social, promover la inclusión y diversidad en los equipos de desarrollo, y mantener un marco de supervisión y responsabilidad. Estos pasos no solo ayudan a cumplir con las regulaciones, sino que también fortalecen la reputación y la competitividad de la empresa en un mercado que valora la responsabilidad tecnológica, señaló el vocero de Defontana.