Elena Digital López

Integración de la IA Responsable en la Priorización de Proyectos de IA Generativa

En los últimos dos años, las empresas han experimentado una creciente necesidad de desarrollar metodologías para priorizar proyectos de inteligencia artificial generativa. La variedad de casos de uso no es un problema; más bien, lo que buscan las empresas es evaluar el valor empresarial en relación con el costo, el esfuerzo requerido y otros aspectos para una amplia gama de proyectos de inteligencia artificial generativa. Un nuevo desafío en este ámbito, comparado con otros dominios, es considerar cuestiones como las «alucinaciones» de la IA generativa, cuando los agentes toman decisiones incorrectas y actúan en consecuencia, así como afrontar un panorama regulatorio en rápida evolución. Para abordar de manera sistemática estas preocupaciones, se propone incorporar prácticas de IA responsable en los métodos de priorización de proyectos.

El marco de trabajo bien arquitectado de AWS define la IA responsable como la práctica de diseñar, desarrollar y utilizar tecnología de inteligencia artificial con el objetivo de maximizar beneficios y minimizar riesgos. Este marco comienza por establecer ocho dimensiones de IA responsable: equidad, explicabilidad, privacidad y seguridad, seguridad, controlabilidad, veracidad y robustez, gobernanza y transparencia. En momentos clave del ciclo de vida del desarrollo, un equipo de IA generativa debe considerar los daños potenciales y los riesgos en cada dimensión, implementar mitigaciones y supervisar continuamente esos riesgos.

La aplicación de la IA responsable a lo largo de todo el ciclo de desarrollo es especialmente relevante para los proyectos de IA generativa, donde los riesgos son novedosos y es posible que las mitigaciones no estén bien comprendidas o investigadas. Tener en cuenta la IA responsable desde el principio proporciona una imagen más precisa del riesgo del proyecto y el esfuerzo de mitigación, lo que reduce la posibilidad de rehacer trabajo costoso si se descubren riesgos más adelante.

Si bien la mayoría de las empresas poseen sus propios métodos de priorización, se puede demostrar el uso de la metodología WSJF (Weighted Shortest Job First) del sistema Escaled Agile. Este método calcula la prioridad mediante la fórmula: Prioridad = (costo del retraso) / (tamaño del trabajo). El costo del retraso es una medida de valor comercial que incluye valor directo, urgencia y oportunidades adyacentes. Por otro lado, el tamaño del trabajo considera el esfuerzo necesario para entregar el proyecto, que incluye costos de desarrollo y de infraestructura.

Como ejercicio práctico, se pueden comparar dos proyectos de IA generativa: el primero utiliza un modelo de lenguaje grande para generar descripciones de productos, mientras que el segundo emplea un modelo de texto a imagen para crear visuales para campañas publicitarias. En un primer análisis, se evalúan ambos proyectos sin considerar la IA responsable, y se observa que el segundo proyecto parece más atractivo dada su urgencia y necesidad de entrega. Sin embargo, al realizar una evaluación de riesgos que abarca dimensiones de IA responsable, el primero revela una menor complejidad y un menor costo de mitigaciones. Esto sugiere que, tras considerar la IA responsable, el primer proyecto podría ser más adecuado para iniciar.

Las empresas deben comenzar a desarrollar políticas de IA responsable y adoptar prácticas para los proyectos de IA generativa, lo que puede cambiar las decisiones de priorización de manera significativa. Estas consideraciones son esenciales no solo para evitar costos adicionales, sino también para construir confianza con los clientes y cumplir con un marco regulativo que es cada vez más exigente.
vía: AWS machine learning blog

Scroll al inicio