El avance de la inteligencia artificial (IA) está llevando a las máquinas a niveles de autonomía sin precedentes, lo que hace que la necesidad de transparencia y explicabilidad sea más urgente que nunca. En un reciente panel de expertos, destacados profesionales del sector, incluyendo a Keshavan Seshadri de Prudential Financial y Pankaj Agrawal de LinkedIn, discutieron las implicaciones de la confianza en los sistemas de IA autónomos.
Saradha Nagarajan, ingeniera de datos en Agilent Technologies, subrayó que la confianza es fundamental para la explicabilidad. Afirmó que la comprensión del funcionamiento interno de los modelos de IA permite una mejor adaptabilidad y confianza en sus predicciones. Además, resaltó la importancia de contar con pautas éticas claras y mecanismos de auditoría tanto antes como después de la implementación.
Por su parte, Pankaj Agrawal destacó que en sectores regulados la transparencia es esencial. Subrayó que los sistemas deben contar con supervisión que garantice que las decisiones de la IA se alineen con un conjunto definido de normas éticas y operativas. Esto es especialmente crítico en aplicaciones de alto riesgo.
Dan Chernoff, científico de datos en Parallaxis, aportó una perspectiva distinta, sugiriendo que la cuestión de la ética está más relacionada con el gobierno y la alineación con normas que con consideraciones éticas per se. Afirmó que es vital trazar las decisiones de una IA de regreso a sus datos de entrada para evaluar si se han producido errores y, en su caso, identificar sus causas.
Keshavan Seshadri analizó cómo regulaciones como la Ley de IA de la UE están influyendo en la forma en que la industria aborda el riesgo, sugiriendo que los diseñadores de sistemas de IA deben mapear las decisiones de los agentes a niveles de riesgo definidos. Esto les permitirá identificar sesgos y construir sistemas más robustos y seguros.
La discusión también abarcó la importancia de la colaboración interfuncional en el desarrollo de IA responsable, donde la inclusión de diversas partes interesadas es clave para el éxito. Se enfatizó que la construcción de IA responsable es una labor conjunta que requiere el aporte de líderes de producto, equipos de seguridad y otros colaboradores.
Finalmente, los expertos coincidieron en que el diseño específico del dominio es esencial. Para los sectores regulados, se necesita un enfoque que ajuste tanto las entradas como las salidas de los sistemas de IA, asegurando que reflejen las políticas y restricciones correspondientes. Este enfoque permitirá construir sistemas más confiables y seguros que se alineen con las necesidades particulares de cada sector.
vía: AI Accelerator Institute