Amazon Bedrock, la plataforma de inteligencia artificial en la nube de Amazon, ha anunciado la inclusión de soporte para probabilidades logarítmicas en su función de Importación de Modelos Personalizados. Esta nueva característica permite a los desarrolladores integrar modelos personalizados, como Llama, Mistral y Qwen, que han sido ajustados previamente en otras plataformas, brindando acceso a una experiencia sin servidor y con una API unificada.
La importancia de entender la confianza de un modelo en sus predicciones es crucial para la creación de aplicaciones de inteligencia artificial confiables, especialmente al trabajar con modelos personalizados que pueden enfrentar consultas específicas de un dominio. Con la reciente adición del soporte de probabilidades logarítmicas, los usuarios ahora tienen acceso a información sobre la confianza de sus modelos en sus predicciones a nivel de token, lo que ofrece una mayor visibilidad sobre el comportamiento del modelo y mejora la evaluación y filtrado de resultados.
Las probabilidades logarítmicas permiten a los desarrolladores medir la certeza del modelo respecto a cada token generado. Un valor más cercano a cero indica una mayor confianza; por ejemplo, -0.1 corresponde aproximadamente a un 90% de confianza, mientras que -3.0 equivale a alrededor del 5%. Esta capacidad permite a los usuarios evaluar la confianza en diferentes partes de una respuesta, detectar posibles errores, y optimizar los costos en sistemas de generación aumentada por recuperación (RAG).
Para utilizar el soporte de probabilidades logarítmicas en la Importación de Modelos Personalizados, los usuarios necesitan una cuenta activa de AWS con acceso a Amazon Bedrock y los permisos adecuados para invocar modelos a través de la API de Amazon Bedrock. Este avance representa un paso hacia una mayor transparencia en la toma de decisiones de los modelos y permite a los desarrolladores crear aplicaciones que puedan adaptarse a niveles de certeza, mejorando la fiabilidad en dominios críticos como la salud y las finanzas.
Los casos de uso son diversos: desde la detección de alucinaciones y respuestas de baja confianza hasta la optimización de sistemas RAG y la evaluación del ajuste de modelos. Al introducir métricas cuantificables sobre la confianza del modelo, Amazon Bedrock busca fortalecer la capacidad de los desarrolladores para construir aplicaciones más robustas y confiables. Esta nueva funcionalidad subraya el compromiso de Amazon Bedrock de ofrecer herramientas que favorezcan la innovación segura y escalable en el ámbito de la inteligencia artificial.
vía: AWS machine learning blog