Un desafío pendiente para la IA: la ausencia de pruebas no es lo mismo que la prueba de ausencia

Un análisis comparativo revela cómo distintas inteligencias artificiales manejan la información ausente en la investigación de accidentes aéreos.

0
97

(Aeronoticias): osé Sánchez-Alarcos Experto en Organización y Factores Humanos, Ergónomo certificado, Psicólogo de la Aviación y experto externo de EASA.

Mientras experimentaba con diferentes IA, creo que he identificado una diferencia significativa entre ellas, específicamente en cómo manejan el contexto:

Planteé la misma pregunta a dos IA diferentes: una, un servicio de pago con notable prestigio, y la otra una herramienta gratuita que ha revolucionado todo el campo —me refiero, naturalmente, a DeepSeek— y encontré notables diferencias:

Pedí a ambas que analizaran un accidente de aviación y desarrollaran un modelo Bowtie para explicarlo. Ambas tomaron como hecho central que el avión se había estrellado por una causa muy visible. Sin embargo, ya había diferencias significativas:

La IA pagada desarrolló un modelo Bowtie que, gráficamente, era perfecto. Sin embargo, tomó como punto de partida el informe oficial, que mostraba cómo la autoridad correspondiente trataba de exonerarse a sí misma. Como resultado, no se mencionaban los aspectos regulatorios o de supervisión por parte de la autoridad. Solo cuando se le preguntó directamente sobre este tema incluyó elementos regulatorios y de supervisión, que eran correctos y estaban bien organizados.

El comportamiento de DeepSeek fue completamente diferente. Al principio, utilizó el mismo evento central y los mismos conceptos correctos, pero no desarrolló el modelo gráfico. En su lugar, llenó un sinfín de páginas con líneas verticales. Sin embargo, donde DeepSeek destacó significativamente fue en su tratamiento de la información que NO estaba presente, es decir, los aspectos contextuales. Sin que se le pidiera, incluyó consideraciones regulatorias y de supervisión, así como la posibilidad de que, aunque no se mencionara, pudiera haber habido un fallo técnico antes del accidente que pudiera haber contribuido a él.

Sugerí a ambas IA la posibilidad de cambiar el evento central para hacerlo más genérico, de modo que el análisis pudiera utilizarse para prevenir otros accidentes que no fueran exactamente iguales. Ambas respondieron correctamente a la petición, pero DeepSeek añadió algunas áreas a las que se podían extrapolar las conclusiones.

Parece claro que las IA no son intercambiables. Tienen sus puntos fuertes y débiles, y quizás uno de los aspectos más apreciados por los usuarios —y que puede marcar la diferencia— es la inclusión de elementos contextuales. Es decir, algo que no se menciona explícitamente en la pregunta pero que está presente en el contexto no debe ignorarse sin más, obligando al usuario a hacer preguntas de seguimiento.

Fuente: aviaciondigital.com

Dejar respuesta

Please enter your comment!
Please enter your name here