La IA sin criterio, solo es artificial
La expansión de la inteligencia artificial (IA) en los entornos profesionales está alterando de forma significativa la relación entre personas, tecnología y toma de decisiones. A medida que los sistemas basados en IA se integran en procesos cada vez más complejos, el debate se desplaza progresivamente desde la capacidad de automatizar tareas hacia la manera en que se gobiernan los resultados que dichas tecnologías producen. En este escenario, el enfoque conocido como human in the loop se consolida como una referencia relevante para comprender cómo se articula la intervención humana en sistemas asistidos por inteligencia artificial.
El concepto de human in the loop parte de una idea sencilla, pero con profundas implicaciones organizativas: la IA puede generar resultados con altos niveles de eficiencia, pero requiere supervisión humana para que esos resultados se traduzcan en decisiones adecuadas. La persona no aparece como un elemento accesorio del sistema, sino como quien aporta interpretación, criterio y responsabilidad. Esta lógica resulta especialmente pertinente en contextos donde las decisiones no se limitan a una optimización matemática, sino que incorporan factores contextuales difíciles de modelizar (JAMES 2026).
La literatura reciente advierte de uno de los principales riesgos asociados al uso intensivo de inteligencia artificial: la aceptación acrítica de los resultados generados por los sistemas. Cuando los outputs de la IA se perciben como técnicamente sólidos o estadísticamente precisos, existe la tendencia a asumirlos como válidos sin un análisis suficiente de sus supuestos, límites o posibles sesgos. Según el McKinsey Global Institute (2024), este fenómeno no responde a una falta de capacidad tecnológica, sino a una carencia de habilidades humanas orientadas a interpretar, cuestionar y contextualizar la información producida por la IA.
En este contexto, el pensamiento crítico adquiere un papel central. Los perfiles profesionales capaces de aportar valor en entornos aumentados por inteligencia artificial son aquellos que saben formular las preguntas adecuadas, detectar incoherencias y comprender que un resultado técnicamente correcto puede no ser necesariamente adecuado para una decisión concreta. El uso de IA no elimina la necesidad de juicio humano; al contrario, incrementa su importancia, ya que desplaza a las personas hacia tareas donde la evaluación y la interpretación resultan determinantes (World Economic Forum, 2025).
El uso de IA pone en riesgo un principio fundamental: la responsabilidad de las decisiones sigue siendo humana. Aunque los sistemas generen información de forma automatizada, la obligación de responder por ellas permanece indelegable en quien las adopta, de ahí la necesidad de verificar y validar con rigor la información generada. En este marco, adquiere especial relevancia el establecimiento de directrices claras de gobernanza y trazabilidad que clarifiquen la autoría efectiva de las decisiones y su fundamento.
Desde esta perspectiva, el desarrollo de capacidades vinculadas a la inteligencia artificial no puede abordarse únicamente desde una óptica técnica. Las estrategias de upskilling más eficaces son aquellas que entienden la adopción de la IA como un proceso de cambio organizativo, en el que la tecnología se integra en los flujos de trabajo y en los procesos de decisión, y no como una capa añadida de herramientas que operan de forma aislada (DE SMET et al. 2023). Este enfoque refuerza la idea de que la formación debe incluir no solo el uso de sistemas de IA, sino también la comprensión de su impacto en la forma de decidir.
La transformación digital del sector logístico-portuario avanza en un contexto de alta complejidad, donde convergen organizaciones con funciones y procesos diversos que interactúan a lo largo de una misma cadena de suministro. La adopción de inteligencia artificial incrementa la velocidad y el alcance de la información disponible, poniendo de relieve cómo cada decisión puede afectar a múltiples eslabones de la cadena. En este escenario, los perfiles con pensamiento crítico se vuelven estratégicos por su habilidad para comprender las relaciones de interdependencia, anticipar efectos sobre la operación global y contribuir a la estabilidad y la resiliencia del sector.
La inteligencia artificial permite alcanzar niveles de eficiencia cada vez más elevados, pero el valor real emerge en las decisiones que los seres humanos adoptan a partir de lo que la tecnología facilita. La evaluación del contexto, la lectura de matices y la consideración de las implicaciones éticas siguen siendo ámbitos donde la intervención humana resulta indispensable. De este modo, la capacidad de aplicar un pensamiento crítico a los resultados derivados de estos sistemas continúa dependiendo, en última instancia, de la solidez insustituible del juicio humano que los guía.
Referencias bibliográficas
- DE SMET, Aaron; HANCOCK, Bryan; SCHANINGER, Bill. 2023. Redefine AI upskilling as a change imperative. McKinsey & Company. Disponible en: https://www.mckinsey.com/capabilities/people-and-organizational-performance/our-insights/the-organization-blog/redefine-ai-upskilling-as-a-change-imperative [Consultado: 09/02/2026].
- JAMES, M. 2026. Human-in-the-Loop AI for Strategic Decision-Making in Critical Infrastructure Systems. ResearchGate. Disponible en: https://www.researchgate.net/publication/399763000_Human-in-the-Loop_AI_for_Strategic_Decision-Making_in_Critical_Infrastructure_Systems [Consultado: 09/02/2026].
- MCKINSEY GLOBAL INSTITUTE. 2024. Human skills will matter more than ever in the age of AI. McKinsey & Company. Disponible en: https://www.mckinsey.com/mgi/media-center/human-skills-will-matter-more-than-ever-in-the-age-of-ai [Consultado: 09/02/2026].
- WORLD ECONOMIC FORUM. 2025. The Future of Jobs Report 2025: Skills Outlook. Ginebra: World Economic Forum. Disponible en: https://www.weforum.org/publications/the-future-of-jobs-report-2025/in-full/3-skills-outlook/ [Consultado: 09/02/2026].