Cultura Digital

La falacia del "experto en IA empresarial": ¿qué necesitas saber realmente?

La confusión entre ingeniería de ML e integración estratégica de IA, y sus consecuencias para formación, contratación y decisiones organizacionales.

Ulises González
La falacia del "experto en IA empresarial": ¿qué necesitas saber realmente?

Hay un argumento que circula con frecuencia en foros profesionales y redes sociales: para implementar IA en una empresa, necesitas entender las matemáticas que subyacen a los modelos. Ecuaciones diferenciales, álgebra lineal, cálculo multivariable, optimización estocástica. Sin ese conocimiento, dice el argumento, estás operando como un piloto que no entiende aerodinámica — funciona mientras todo va bien, pero cuando algo falla, no tienes herramientas para diagnosticar ni corregir.

El argumento tiene una superficie plausible. También tiene una falla lógica que merece examinarse, porque la confusión que genera tiene consecuencias prácticas: organizaciones que contratan perfiles equivocados, profesionales que invierten años en formación que no necesitan, y decisiones de implementación que se toman — o se evitan — por razones incorrectas.

La falla está en la confusión entre dos capas de competencia que operan en dominios diferentes. La primera capa es la ingeniería de ML: el diseño, entrenamiento, optimización y despliegue de modelos. Esta capa requiere conocimiento matemático profundo. Los mecanismos de atención en arquitecturas transformer operan mediante productos punto escalados entre matrices de queries, keys y values — operaciones de álgebra lineal que se optimizan mediante retropropagación usando derivadas parciales de la función de pérdida respecto a millones de parámetros. Vaswani et al. (2017) describieron esta arquitectura en “Attention Is All You Need,” y entender su paper requiere, efectivamente, fluidez en álgebra lineal y cálculo.

La segunda capa es la integración estratégica de IA: la decisión de dónde aplicar IA en una organización, con qué datos, bajo qué restricciones, para resolver qué problema de negocio, con qué riesgos y con qué mecanismos de gobernanza. Esta capa requiere conocimiento diferente: entender las limitaciones de los modelos (qué pueden y qué no pueden hacer), los modos de fallo (alucinación, sesgo, drift), los riesgos de integración (dependencia de proveedor, calidad de datos, privacidad), la economía de la implementación (costo total de propiedad, no solo licencias) y la dinámica organizacional del cambio que la adopción de IA implica.

Confundir estas dos capas es como argumentar que un director financiero necesita saber programar modelos econométricos en R para tomar decisiones de inversión. Es una confusión de niveles de abstracción. Davenport y Patil (2012), cuando acuñaron el término “data scientist” en Harvard Business Review, describieron un perfil que combinaba habilidades técnicas con capacidad de comunicación y entendimiento del negocio. Lo que ha ocurrido desde entonces es una fragmentación del rol en sub-especialidades que requieren competencias diferentes: ML engineer, data engineer, MLOps engineer, AI strategist, AI product manager. Pretender que todas estas funciones requieren la misma base matemática es un anacronismo que refleja la época en que “data science” era una disciplina monolítica.

El argumento del conocimiento matemático como requisito universal también se equivoca sobre qué matemáticas son relevantes. Los posts que exigen “ecuaciones diferenciales” para IA empresarial frecuentemente confunden los fundamentos reales de los transformers con terminología técnica utilizada como señalización. Las arquitecturas transformer estándar no utilizan ecuaciones diferenciales — utilizan álgebra lineal (multiplicación de matrices, softmax) y cálculo (derivadas parciales en backpropagation). Las ecuaciones diferenciales neurales (Neural ODEs), propuestas por Chen et al. (2018), son una línea de investigación de frontera que modela la dinámica de redes neuronales como sistemas de ecuaciones diferenciales ordinarias. Es trabajo académico relevante, pero no es conocimiento fundacional para implementar IA en una empresa — de la misma forma que la teoría de cuerdas no es conocimiento necesario para diseñar un puente.

Marcus (2018), en “Deep Learning: A Critical Appraisal,” argumentó que la comunidad de deep learning tiende a sobrestimar las capacidades actuales de los sistemas y a subestimar sus limitaciones. Esta tendencia se reproduce en el discurso corporativo sobre IA, donde el entusiasmo tecnológico frecuentemente oscurece las preguntas operativas que determinan si una implementación produce valor: ¿los datos disponibles son suficientes en cantidad y calidad? ¿el proceso que se quiere automatizar es suficientemente estable para que un modelo entrenado en datos históricos sea válido en el futuro? ¿la organización tiene la capacidad para monitorear, mantener y corregir el modelo una vez desplegado?

Estas preguntas no requieren saber calcular un gradiente. Requieren entender qué es un gradiente conceptualmente — la dirección de mayor cambio de una función, que el algoritmo de entrenamiento sigue para minimizar el error — sin necesidad de calcularlo manualmente. La distinción entre entender un concepto y dominar su mecánica es central para determinar qué nivel de formación necesita cada rol en una implementación de IA.

Brynjolfsson y McAfee (2014), en “The Second Machine Age,” documentaron que el impacto económico de las tecnologías digitales depende menos de la tecnología misma que de las innovaciones complementarias en procesos, modelos de negocio y organización del trabajo. Una empresa que implementa un modelo de predicción de demanda sin rediseñar su proceso de planificación obtendrá beneficios marginales, porque el modelo genera predicciones que nadie sabe cómo integrar en las decisiones operativas. La competencia crítica no es construir el modelo — es rediseñar el proceso para que el modelo sea útil.

Esto tiene implicaciones directas para la formación en IA empresarial, como documentamos con datos en capacitación corporativa en IA: qué funciona y qué no. Un programa que enseña a ejecutivos a escribir funciones de pérdida en PyTorch les está enseñando una habilidad que nunca usarán. Un programa que les enseña a evaluar cuándo un modelo de IA es apropiado para su problema, qué preguntas hacer al equipo técnico, cómo interpretar las métricas de rendimiento del modelo, y qué mecanismos de gobernanza implementar, les está enseñando habilidades que usarán semanalmente.

Sculley et al. (2015), en “Hidden Technical Debt in Machine Learning Systems,” documentaron que el código del modelo de ML representa una fracción mínima del sistema total de ML en producción. El resto — la recolección y validación de datos, la infraestructura de procesamiento, el monitoreo, la gestión de configuración, la automatización de pruebas — es “plumbing” que requiere ingeniería de software, no matemáticas. Un sistema de IA en producción falla más frecuentemente por problemas de datos (datos faltantes, formatos inconsistentes, distribución que cambia con el tiempo) que por problemas del modelo mismo. El concepto de “data drift” — documentado por Gama et al. (2014) — donde la distribución estadística de los datos de entrada cambia con el tiempo, degradando el rendimiento del modelo, es un riesgo operacional que requiere monitoreo continuo y decisiones sobre cuándo reentrenar. Entender este riesgo es conocimiento necesario para cualquier persona que gobierne un sistema de IA. Saber calcular la divergencia KL entre distribuciones no lo es.

La pregunta sobre qué necesita saber un profesional para trabajar efectivamente con IA en un contexto empresarial depende del rol específico. Para quien diseña y entrena modelos (ML engineer), las matemáticas son esenciales — no solo álgebra lineal y cálculo sino también probabilidad, estadística y optimización. Para quien despliega y mantiene modelos en producción (MLOps), el conocimiento central es de ingeniería de software, infraestructura y automatización. Para quien decide dónde y cómo aplicar IA en la organización (líder de negocio, consultor estratégico), el conocimiento necesario es de otra naturaleza: limitaciones y capacidades de los modelos, economía de implementación, riesgos operacionales, gobernanza de datos y gestión del cambio organizacional.

Agrawal, Gans y Goldfarb (2018), en “Prediction Machines,” reencuadraron la IA como tecnología de predicción — una herramienta que reduce el costo de generar predicciones, de la misma forma que la electricidad redujo el costo de generar energía. Su argumento es que el impacto económico de la IA depende de cómo las organizaciones rediseñan sus procesos de decisión para aprovechar predicciones más baratas y abundantes. Este rediseño es un problema de diseño organizacional, no de ingeniería de ML. Requiere entender el proceso de decisión actual, identificar qué decisiones podrían beneficiarse de mejor predicción, evaluar el costo del error (qué pasa cuando la predicción es incorrecta), y diseñar mecanismos de supervisión humana apropiados.

Existe un riesgo en el otro extremo del espectro: la trivialización. Argumentar que no se necesitan matemáticas para IA empresarial no es lo mismo que argumentar que no se necesita conocimiento técnico. Un líder que implementa IA sin entender conceptualmente qué es un modelo, cómo se entrena, qué significa overfitting, por qué los modelos alucinan, y qué implica el sesgo en los datos de entrenamiento, tomará decisiones mal informadas — no porque le falten ecuaciones sino porque le falta el modelo mental de cómo funciona la tecnología que está desplegando. La diferencia entre conocimiento conceptual y conocimiento procedimental es la clave: necesitas entender qué hace el motor para tomar buenas decisiones sobre el vehículo; no necesitas saber fabricar motores.

Ng (2017) propuso que la IA debería enseñarse como una competencia organizacional, no como una especialización técnica aislada. Su argumento era que las organizaciones que concentran todo el conocimiento de IA en un departamento técnico crean un cuello de botella: cada decisión sobre IA debe pasar por ese departamento, que no entiende suficientemente el contexto de negocio, mientras el negocio no entiende suficientemente las capacidades y limitaciones de la tecnología. La solución que Ng propuso — alfabetización en IA distribuida por toda la organización, con profundidad técnica concentrada donde se necesita — requiere programas de formación diferenciados por rol, no programas uniformes que enseñan lo mismo a todos.

La confusión entre capas de competencia en IA no es solo un problema académico. Tiene consecuencias prácticas: organizaciones que no implementan IA porque creen que necesitan PhDs en matemáticas que no pueden contratar, consultores que venden implementaciones sin entender los riesgos operacionales porque su formación es puramente técnica, y profesionales que invierten meses aprendiendo a derivar funciones de pérdida cuando lo que necesitan es aprender a evaluar si un proveedor de IA está entregando lo que prometió. La claridad sobre qué necesita saber cada rol — ni más ni menos — es una condición previa para que las organizaciones tomen decisiones informadas sobre su relación con la inteligencia artificial.


Referencias

  • Agrawal, A., Gans, J., & Goldfarb, A. (2018). Prediction Machines: The Simple Economics of Artificial Intelligence. Harvard Business Review Press.
  • Brynjolfsson, E., & McAfee, A. (2014). The Second Machine Age: Work, Progress, and Prosperity in a Time of Brilliant Technologies. W. W. Norton.
  • Chen, R. T. Q., Rubanova, Y., Bettencourt, J., & Duvenaud, D. (2018). Neural ordinary differential equations. Advances in Neural Information Processing Systems, 31, 6571-6583.
  • Davenport, T. H., & Patil, D. J. (2012). Data scientist: The sexiest job of the 21st century. Harvard Business Review, 90(10), 70-76.
  • Gama, J., Žliobaitė, I., Bifet, A., Pechenizkiy, M., & Bouchachia, A. (2014). A survey on concept drift adaptation. ACM Computing Surveys, 46(4), 1-37.
  • Marcus, G. (2018). Deep learning: A critical appraisal. arXiv preprint arXiv:1801.00631.
  • Ng, A. (2017). AI Transformation Playbook. Landing AI.
  • Sculley, D., Holt, G., Golovin, D., et al. (2015). Hidden technical debt in machine learning systems. Advances in Neural Information Processing Systems, 28, 2503-2511.
  • Vaswani, A., Shazeer, N., Parmar, N., et al. (2017). Attention is all you need. Advances in Neural Information Processing Systems, 30, 5998-6008.
#inteligencia artificial#competencias#formacion#estrategia#adopcion tecnologica