Andrej Karpathy desmonta la analogía evolutiva en inteligencia artificial
Andrej Karpathy, cofundador de OpenAI y ex director de IA en Tesla, ofreció una perspectiva crítica y profunda sobre el estado actual de la inteligencia artificial (IA) en una entrevista con Dwarkesh Patel. Según Karpathy, los sistemas actuales son «fantasmas digitales» que imitan patrones humanos, pero, claro está, la IA no imita cerebros biológicos. Además, predice que la inteligencia artificial general (AGI) funcional no llegará hasta 2035, retrasándose nueve años respecto a las estimaciones optimistas de 2026. Esta perspectiva refuerza la idea de que IA no imita cerebros en su sentido más profundo, destacando las limitaciones actuales de estas tecnologías.
Por qué esta visión es crucial
El discurso sobre IA está dominado por comparaciones con cerebros biológicos, influyendo en decisiones de inversión, desarrollo tecnológico y políticas públicas. Sin embargo, Karpathy enfatiza que la IA no imita cerebros, lo cual considera que es una analogía engañosa y que fomenta expectativas irreales. Advierte que los modelos actuales no poseen comprensión, solo replican patrones de datos, lo que podría generar frustración entre desarrolladores y empresas.

Diferencias esenciales entre IA y biología
Los animales evolucionan durante millones de años, desarrollando instintos preinstalados en su ADN. Una cebra puede correr minutos después de nacer gracias a ese “hardware natural”. En cambio, los modelos de lenguaje aprenden únicamente mediante la imitación de textos de internet, sin experimentar el mundo físico ni tener conciencia. Karpathy enfatiza: “No estamos construyendo animales, sino entidades etéreas que simulan comportamiento humano sin comprenderlo”. Estos “fantasmas digitales” son precisos en la repetición de patrones, pero carecen de razonamiento verdadero, ya que la IA no imita cerebros en su esencia.
Aprendizaje por refuerzo y colapso de entropía
Karpathy critica el aprendizaje por refuerzo (RL), argumentando que recompensa trayectorias completas, incluso cuando incluyen errores, lo que limita la optimización paso a paso. Además, los modelos sufren colapso de entropía al autoentrenarse con datos sintéticos, repitiendo respuestas similares y reduciendo la diversidad de soluciones posibles. La memoria perfecta de los LLM permite recitar información de internet, pero impide la abstracción y la resolución creativa de problemas, reforzando así la realidad de que IA no imita cerebros.
Limitaciones en tareas complejas
Durante el desarrollo de nanochat, Karpathy observó que agentes de OpenAI y Claude Code eran ineficaces en código complejo. Funcionan con tareas repetitivas comunes en internet, pero fallan ante arquitecturas nuevas. Según él, las empresas a veces generan “slop” para impresionar inversores o levantar financiación, no para optimizar soluciones reales.
Propuesta de Karpathy para una IA más inteligente
Karpathy propone construir modelos más pequeños, de mil millones de parámetros, entrenados con datos limpios y algoritmos de pensamiento en lugar de conocimiento factual. Esto permitiría que los modelos busquen información solo cuando la necesiten, simulando la forma en que los humanos aprenden y razonan, reforzando la idea de que aunque la IA no imita cerebros, puede evolucionar en su capacidad de razonamiento. Según él, los modelos gigantes compensan la abundancia de datos incorrectos con tamaño, no con inteligencia genuina.
Predicciones sobre el impacto económico de la IA
Karpathy no espera explosiones repentinas de inteligencia. Advierte que la IA seguirá difundiendo sus efectos lentamente, afectando la economía gradualmente, sin provocar un aumento abrupto en la productividad o el PIB. Afirma que, aunque percibimos una “explosión” de innovación, esta se desarrolla a cámara lenta, siguiendo un patrón similar al de otros avances tecnológicos como internet, móviles o computadoras.
Más noticias:
Rafael Puyol nombrado Profesor Honorario por la Universidad Católica de Santa María de Arequipa
Fuente:
https://www.xataka.com/