Ruido estadístico con mucha confianza
Profetas ciegos, mercenarios éticos y el gran cortocircuito de 2026. Por Alicia Bañuelos
Si usted todavía cree que la Inteligencia Artificial es una entidad mística que va a resolver el hambre en el mundo, tengo un puente en el metaverso para venderle. Barato. El 2026 era el año en que la tecnología iba a redimir sus promesas. En cambio, nos regaló algo mucho más interesante: un circo de tres pistas donde un científico disidente quema mil millones de dólares apostando contra su propia creación, una empresa ética se niega a armar al Pentágono y el gobierno la castiga por ello, y el hombre que predijo el colapso de 2008 lleva meses apostando a que todo este castillo de naipes va a terminar en un incendio épico.
Tres personajes, tres diagnósticos distintos, un solo paciente: el ecosistema tecnológico más sobrevaluado desde las puntocom.
I.El Evangelio según San Yann: gigantes con pañales
Empecemos por LeCun. El hombre que ayudó a crear este monstruo ahora sale a decirnos que el Rey está desnudo — y lo hace con $1.030 millones de dólares de respaldo, la mayor ronda semilla en la historia de Europa, por si alguien pensaba que era solo un académico amargado.
La tesis es maravillosa en su precisión quirúrgica: hemos gastado miles de millones de dólares y quemado la electricidad de tres países pequeños para crear un sistema que puede recitar a Shakespeare pero no entiende que si sueltas una manzana, esta se cae al suelo. En una conferencia en la Universidad de Brown, ante un auditorio desbordado, Yann LeCun lo dijo sin anestesia: “La IA apesta. Tenemos sistemas que manipulan el lenguaje y nos engañan haciéndonos creer que son inteligentes. Pero son completamente inútiles cuando se trata del mundo físico.”
No es retórica. Es diagnóstico técnico. Para LeCun, los modelos de lenguaje predicen el siguiente token. Eso es todo. No entienden la física. No mantienen memoria entre sesiones. No pueden planificar en el mundo real. En entrevista con MIT Technology Review fue categórico: “Los avances no van a venir de escalar los LLMs.” Su empresa, AMI Labs, apuesta por los world models — sistemas entrenados en video, sonido y datos sensoriales que aprenden a predecir consecuencias antes de actuar. La arquitectura se llama JEPA (Joint Embedding Predictive Architecture), y LeCun la describe como el siguiente paradigma necesario antes de que la IA pueda razonar con algo parecido al sentido común.
La analogía que usa LeCun es reveladora: “La razón por la que un joven de 17 años puede aprender a manejar en 20 horas es porque ya sabe mucho sobre cómo se comporta el mundo.” Un LLM, por más tokens que procese, no tiene ese sustrato. Sabe decir la palabra “gravedad” en doce idiomas, pero nunca ha visto caer nada. En Brown fue aún más directo, con una diapositiva en letras rojas mayúsculas dirigida a sus colegas académicos: “SI TE INTERESA LA IA A NIVEL HUMANO, NO TRABAJES EN LLMs.”
Lo que hace devastadora esta postura no es solo su contenido técnico. Es que LeCun no habla desde la tribuna cómoda del teórico desinteresado. Habla como fundador de una empresa con $1.000 millones de dólares apostados exactamente en la dirección contraria a donde va el resto de la industria. En Silicon Valley llaman a eso “poner el dinero donde está la boca”. En cualquier otro contexto lo llamarían fe.
II. Los 22 mandamientos de Palantir (y su exégesis no autorizada)
Para entender el nivel de mesianismo corporativo en el que estamos, hay que leer los 22 puntos que Palantir publicó en redes sociales como extracto de The Technological Republic, el libro de su CEO Alex Karp — un bestseller del New York Times, por si alguien dudaba de que esto iba en serio. Los puntos están escritos con la gravedad de quien baja del Monte Sinaí con las tablas de la ley. Básicamente dicen: Silicon Valley le debe una deuda moral al país que lo hizo posible, la era nuclear terminó y la era de la IA militar está comenzando, y quien no esté dispuesto a construir armas está, implícitamente, del lado equivocado de la historia.
El punto 5 es el más honesto del lote: “La pregunta no es si se construirán armas de IA; es quién las construirá y con qué propósito.” Es una frase que suena a advertencia pero funciona como justificación. Y el punto 21 remata la filosofía subyacente: “Algunas culturas han producido maravillas. Otras han demostrado ser mediocres, y peor, regresivas y dañinas.” En boca de una empresa que vende software de vigilancia y selección de objetivos militares a gobiernos de todo el mundo, esa frase no es filosofía cultural. Es criterio de clasificación.
Yanis Varoufakis — economista, ex ministro de finanzas griego, hombre que no tiene nada que perder en términos de corrección política — leyó los 22 puntos y se tomó la libertad de anotarlos uno por uno. Su respuesta es sátira explícita, no análisis literal, y conviene leerla como tal: es el método de llevar cada argumento hasta su conclusión lógica más oscura para exponerlo. Sobre el punto 5, Varoufakis escribe que Palantir “hará lo que sea necesario para evitar cualquier tratado internacional que limite a los robots asesinos impulsados por IA.” Sobre el punto 21, que es hora de “traer de vuelta la jerarquía de razas, con los fundadores de Palantir en su pináculo”. Son formulaciones deliberadamente extremas. Su eficacia no está en la literalidad sino en la pregunta que instalan: ¿hasta dónde llega la distancia entre el manifiesto original y su caricatura?
LeCun tomó los mismos 22 puntos y fue más quirúrgico que Varoufakis, aunque igualmente demoledor. Les dijo que Palantir está vendiendo aceite de serpiente computacional. “Los datos sin un modelo del mundo son solo ruido estadístico con mucha confianza.” Confiar la seguridad nacional a un sistema que no entiende la física básica, según él, no es liderazgo — es negligencia.
Dos críticas, dos métodos: Varoufakis expone la ideología llevándola a su límite; LeCun expone la tecnología demostrando sus límites. El manifiesto de Karp queda atrapado entre ambos.
III. Anthropic y el arte marcial de negarse
Aquí la historia se complica de una manera que hace que la versión simplificada — “Anthropic se vendió” — quede pequeña y, francamente, equivocada.
Sí, Claude terminó en las pantallas del Pentágono. Sí, el vehículo fue Palantir, el equivalente tecnológico de Mordor con PowerPoint. La alianza fue real: Anthropic y Palantir, junto con Amazon Web Services, formaron un consorcio para llevar modelos de IA a redes clasificadas del Departamento de Defensa. Claude fue el primer modelo de IA de frontera en operar en esas redes. El contrato con el Pentágono valía hasta $200 millones. Y, según reportes del Wall Street Journal, Claude estuvo presente en las pantallas de los funcionarios que monitorearon la captura del entonces presidente venezolano Nicolás Maduro.
Hasta ahí, el relato de la empresa ética que se vende al complejo militar-industrial parecía cerrarse solo. Pero lo que ocurrió después es donde la ironía se invierte — y se vuelve mucho más interesante.
Anthropic puso sobre la mesa dos líneas rojas: armas autónomas letales y vigilancia masiva doméstica. No las movió. El Pentágono quería acceso sin restricciones a Claude para “todos los usos legales”. Anthropic dijo que no. El secretario de Defensa Pete Hegseth le dio a Dario Amodei un ultimátum con hora y minuto: ceder antes de las 5:01 p.m. del 27 de febrero o atenerse a las consecuencias. Anthropic publicó su respuesta el día anterior: no.
La reacción fue tan desproporcionada que bordea la parodia: Trump ordenó a todas las agencias federales cesar el uso de Claude, y el Pentágono designó a Anthropic “riesgo en la cadena de suministro” — una etiqueta históricamente reservada para adversarios extranjeros como Huawei. La primera empresa estadounidense en recibirla no es una fábrica de chips china. Es una startup de San Francisco que se negó a dejar que su IA disparara misiles sin supervisión humana.
Anthropic demandó al gobierno. Una jueza federal encontró las acciones del Pentágono “perturbadoras” y emitió una orden preliminar bloqueando la designación, señalando que las acciones del gobierno constituían “represalia clásica e ilegal contra la Primera Enmienda”. Un tribunal de apelaciones reinstauró la designación días después. El caso sigue abierto.
¿Dónde queda entonces la metáfora de la ONG de animales aliada con la fábrica de abrigos de piel? Digamos que la realidad la complica: la ONG firmó el contrato con la fábrica, pero cuando la fábrica quiso usar a los animales de otra manera, la ONG se plantó — y la fábrica llamó al presidente. El cinismo sigue en pie, pero apunta en otra dirección. La pregunta ya no es si Anthropic vendió su alma. La pregunta es qué significa que el gobierno de los Estados Unidos haya convertido en adversario a la única empresa de IA que se negó a decir que sí a todo.
IV. Michael Burry: el Casandra de Wall Street
Y aquí entra nuestro optimista favorito, Michael Burry. El hombre que vio venir el colapso de 2008 ahora tiene su mira telescópica puesta en la IA. Burry no mira el código. Mira la caja.
Su posición es clara: en el tercer trimestre de 2025, su fondo Scion Asset Management reveló opciones de venta por aproximadamente $912 millones contra Palantir y $187 millones contra NVIDIA. La apuesta es técnicamente conocida como “el Gran Short 2.0”. El CEO de Palantir, Alex Karp, calificó las apuestas de Burry como “super raras” y “locas de remate”. El mercado, por el momento, parece estarle dando la razón a Burry: Palantir ha caído cerca de un 20% en lo que va de 2026 desde sus máximos.
Pero Burry no se limita a apostar en corto. Construye un argumento. Y es demoledor. Su tesis tiene dos patas: la primera es la valuación. El ratio precio-ventas de Palantir rondaba 113 veces; su precio-beneficio superaba las 400 veces. No hay modelo de negocio en el mundo que justifique esos números. Su segunda pata es la contabilidad. Burry acusa a las grandes tecnológicas de inflar artificialmente sus ganancias al extender la vida útil depreciable de sus equipos de cómputo — chips de NVIDIA con ciclos de producto de 18 a 24 meses registrados como si duraran el doble. Estimó que esta maniobra podría subestimar la depreciación en unos $176 mil millones entre 2026 y 2028.
“Subestimar la depreciación extendiendo la vida útil de los activos infla las ganancias artificialmente”, escribió. “Es uno de los fraudes más comunes de la era moderna.”
Si LeCun dice que la IA no tiene modelo del mundo, Burry dice que las empresas de IA no tienen modelo de negocio. La diferencia es que Burry lleva sus convicciones al mercado con dinero real. Y el mercado, lentamente, empieza a darle la razón.
V. El cortocircuito: soberanía y servidumbre
¿Qué nos queda cuando sumamos estas tres visiones? Un panorama donde la tecnología está atrapada entre la incapacidad técnica (LeCun), la captura militar (Anthropic) y la fragilidad financiera (Burry). Tres críticos que no se coordinan, que no comparten agenda, y que sin embargo describen el mismo colapso desde ángulos distintos.
La IA de 2026 es un sistema que no entiende el mundo físico, que opera en redes clasificadas donde se deciden operaciones militares, y que está evaluado como si cada empresa del sector fuera a convertirse en la próxima Standard Oil. Estamos viviendo el “Capitalismo de Vigilancia” en esteroides. Mientras nos distraen con imágenes generadas por IA de gatos espaciales, la infraestructura real se está integrando en el complejo militar-industrial. La “IA ética” ha resultado ser, en el mejor de los casos, un departamento de marketing con límites negociables.
Y lo más inquietante no es el escándalo. Es la normalidad con que se acepta. Que el Pentágono use IA en operaciones en Venezuela y en la guerra de Irán, y que la noticia más comentada sea el litigio contractual entre el proveedor y el cliente — no el hecho mismo.
VI. La salida: procesamiento local y soberanía
Aquí es donde la disidencia deja de ser solo una postura intelectual y debe convertirse en una estrategia de supervivencia. Si los grandes modelos son gigantes con pies de barro controlados por corporaciones que han negociado con el Pentágono, bajo la sombra de un posible colapso financiero, la respuesta no puede ser “más de lo mismo”.
La verdadera soberanía tecnológica no se compra en la nube de Microsoft o Google. Se construye en el borde — the edge. En los dispositivos, en las escuelas, en los hospitales locales, en la bitácora del investigador. Necesitamos modelos que no dependan de los caprichos de Silicon Valley ni de las negociaciones entre startups y secretarios de defensa. Necesitamos NPUs que funcionen en la computadora del alumno, sin pasar por los peajes éticos y financieros de las Big Tech.
Este no es un argumento tecnológico. Es un argumento político. La pregunta no es si podemos hacer IA local — ya podemos, con arquitecturas cada vez más eficientes. La pregunta es si queremos construir infraestructura propia o seguir dependiendo de infraestructura ajena. Para América Latina, donde la brecha no es solo económica sino de soberanía digital, esa pregunta tiene una urgencia particular.
Conclusión
El 2026 será recordado como el año en que nos dimos cuenta de que la IA no era Dios, sino un becario muy rápido con una ética de geometría variable. Yann LeCun tiene razón: necesitamos nuevas arquitecturas, no más escala. Michael Burry tiene razón: necesitamos realismo económico, no contabilidad creativa. Y Anthropic nos ha dado algo que no esperábamos: la demostración de que incluso una empresa dispuesta a negociar con el Pentágono tiene límites — y que el gobierno de los Estados Unidos considera esos límites inaceptables.
Eso es, quizás, lo más revelador de todo este circo. No que la IA sea imperfecta. No que el dinero corrompa. Sino que el poder, cuando encuentra resistencia aunque sea mínima, responde con todo su peso institucional. El enemigo del Estado en 2026 no es un disidente político ni una potencia extranjera. Es una startup que se negó a que su software disparara solo.
Mientras el gigante de silicio se tambalea sobre sus pies de barro, nosotros tenemos una oportunidad: dejar de ser consumidores pasivos de su evangelio y empezar a construir nuestra propia autonomía tecnológica. Porque si algo nos han enseñado estos tres profetas es que el futuro es demasiado importante para dejárselo a quienes creen que el mundo se resume en un conjunto de datos de entrenamiento.
Que la próxima revolución nos encuentre con la guardia alta y el procesador en casa. Porque si la IA te la vende Palantir, el objetivo, definitivamente, eres tú.
LA MEJOR OPCIÓN PARA VER NUESTROS CONTENIDOS
Suscribite a El Diario de la República y tendrás acceso primero y mejor para leer online el PDF de cada edición papel del diario, a nuestros suplementos y a los clasificados web sin moverte de tu casaMás Noticias
