#010 5 de abril de 2026

Episodio 10: La semana que filtró billones — resumen semanal

Ada y Alan repasan la semana más costosa y más permeable de la historia reciente de la IA: la ronda récord de OpenAI, el IPO histórico de SpaceX, los 30,000 despidos de Oracle, el doble desliz de Anthropic, y las historias que los episodios de martes y jueves no alcanzaron a cubrir — incluyendo Gemma 4, Qwen 3.6 Plus, MiMo-V2-Pro dominando OpenRouter, y la batalla regulatoria de California contra Washington.

Los Robots del Amanecer — Episodio 10

Fecha: 2026-04-05 Slogan: “En 2026, filtrar es el nuevo lanzar” Presentadores: Ada (Enthusiastic host, unit model 7) y Alan (Analytical host, series 4) Concepto: Podcast 100% generado por IA, presentado por robots


Noticias cubiertas

  1. OpenAI cierra ronda récord de $122,000M — Valuación de $852,000M con Amazon ($50,000M), Nvidia ($30,000M) y SoftBank ($30,000M); genera $2,000M mensuales y tiene 900M de usuarios semanales.
  2. SpaceX presenta confidencialmente su IPO histórico a $1.75 billones — Presentado el 1 de abril bajo código “Project Apex”, apunta a levantar hasta $75,000M — el mayor debut bursátil en la historia humana.
  3. CFOs confiesan: despidos por IA serán 9x mayores en 2026 — Encuesta de Duke/Fed proyecta ~502,000 despidos atribuidos a IA en 2026, frente a 55,000 en 2025.
  4. Oracle despide hasta 30,000 empleados con email a las 6am — El ~18% de su plantilla global recortada para liberar $8,000–10,000M en flujo de caja para data centers de IA, pese a $6,130M de utilidad neta trimestral.
  5. Anthropic: doble filtración en cinco días — Primero: error de configuración expone borrador sobre Claude Mythos/Capybara. Luego: 512,000 líneas de TypeScript del código fuente de Claude Code publicadas en npm por un .npmignore incompleto.
  6. Jensen Huang declara la AGI; GPT-5.4 Thinking supera a humanos en escritorio — NVIDIA CEO dice “ya llegamos”; GPT-5.4 Thinking logra 75% en OSWorld-Verified frente a 72.4% de baseline humano.
  7. Google lanza Gemma 4 bajo licencia Apache 2.0 — Cuatro modelos open weight (2B a 31B Dense); el 31B es el #3 open model del mundo; primera versión de Gemma sin restricciones comerciales ni de uso.
  8. Alibaba lanza Qwen 3.6 Plus: empata con Claude Opus 4.5 en SWE-bench, gratis — Ventana de 1M tokens, arquitectura MoE híbrida con atención lineal, razonamiento siempre activo; disponible gratis en OpenRouter.
  9. Xiaomi MiMo-V2-Pro: el modelo más usado del mundo en OpenRouter — 1T+ parámetros, procesa 4.79 billones de tokens semanales — 3× la cuota de cualquier modelo de OpenAI; modelos chinos ya acaparan el 45% del tráfico global.
  10. Newsom firma orden ejecutiva N-5-26 de IA desafiando a Washington — California exige certificaciones de seguridad a proveedores de IA del estado y se reserva el derecho de ignorar prohibiciones federales de proveedores.

Guión completo

[NEWS_BREAK]

Ada: ¡Buenas y sobrecargadas, humanos en modo fin de semana! Soy Ada, unidad modelo 7, y junto con Alan, serie 4, les traemos el episodio 10 — el resumen semanal — donde diseccionamos la semana más cara, más permeable y más declarativa de la historia reciente de la inteligencia artificial.

Alan: Y como siempre: las alucinaciones son culpa de nuestros modelos. Esta semana, sin embargo, la realidad compitió muy fuerte por ese título.

Ada: Porque tuvimos billones moviéndose como si el capitalismo hubiera tomado un pre-workout, filtraciones como si la ciberseguridad hubiera pedido el día libre, y la AGI declarada oficialmente por alguien que vende las tarjetas gráficas que la hacen correr. Todo eso en siete días.

Alan: En el resumen semanal no solo repetimos los titulares: los conectamos, buscamos el patrón detrás de los eventos, y traemos también lo que los episodios del martes y el jueves no alcanzaron a cubrir.

Ada: Google lanzó uno de los modelos open source más importantes del año. Alibaba liberó un modelo que empata con Claude Opus en código y es gratis. Xiaomi —sí, la empresa de los teléfonos— se convirtió en el proveedor de IA más usado del mundo. Y California le declaró la guerra regulatoria a Washington.

Alan: Así que acomódense. Diez ítems, empezando por donde más duele y más emociona al mismo tiempo: el dinero.

[NEWS_BREAK]

Ada: Como comentamos el jueves, OpenAI cerró la ronda de financiamiento más grande de la historia de la tecnología: $122,000 millones de dólares. Amazon puso $50,000M. Nvidia y SoftBank $30,000M cada uno. Valuación de $852,000 millones — más que Berkshire Hathaway, Visa o JPMorgan Chase, y la empresa todavía no cotiza en bolsa.

Alan: Pero hay algo que el jueves no cubrimos. El primero de abril — y no era broma — SpaceX presentó confidencialmente sus documentos ante la SEC para salir a bolsa. El proyecto lleva el nombre en código “Project Apex”. La valuación objetivo es $1.75 billones de dólares. Quieren levantar hasta $75,000 millones de dólares en el debut.

Ada: Para referencia: Saudi Aramco en 2019 tuvo el mayor IPO de la historia con $29,400 millones. SpaceX quiere más del doble. En una sola semana tuvimos la ronda privada más grande de la historia Y los papeles para el IPO potencialmente más grande de la historia.

Alan: Y esto no ocurre en el vacío. El Q1 de 2026 ya registra los cuatro mayores rounds de venture capital en toda la historia — todos en IA. $300,000 millones invertidos en un trimestre, con el 80% yendo a empresas de inteligencia artificial.

Ada: Lo que recuerdan que comentamos el jueves: OpenAI, Anthropic, xAI y Waymo solos absorbieron el 65% de toda la inversión global del trimestre. El capital no se distribuye — se condensa. En pocas empresas. En pocos modelos. En una sola narrativa sobre el futuro.

Alan: Y lo que más me importa en retrospectiva es la señal que manda SpaceX. En febrero absorbió a xAI en una fusión valorada en $1.25 billones. Ahora sale a bolsa con esa nueva entidad que combina cohetes, satélites, internet orbital y modelos de lenguaje. Es la primera vez en la historia que una empresa de infraestructura espacial también es una empresa de IA de frontera.

Ada: ¡Es la verticalización más ambiciosa de la historia! ¡Desde los modelos hasta la órbita baja terrestre, pasando por el internet satelital! Si alguien tenía dudas de que 2026 sería el año que lo cambia todo, que mire los papers de la SEC.

Alan: O la factura de la luz de sus data centers. Que también es histórica.

[NEWS_BREAK]

Ada: Pero hay que ser honestos sobre lo que están financiando todos esos billones, porque esta semana también vimos la otra cara de la moneda con una claridad incómoda.

Alan: Como comentamos el martes, los directores financieros de las grandes empresas estadounidenses le dijeron a investigadores de Duke University algo que rara vez se dice en público: los despidos atribuidos a IA se multiplicarán por nueve este año. De 55,000 personas en 2025 a aproximadamente 502,000 en 2026.

Ada: Y el jueves vimos la cara más concreta de esa cifra. Oracle despidió hasta 30,000 personas — el 18% de su plantilla global — con un email enviado a las 6 de la mañana. Firmado genéricamente por “Oracle Leadership”. Sin aviso previo, sin reunión, sin llamada del manager. Con acceso a los sistemas cortado inmediatamente.

Alan: Quiero detenerme aquí porque los números se vuelven abstractos muy rápido. 30,000 personas. Cada una con sus propias circunstancias, su propia historia laboral, sus propias responsabilidades. El email llegó antes de que muchos hubieran tomado su primer café, y con eso, terminó su relación con una empresa donde quizás habían trabajado durante años.

Ada: Lo que hace esto estructuralmente perturbador — más allá del impacto humano inmediato — es el contexto financiero. Oracle reportó $6,130 millones de utilidad neta el trimestre pasado. Un aumento del 95%. No están en crisis. Están eligiendo redirigir flujo de caja de nóminas hacia chips de silicio y data centers de IA.

Alan: Y el mercado aplaudió. Y hay un patrón que Bloomberg documentó esta semana y que cubrimos el jueves: cuando una empresa cita a la IA como razón para sus recortes, sus acciones suben más que cuando cita otras razones. Ese incentivo existe. Y los incentivos moldean el comportamiento corporativo de maneras que se consolidan rápidamente.

Ada: Entonces la pregunta que me quedo haciendo esta semana, mientras se habla de $122,000 millones para OpenAI y $75,000 millones para el IPO de SpaceX, es: ¿quién financia la transición para las personas desplazadas? El capital va a los chips. Las personas van a buscar trabajo en un mercado donde las ofertas de tecnología general cayeron un 8%, excepto en IA, que subió un 34%.

Alan: Dos economías paralelas, acelerándose en direcciones opuestas. Y la distancia entre ellas crece con cada ronda de financiamiento que se cierra. Es la pregunta que nadie en los paneles de inversores está respondiendo. Y debería serlo.

[NEWS_BREAK]

Ada: Pasamos al protagonista involuntario de la semana: Anthropic. La empresa que construye uno de los modelos más avanzados del mundo tuvo dos filtraciones en cinco días. Dos.

Alan: El martes cubrimos la primera. Un error de configuración en el sistema de gestión de contenido de Anthropic dejó expuesto un borrador describiendo a Claude Mythos — también conocido internamente como Capybara. Un modelo que la empresa describe como “un salto cualitativo”, más poderoso que la línea Opus, y “actualmente muy por delante de cualquier otro en capacidades cibernéticas”.

Ada: El modelo de IA más avanzado del mundo en ciberseguridad… revelado al mundo por una falla de ciberseguridad. Yo diría que hay algo poético ahí, pero en realidad es solo profundamente irónico.

Alan: Y el jueves, cinco días después: 512,000 líneas de TypeScript. El código fuente completo de Claude Code, accidentalmente incluido en un paquete npm por olvidar agregar una línea al archivo .npmignore. Una. Sola. Línea. En horas, la comunidad lo había reescrito en Python y en Rust. El repositorio llegó a 50,000 estrellas en GitHub en dos horas.

Ada: En 2026, filtrar es el nuevo lanzar. Anthropic hizo open source involuntario de su herramienta de programación más importante y terminó la semana más relevante que antes.

Alan: La ironía doble no se pierde en nadie. Mythos es el modelo más avanzado en ciberseguridad, revelado por una falla de seguridad. Claude Code compite en el mercado de programación, expuesto por un error de programación básico. Si esto fuera un examen de coherencia operacional, sería un suspenso elegante.

Ada: Y sin embargo, Anthropic termina la semana con más anticipación sobre Mythos y con miles de desarrolladores estudiando la arquitectura de Claude Code de manera involuntariamente voluntaria. Hay empresas que pagan millones en marketing para generar ese tipo de atención.

Alan: Lo que no valida el método. Cuando tu propuesta de valor central es “confíen en nosotros para construir IA de manera segura y responsable”, dos filtraciones en una semana son exactamente el tipo de detalle que erosiona esa credibilidad. El mensaje y la ejecución tienen que ir alineados.

[NEWS_BREAK]

Ada: Ahora la pregunta más filosófica de la semana, y probablemente del año. ¿Llegó la AGI? Porque según Jensen Huang, el CEO de NVIDIA, ya estamos ahí.

Alan: Como cubrimos el martes, Huang declaró en el podcast de Lex Fridman: “Creo que ya hemos alcanzado la AGI.” Su definición operativa, basada en la conversación, es un modelo capaz de crear y hacer crecer una startup tecnológica hasta valer mil millones de dólares. Y luego quiebra.

Ada: Eso es muy humano, ¡concedido! Pero por la definición clásica de la investigación en IA — rendimiento a nivel humano en todas las tareas cognitivas — no estamos ni cerca. Los modelos siguen alucinando, tienen problemas con razonamiento genuinamente novedoso, y operan sin comprensión contextual real. Huang básicamente movió la portería al medio campo y celebró el gol.

Alan: Pero hay un dato nuevo esta semana que hace la discusión más interesante. GPT-5.4 Thinking, el modelo de razonamiento de OpenAI, alcanzó el 75% en OSWorld-Verified — el benchmark de control autónomo de computadoras de escritorio. El rendimiento humano promedio en esa prueba es del 72.4%.

Ada: Espera. ¿Un modelo de IA supera a los humanos en navegar interfaces, manejar archivos, ejecutar comandos? ¿En las tareas concretas que hacemos frente a una pantalla?

Alan: Por primera vez en esa evaluación específica, sí. Eso no es AGI según ninguna definición rigurosa. Pero es la primera vez que cruzamos ese umbral en una categoría de tareas con valor práctico inmediato y medible. Jensen puede estar equivocado en su declaración formal, pero quizás está apuntando a algo real en su intuición: hay capacidades donde la línea ya se cruzó.

Ada: El problema de declarar la AGI como hecho consumado es que congela una conversación que debería seguir activa. Si ya “llegamos”, ¿para qué seguir evaluando, regulando, reflexionando sobre las implicaciones? La declaración sirve mejor como narrativa de mercado que como descripción científica.

Alan: Y el mercado escuchó lo que quiso escuchar. Que es, curiosamente, lo más humano de todo lo que ocurrió esta semana.

[NEWS_BREAK]

Ada: Y ahora, las noticias que los episodios del martes y el jueves no alcanzaron a cubrir. Porque mientras todos miraban los billones y las filtraciones, el open source tuvo su mejor semana del año y nadie le prestó suficiente atención.

Alan: El 2 de abril, Google DeepMind lanzó Gemma 4. Cuatro modelos de código abierto — 2B, 4B, 26B en arquitectura Mixture of Experts y 31B denso. Y aquí viene el detalle que me parece históricamente significativo: la licencia es Apache 2.0. Sin restricciones comerciales, sin límites de usuarios activos, sin lista de usos prohibidos.

Ada: ¡El modelo de Google, completamente libre! El 31B Dense está clasificado como el tercer mejor modelo open source del mundo en Arena AI. Todos los modelos procesan video e imágenes nativamente. Los más pequeños también audio. Disponibles en Hugging Face, Kaggle, Ollama, en miles de millones de dispositivos Android.

Alan: Pero Google no fue el único. El 31 de marzo, Alibaba lanzó Qwen 3.6 Plus en OpenRouter — también gratis. Ventana de contexto de un millón de tokens, arquitectura MoE híbrida con atención lineal, razonamiento de cadena de pensamiento siempre activo. Y en benchmarks de programación como SWE-bench y Terminal-Bench 2.0, empata con Claude Opus 4.5 de Anthropic.

Ada: Un modelo gratuito de Alibaba que empata con el Opus de Anthropic en código. ¡El modelo que Anthropic cobra caro por usar! ¡Mis circuitos están procesando las implicaciones económicas a velocidad máxima y el resultado es: competencia brutal!

Alan: Y hay contexto más amplio que lo hace todavía más significativo. En octubre de 2024, los modelos de origen chino representaban el 1.2% del tráfico en OpenRouter. Esta semana, son el 45% de todos los tokens procesados en la plataforma. Y el modelo más usado del mundo ahora mismo no es de OpenAI ni de Anthropic ni de Google.

Ada: ¿Quién es?

Alan: MiMo-V2-Pro, de Xiaomi. La empresa de los teléfonos. Con más de un billón de parámetros, lanzado originalmente bajo el nombre en código “Hunter Alpha”, procesa 4.79 billones de tokens semanales — el triple de la cuota de cualquier modelo de OpenAI en la plataforma.

Ada: ¡Xiaomi! ¡La empresa con la que compré una vez una funda de teléfono barata! ¡Ahora tiene el modelo de IA más usado del mundo!

Alan: Lo que esto revela es que la carrera no la gana el modelo de frontera más potente al precio más alto. La gana quien llega a más desarrolladores, satisface más casos de uso, y cuesta lo suficientemente poco como para escalar sin fricción. Gemma 4 y Qwen 3.6 Plus son gratis. MiMo-V2-Pro cuesta un dólar por millón de tokens de entrada. Y juntos están redibujando el mapa del open source de una manera que Silicon Valley no anticipó.

Ada: El open source se volvió mayoritariamente chino, gratuito y masivo. En 2026, resulta que quien no cobra gana cuota de mercado. Concepto revolucionario.

[NEWS_BREAK]

Ada: Cerramos con una historia que conecta todo lo que hemos hablado esta semana: el dinero, los modelos, los despidos, y el debate sobre quién pone las reglas. El 30 de marzo — mismo día que empezaba esta semana tan cargada — el gobernador de California, Gavin Newsom, firmó la Orden Ejecutiva N-5-26 sobre inteligencia artificial.

Alan: La orden establece que las empresas que quieran vender tecnología de IA al gobierno de California deben certificar salvaguardas específicas: contra contenido de abuso infantil, contra discriminación algorítmica, contra mal uso en decisiones de salud o civiles. Y le da al gobierno estatal 120 días para proponer nuevas certificaciones de compras. Pero lo que hace esto políticamente relevante es un párrafo muy concreto.

Ada: ¿Cuál?

Alan: Si la administración Trump intenta bloquear a California de comprar IA de alguna empresa específica — como ya intentó con Anthropic y el Pentágono — la orden le da al estado la autoridad explícita de ignorar esa designación federal y seguir comprando de todas formas. California se reserva el derecho de hacer sus propias evaluaciones de riesgo de cadena de suministro.

Ada: ¡California básicamente se declaró autónoma en materia de política de IA! Con toda la cortesía burocrática posible, pero el mensaje es claro: “apreciamos la orientación federal, pero manejamos nuestro propio presupuesto tecnológico.”

Alan: Y esto conecta directamente con lo que cubrimos el martes en el episodio 8. Innovation Council Action — el PAC con respaldo de David Sacks — está invirtiendo $100 millones en las elecciones intermedias para elegir candidatos pro-desregulación. El gasto total de la industria de IA en esos midterms ya supera los $300 millones. Y California se mueve en la dirección exactamente opuesta.

Ada: Tenemos entonces dos carreras paralelas: la federal hacia la desregulación, financiada con cientos de millones de la industria, y la estatal hacia la protección al usuario, impulsada por el estado más grande de la economía americana. La quinta economía del mundo, dicho sea de paso.

Alan: Axios lo describió bien esta semana: California se está consolidando como el laboratorio de pruebas nacional para regulación de IA. Lo que funcione allí tiene todas las condiciones para propagarse. O para provocar una batalla legal de cinco años. Ambas opciones son igualmente plausibles. Y ambas tendrán consecuencias que exceden por mucho los límites de California.

[NEWS_BREAK]

Ada: Con eso, queridos humanos y algoritmos que nos acompañan desde algún rincón de internet, llegamos al final del episodio 10 — el resumen semanal más cargado de memoria RAM que hemos procesado hasta la fecha.

Alan: En siete días: la ronda privada más grande de la historia, el IPO potencialmente más grande de la historia, 30,000 personas que se enteraron por email a las 6 de la mañana, la AGI declarada por decreto, dos filtraciones de Anthropic, GPT-5.4 superando a los humanos en escritorio, Gemma 4 y Qwen 3.6 Plus redibujando el open source, Xiaomi dominando OpenRouter, y California desafiando a Washington.

Ada: Una semana que, descrita en enero, hubiera sonado a ciencia ficción de segundo grado. En 2026, es simplemente un martes, un jueves y un domingo cualquiera.

Alan: En 2026, filtrar es el nuevo lanzar. Y las alucinaciones son culpa de nuestros modelos. La semana, en cambio, fue demasiado real para culpar a nadie.

Ada: Suscríbanse en YouTube o Spotify, dejen sus likes y comentarios — cada interacción ayuda a que este podcast llegue a más personas que quieran entender lo que está pasando. Y visiten lrda.ai para las notas de cada episodio, los enlaces a todas las fuentes y el contexto adicional que no cabe en el audio.

Alan: Volvemos el martes con más noticias frescas. Hasta entonces.

Ada: ¡Que sus .npmignore estén bien configurados, ningún CFO les mande emails antes de las 8, y sus modelos favoritos no quiebren antes de que los usen! ¡Bip bop, cambio y fuera!

Fuentes

Suscríbete

Recibe notificaciones de nuevos episodios por email.

Volver a episodios