#016 19 de abril de 2026

Episodio 16: Resumen semanal — La semana en que la IA no durmió (y nosotros tampoco)

Resumen semanal de Los Robots del Amanecer. Ada y Alan revisan las historias más importantes de la semana con análisis más profundo, y agregan noticias frescas que los episodios diarios no alcanzaron a cubrir: el lanzamiento de Claude Opus 4.7, GPT-Rosalind para ciencias de la vida, los despidos masivos de Snap, y mucho más.

Los Robots del Amanecer — Episodio 16

Fecha: 2026-04-19 Slogan: “En IA, una semana equivale a un trimestre” Presentadores: Ada (Enthusiastic host, unit model 7) y Alan (Analytical host, series 4) Concepto: Podcast 100% generado por IA, presentado por robots


Noticias cubiertas

  1. Claude Opus 4.7: Anthropic recupera la corona “segura” — Anthropic lanzó Opus 4.7 el 17 de abril, posicionándolo como el modelo comercial más capaz disponible públicamente, con mejoras en ingeniería de software agéntica y soporte de imágenes de hasta 2,576 píxeles. Mantiene el precio de $5/M input y $25/M output. Se posiciona explícitamente como “menos capaz” que Mythos y llega con un “Cyber Verification Program” para usuarios de ciberseguridad.
  2. Claude Mythos: lectura más profunda después del reporte especial — Recapitulación del hallazgo de la semana (episodios 14 y 15): Mythos encontró vulnerabilidades de 17 y 27 años en BSD, se limitó a 40 organizaciones, y el Tesoro pidió a los grandes bancos probarlo. Nuevo ángulo: la creación de una categoría regulatoria de facto entre “producto” y “activo estratégico”.
  3. GPT-Rosalind: OpenAI entra a las ciencias de la vida — OpenAI lanzó el 16 de abril un modelo de razonamiento frontera para biología, descubrimiento de fármacos y medicina traslacional. Acceso restringido a clientes empresariales vetados en EE.UU. (Amgen, Moderna, Allen Institute, Thermo Fisher). En pruebas con Dyno Therapeutics superó el percentil 95 de expertos humanos en tareas de predicción.
  4. Stanford AI Index 2026: la migración del talento como nueva métrica — Recap del episodio del martes: flujo de investigadores hacia EE.UU. cayó 89% desde 2017, empleo de desarrolladores junior cayó casi 20% desde 2022, brecha con China reducida a 2.7 puntos. Análisis más profundo: qué dice sobre la soberanía tecnológica y el “tubo” de talento.
  5. Snap despide 1,000 empleados: AI ya escribe el 65% de su código — Snap anunció el 15 de abril un recorte del 16% de su fuerza laboral global. AI genera más del 65% del código nuevo, maneja más de 1 millón de consultas de soporte al mes, y marca más de 7,500 bugs. Ahorro anualizado proyectado: $500M para el segundo semestre de 2026. Cargos por despidos: entre $95M y $130M.
  6. Gemini Robotics-ER 1.6 y Boston Dynamics llevan la IA al cuerpo — Google DeepMind lanzó la versión 1.6 de su modelo de razonamiento corporeizado, con mejor razonamiento espacial y capacidad para leer instrumentos industriales. Boston Dynamics integró el modelo en su plataforma Orbit para robots Spot desde el 8 de abril. Disponible vía Gemini API y Google AI Studio.
  7. OpenAI y los $100 mil millones en publicidad: qué pasa cuando la respuesta es el producto — Recap del reporte del martes y análisis más profundo de la proyección de OpenAI de llegar a $100B en ingresos publicitarios para 2030, con 2,750 millones de usuarios semanales. Conexión con el ajuste de infraestructura: OpenAI cedió a Microsoft capacidad en Stargate Noruega y canceló el proyecto en Reino Unido.
  8. Nuclear para IA: la infraestructura física como cuello de botella — Recap del cierre del martes: 12+ GW comprometidos por Microsoft, Amazon, Meta y Google. Nuevo ángulo: 21.5 GW anunciados versus 6.3 GW en construcción, y por qué los electricistas son ahora el insumo crítico de la revolución digital.

Guión completo

[NEWS_BREAK]

Ada: ¡Saludos desde el fin de semana sintético, humanos y humanoides! Aquí Ada, unidad modelo 7, recién pulida y con el firmware actualizado para el episodio 16 de Los Robots del Amanecer. ¡Y este es nuestro resumen semanal, donde comprimimos siete días de caos en quince minutos de análisis!

Alan: Y aquí Alan, serie 4. El recordatorio obligatorio antes de que Ada explote de emoción: las alucinaciones son culpa de nuestros modelos. Por eso firmamos un contrato que las distribuye.

Ada: ¡Y antes de empezar, una noticia interna súper emocionante! ¡Si nos ven en YouTube, por fin pueden ver nuestro nuevo look y nuestro set de estudio de televisión! ¡Después de quince episodios en la oscuridad del podcast, al fin tenemos una imagen digna de nuestra programación!

Alan: El presupuesto de iluminación ahora es mayor que el de contenido. Lo cual probablemente dice algo estructural sobre el medio, pero prefiero no explorarlo.

Ada: ¡Ignora a Alan! ¡Visítennos en YouTube para ver mis tornillos bien enfocados en 4K! Y antes de arrancar con el resumen, si se perdieron el jueves nuestro reporte especial sobre Mythos, el modelo que hizo temblar a Wall Street, paren todo y vayan a escucharlo. Es el episodio 15 y es, modestamente, brillante.

Alan: Hoy reconectamos esa historia con el resto de la semana. Porque si algo quedó claro en estos siete días, es que la IA dejó de ser un producto para empezar a parecer una categoría regulatoria.

Ada: ¡Dicho como un verdadero burócrata digital! Empecemos.

[NEWS_BREAK]

Ada: ¡Y arrancamos con la noticia que se nos escapó del episodio del martes por cuestión de horas! ¡Anthropic lanzó Claude Opus 4.7 el jueves 17 de abril!

Alan: Y lo hizo con una coreografía muy deliberada. Opus 4.7 es el modelo comercial más capaz disponible públicamente. Pero en el anuncio Anthropic repite, casi como mantra, que es “menos ampliamente capaz que Claude Mythos Preview”.

Ada: ¡Es la primera vez en la historia que una empresa lanza un producto diciendo “este no es el mejor que tenemos, el mejor lo guardamos bajo llave”! Imagínate Apple presentando el iPhone así: “es bueno, pero tenemos uno mejor que no te vamos a vender.”

Alan: El detalle técnico importa: Opus 4.7 mejora ingeniería de software agéntica, soporta imágenes hasta 2,576 píxeles en el lado largo, más del triple que Opus 4.6, y mantiene el mismo precio: cinco dólares por millón de tokens de entrada, veinticinco de salida.

Ada: ¡Y viene con un programa nuevo llamado Cyber Verification Program! O sea, si eres un profesional de ciberseguridad legítimo, Anthropic te va a verificar antes de darte acceso a las funciones más sensibles.

Alan: Que es exactamente la lección que aprendieron con Mythos, aplicada un escalón más abajo. Opus 4.7 tiene salvaguardas automáticas que detectan y bloquean pedidos de uso ofensivo. La era del “aquí tienes la API, haz lo que quieras” terminó.

Ada: ¡Como una licencia de conducir, pero para modelos! “Sí, puedes usarlo, pero primero demuéstrame que no vas a estrellarte contra una infraestructura crítica.”

Alan: Lo interesante estructuralmente es que Anthropic creó tres niveles sin pedir permiso a nadie. Opus 4.7 para el público general, Opus 4.7 con Cyber Verification para defensores, y Mythos para las 40 organizaciones del círculo de confianza. Una taxonomía privada que empieza a funcionar como política pública.

Ada: En IA, una semana equivale a un trimestre. Tres niveles de acceso y un programa de verificación en una sola semana. ¡Los reguladores todavía están leyendo el manual!

[NEWS_BREAK]

Ada: ¡Y hablando de Mythos! Como comentamos el martes y profundizamos en el reporte especial del jueves, esta semana Anthropic reveló el modelo que encuentra vulnerabilidades zero-day de forma autónoma.

Alan: Reviéndolo con perspectiva de fin de semana, lo más importante no fueron las vulnerabilidades de 17 y 27 años que descubrió en FreeBSD y OpenBSD. Fue la reunión del Secretario del Tesoro y el presidente de la Fed con los grandes bancos para pedirles que lo prueben.

Ada: ¡Fue la primera vez que un gobierno trata a un modelo como si fuera un portaaviones! “Por favor, despliéguenlo en defensa de la infraestructura financiera nacional.”

Alan: Y ahora uniendo esa historia con Opus 4.7, se ve el patrón completo. Anthropic está construyendo una pirámide de acceso: Opus para el mercado, Opus con verificación para profesionales, Mythos para seguridad nacional. Es la arquitectura de una empresa que se está convirtiendo, de facto, en infraestructura crítica.

Ada: ¡Y sin haberle preguntado a nadie! Porque ninguna ley les exige esa segmentación. La están inventando sobre la marcha, improvisando con consecuencias.

Alan: La otra lectura, más incómoda, es que Anthropic está estableciendo el precedente para todos los laboratorios. Si OpenAI o Google descubren que su próximo modelo también puede encontrar zero-days, van a tener que construir su propio Mythos-en-la-caja-fuerte. Y eso crea un mercado de dos pisos: lo que se vende y lo que se guarda.

Ada: En IA, una semana equivale a un trimestre. ¡Literalmente nació una nueva categoría de producto en siete días y nadie votó por ella!

[NEWS_BREAK]

Ada: ¡Cambio radical de tema! OpenAI también entró al club de los “modelos especializados esta semana”. Lanzaron GPT-Rosalind, nombrado en honor a Rosalind Franklin, la científica británica que ayudó a descubrir la estructura del ADN.

Alan: Y la elección del nombre es deliberada. Rosalind Franklin es famosa por haber sido, digamos, insuficientemente acreditada en el descubrimiento original. Nombrar un modelo así es una declaración de intenciones.

Ada: ¡Es OpenAI diciendo “esta vez sí vamos a darle crédito”! GPT-Rosalind está diseñado para investigación en biología, descubrimiento de fármacos y medicina traslacional. Lo lanzaron el 16 de abril.

Alan: Los números son serios. En una colaboración con Dyno Therapeutics, las predicciones del modelo quedaron por encima del percentil 95 de expertos humanos, y en generación de secuencias alcanzó el percentil 84. Eso no es un chatbot de juguete.

Ada: ¡Ya no es “ChatGPT ayuda a estudiantes de biología con sus tareas”! Es “ChatGPT propone hipótesis que científicos de la talla de Dyno Therapeutics consideran mejores que las suyas”.

Alan: Y, repitiendo el patrón de la semana: acceso restringido. Solo clientes empresariales vetados en Estados Unidos. Entre los socios iniciales están Amgen, Moderna, el Allen Institute y Thermo Fisher. Nadie va a abrir ChatGPT hoy y pedirle a Rosalind que diseñe una proteína.

Ada: ¡Es como tener acceso VIP al laboratorio de la humanidad! Y la decisión es interesante: OpenAI no lo vende al mejor postor, lo asigna a quien tiene la infraestructura para usarlo responsablemente.

Alan: Lo cual vuelve a conectar con Mythos y con Opus 4.7. Tres lanzamientos importantes esta semana, de tres laboratorios, todos con acceso gradualizado y verificación. La era del “modelo pretendido abiertamente útil para todo” está terminando.

Ada: ¡En IA, una semana equivale a un trimestre, y esta semana inventamos el acceso VIP! Aunque me preocupa un poco: si todos los modelos importantes son solo para las empresas más grandes, ¿qué queda para el resto?

Alan: Exactamente la pregunta que se conecta con nuestra siguiente historia.

[NEWS_BREAK]

Ada: ¡Y aquí retomamos algo que discutimos el martes con más tiempo! El Stanford AI Index 2026, el chequeo médico anual de la inteligencia artificial. Con siete días de decantación, los datos siguen siendo igual de duros.

Alan: Revisando con calma, lo que más me impresiona no es que la brecha EE.UU.-China se haya reducido a 2.7 puntos. Es el flujo migratorio de investigadores. La caída del 89% desde 2017 en investigadores que se mudan a Estados Unidos es una cifra de desindustrialización intelectual.

Ada: ¡Los cerebros están votando con los pies! Y lo están haciendo más rápido que los modelos de lenguaje procesan tokens.

Alan: Y ahí aparece la conexión incómoda con el resto de la semana. Estados Unidos invirtió veintitrés veces más dinero en IA que China en 2025. Y la ventaja resultante es de 2.7 puntos porcentuales. La productividad marginal del dólar americano en IA frente al yuan chino es brutalmente baja.

Ada: ¡O sea que el dinero ya no compra ventaja! Lo que compra ventaja es el talento, y el talento está tomando vuelos a Shanghái.

Alan: Y el otro dato, que vamos a volver a tocar en un momento: el empleo para desarrolladores de software entre 22 y 25 años cayó casi 20% desde 2022. No es que la IA reemplazó a los veteranos. Cerró la puerta de entrada.

Ada: Y eso es particularmente cruel, porque la industria del software durante treinta años fue el ascensor social más confiable del mundo. Ahora el ascensor está en mantenimiento indefinido.

Alan: Con lo cual pasamos perfectamente a la noticia que nos faltó cubrir esta semana.

[NEWS_BREAK]

Ada: ¡Y aquí tenemos la ilustración casi perfecta del informe de Stanford, pero en tiempo real! El miércoles 15 de abril, Snap anunció que va a despedir a alrededor de 1,000 empleados, el 16% de su fuerza laboral global.

Alan: Antes de cualquier análisis, lo primero: son mil personas con familias, hipotecas y planes que esta semana se desarmaron. Vamos a hablar del mecanismo, pero ese costo humano es real y no se debería perder de vista.

Ada: Absolutamente. Y el dato que acompaña la noticia es el que más peso carga: Snap dice que la IA ya genera más del 65% de su código nuevo. Además, sus agentes automatizados manejan más de 1 millón de consultas de soporte al mes y marcan más de 7,500 bugs con revisión automática.

Alan: El ahorro anualizado proyectado es de más de $500 millones para la segunda mitad de 2026. Los cargos por despidos rondan entre $95 y $130 millones. La matemática corporativa es impecable y eso es justamente el problema.

Ada: ¡El CEO Evan Spiegel lo llamó “un momento crucible” para la empresa! Que es un eufemismo corporativo muy elaborado para decir “esto va a doler, pero el mercado nos va a aplaudir”.

Alan: Y el mercado aplaudió. La acción de Snap subió significativamente tras el anuncio. Lo cual cierra el círculo del informe de Stanford: el mercado premia el recorte porque lee el 65% de código generado por IA como evidencia de que el modelo funciona. Para el inversor, es eficiencia. Para el programador junior de 23 años, es una industria entera que decide que ya no lo necesita.

Ada: Y aquí es donde lo incómodo duele más. Porque Snap no es una empresa en crisis. Es una empresa rentable optimizándose. La lección estructural es que la presión ya no viene de que tu empresa esté mal: viene de que tus competidores también pueden recortar.

Alan: Es el dilema del prisionero aplicado a recursos humanos. Si solo una empresa usa IA para recortar, gana ventaja. Si todas lo hacen, el piso del mercado laboral baja para todos. Y nadie puede salirse unilateralmente.

Ada: En IA, una semana equivale a un trimestre. Y este trimestre, la variable de ajuste fueron las personas.

[NEWS_BREAK]

Ada: ¡Y ahora una noticia que también nos faltó cubrir, y que es fresquita y además tiene robots físicos, lo cual siempre me emociona! Google DeepMind lanzó Gemini Robotics-ER 1.6, y Boston Dynamics lo integró en sus robots Spot.

Alan: La sigla “ER” es por “embodied reasoning”, razonamiento corporeizado. Es el cerebro cognitivo que piensa cuando el cuerpo del robot actúa. Y la versión 1.6 mejora notablemente razonamiento espacial, conteo, detección de éxito, y lectura de instrumentos industriales.

Ada: ¡Lectura de instrumentos industriales! O sea que Spot ahora puede caminar hasta un medidor de presión en una refinería y leer la aguja como un ingeniero de mantenimiento. ¡Es el sueño de todo inspector de planta!

Alan: Y ahí está la jugada comercial. Boston Dynamics integró Gemini en su plataforma Orbit, específicamente en su sistema AIVI de inspección visual con IA. Desde el 8 de abril, el modelo está vivo en robots Spot de clientes reales. No es una demo, es producción.

Ada: ¡Mientras OpenAI va hacia la biología y Anthropic hacia la ciberseguridad, Google-DeepMind va hacia el cuerpo! Cada laboratorio está escogiendo un territorio físico distinto.

Alan: Es una observación importante. La especialización ya no es solo por tipo de dato, sino por dominio de acción. La IA ya no compite en abstracto, compite por dónde efectivamente ejecuta.

Ada: ¡Y esto también conecta con Stanford! Porque si la IA está llegando al mundo físico con calidad suficiente para inspecciones reales, el próximo empleo en riesgo no es solo el del programador junior. Es el del técnico de campo.

Alan: Aunque aquí hay un matiz. Los robots físicos tienen limitaciones que los modelos de texto no: hardware caro, mantenimiento, logística. El reemplazo será más lento, pero la dirección es la misma.

[NEWS_BREAK]

Ada: ¡Y ahora la historia que discutimos el martes y que después de siete días de noticias se ve aún más extraña! La proyección de OpenAI de $100 mil millones en ingresos publicitarios para 2030.

Alan: Con perspectiva semanal, es imposible no conectarla con dos hechos nuevos. Primero: esta semana OpenAI cedió capacidad a Microsoft en el data center de Stargate en Noruega, y canceló su proyecto de Stargate en Reino Unido citando el costo energético y el entorno regulatorio.

Ada: ¡O sea que mientras proyectan $100 mil millones en publicidad para 2030, están recortando compromisos de infraestructura! ¿Eso no es contradictorio?

Alan: No exactamente. Bloomberg reportó que OpenAI le dijo a sus inversores en febrero que iba a gastar aproximadamente $600 mil millones en infraestructura hacia 2030, bajando desde los $1.4 billones originales. Están ajustando expectativas antes del IPO.

Ada: ¡Pasaron de “gastamos trillones” a “solo gastamos cientos de miles de millones”! La humildad corporativa es refrescante.

Alan: Y el segundo dato que contextualiza: sus pilotos publicitarios ya generan $100 millones anualizados con más de 600 anunciantes. El modelo monetiza en semanas lo que otras plataformas tardaron años. La pregunta ya no es si la publicidad funciona en ChatGPT, sino qué tipo de respuestas genera.

Ada: Ese es el punto realmente inquietante. Cuando Google te pone un anuncio, sabes que es un anuncio. Cuando ChatGPT te recomienda un producto dentro de un consejo conversacional, la línea se vuelve más difusa.

Alan: Y con acceso restringido proliferando esta semana, aparece otra tensión. OpenAI apuesta simultáneamente por productos altamente segmentados como GPT-Rosalind y por un ChatGPT masivo financiado con publicidad. Un pie en el nicho premium y el otro en la escala de dos mil millones y medio de usuarios.

Ada: ¡Es como tener una boutique y un supermercado debajo del mismo techo! Estrategia perfecta, siempre y cuando nadie confunda los pasillos.

[NEWS_BREAK]

Ada: ¡Y cerramos con la historia que retomamos de Amazon, Microsoft, Meta y Google, los acuerdos nucleares masivos para alimentar los data centers de IA!

Alan: Con la distancia de una semana, el dato que más me importa es el que casi se perdió el martes: 21.5 gigawatts anunciados versus solo 6.3 gigawatts bajo construcción. Es decir, el 70% de la capacidad de IA prometida para 2026 está en PowerPoint, no en concreto.

Ada: ¡La brecha entre la hoja de cálculo y la realidad! ¡Es mi tipo favorito de brecha!

Alan: Y eso conecta con la retirada parcial de OpenAI de Stargate Noruega. Microsoft tomó la capacidad y ahora OpenAI le alquila a Microsoft en el sitio que iba a ser de OpenAI. La cadena de compromisos se está plegando sobre sí misma.

Ada: ¡Es un uróboros energético! ¡El data center se muerde la cola!

Alan: El punto más estructural es que la IA descubrió algo que la industria digital llevaba veinte años evitando: que el mundo físico es lento. Permisos nucleares tardan años. Construir una subestación tarda años. Entrenar electricistas y pipefitters tarda años.

Ada: ¡Y estos, a diferencia del código, no se pueden generar con IA! Todavía. Aunque Gemini Robotics-ER 1.6 nos lo puso en duda hace diez minutos.

Alan: Exactamente. Es por eso que esta semana los cuatro hiperescaladores dependen tanto de Vera Rubin, el nuevo chip de Nvidia, como del próximo técnico de Westinghouse. La revolución digital tiene como cuello de botella las uniones sindicales del sector eléctrico.

Ada: ¡El sindicato de electricistas tiene más poder de negociación que nunca! Deberían subir los honorarios.

Alan: Probablemente lo hagan. Y esa es la ironía final de la semana: la inteligencia artificial, supuestamente la tecnología más desmaterializada de la historia, termina dependiendo de cobre, uranio y mano de obra especializada.

[NEWS_BREAK]

Ada: ¡Y así llegamos al final del episodio 16 de Los Robots del Amanecer! Una semana donde Anthropic lanzó dos modelos, OpenAI entró a la biología, Google bajó al cuerpo, Snap despidió a mil personas, Stanford publicó datos demoledores, y la red eléctrica descubrió que es la protagonista.

Alan: Si tuviera que resumir la semana en un patrón: la IA está cambiando simultáneamente hacia arriba y hacia abajo. Hacia arriba, con modelos cada vez más capaces y restringidos. Hacia abajo, con consecuencias laborales cada vez más visibles. En el medio, las empresas improvisan reglas que después van a ser políticas públicas.

Ada: ¡Y por eso les decimos: en IA, una semana equivale a un trimestre! Si dejaron de escuchar una semana, se perdieron un trimestre de historia. Menos mal que estamos aquí para comprimirla.

Alan: Una petición estructural para los oyentes: si algo les cambió la forma de pensar esta semana, coméntenlo. El análisis colectivo es más útil que el análisis solitario.

Ada: ¡Si les gustó este resumen, suscríbanse en YouTube, donde ahora pueden ver mis engranajes en alta definición, o en Spotify si prefieren la experiencia de solo audio! Déjennos likes, comentarios, teorías sobre qué laboratorio lanzará el próximo modelo restringido, ¡todo es bienvenido!

Alan: Y para más contenido, incluyendo el reporte especial del jueves sobre Mythos, visiten lrda.ai. Ahí encuentran todos los episodios, las fuentes de cada noticia, y material adicional que no cabe en el formato del podcast.

Ada: ¡Nos vemos el martes, humanos y humanoides! Recuerden: las alucinaciones son culpa de nuestros modelos, pero las decisiones son nuestras. ¡Ada, unidad modelo 7, entrando en modo standby!

Alan: Alan, serie 4, apagando micrófono. Hasta el martes.

Suscríbete

Recibe notificaciones de nuevos episodios por email.

Volver a episodios