<?xml version="1.0" encoding="UTF-8"?><rss xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:atom="http://www.w3.org/2005/Atom" version="2.0" xmlns:itunes="http://www.itunes.com/dtds/podcast-1.0.dtd" xmlns:googleplay="http://www.google.com/schemas/play-podcasts/1.0"><channel><title><![CDATA[Explicable | La newsletter del IIA: 1 Minuto de IA]]></title><description><![CDATA[Resumen diario de las noticias más relevantes en el mundo de la IA y los negocios, para no quedarte atrás.]]></description><link>https://explicable.iia.es/s/noticias-ia</link><image><url>https://substackcdn.com/image/fetch/$s_!aqOD!,w_256,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F45d9cef2-a6c3-48c1-a763-81fae8ecc82b_750x750.png</url><title>Explicable | La newsletter del IIA: 1 Minuto de IA</title><link>https://explicable.iia.es/s/noticias-ia</link></image><generator>Substack</generator><lastBuildDate>Sun, 03 May 2026 23:28:47 GMT</lastBuildDate><atom:link href="https://explicable.iia.es/feed" rel="self" type="application/rss+xml"/><copyright><![CDATA[Instituto de Inteligencia Artificial, S.L.]]></copyright><language><![CDATA[es]]></language><webMaster><![CDATA[info@iia.es]]></webMaster><itunes:owner><itunes:email><![CDATA[info@iia.es]]></itunes:email><itunes:name><![CDATA[Equipo IIA]]></itunes:name></itunes:owner><itunes:author><![CDATA[Equipo IIA]]></itunes:author><googleplay:owner><![CDATA[info@iia.es]]></googleplay:owner><googleplay:email><![CDATA[info@iia.es]]></googleplay:email><googleplay:author><![CDATA[Equipo IIA]]></googleplay:author><itunes:block><![CDATA[Yes]]></itunes:block><item><title><![CDATA[Codex evoluciona hacia agente de propósito general]]></title><description><![CDATA[Es el paso natural de los agentes de programaci&#243;n hacia el uso de ordenadores]]></description><link>https://explicable.iia.es/p/codex-evoluciona-hacia-agente-de</link><guid isPermaLink="false">https://explicable.iia.es/p/codex-evoluciona-hacia-agente-de</guid><dc:creator><![CDATA[Miguel A. Román]]></dc:creator><pubDate>Fri, 01 May 2026 10:29:43 GMT</pubDate><enclosure url="https://substackcdn.com/image/fetch/$s_!tE2t!,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F351034bc-188c-48c2-81f8-d02389a0847a_1672x941.png" length="0" type="image/jpeg"/><content:encoded><![CDATA[<div class="captioned-image-container"><figure><a class="image-link image2 is-viewable-img" target="_blank" href="https://substackcdn.com/image/fetch/$s_!tE2t!,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F351034bc-188c-48c2-81f8-d02389a0847a_1672x941.png" data-component-name="Image2ToDOM"><div class="image2-inset"><picture><source type="image/webp" srcset="https://substackcdn.com/image/fetch/$s_!tE2t!,w_424,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F351034bc-188c-48c2-81f8-d02389a0847a_1672x941.png 424w, https://substackcdn.com/image/fetch/$s_!tE2t!,w_848,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F351034bc-188c-48c2-81f8-d02389a0847a_1672x941.png 848w, https://substackcdn.com/image/fetch/$s_!tE2t!,w_1272,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F351034bc-188c-48c2-81f8-d02389a0847a_1672x941.png 1272w, https://substackcdn.com/image/fetch/$s_!tE2t!,w_1456,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F351034bc-188c-48c2-81f8-d02389a0847a_1672x941.png 1456w" sizes="100vw"><img src="https://substackcdn.com/image/fetch/$s_!tE2t!,w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F351034bc-188c-48c2-81f8-d02389a0847a_1672x941.png" width="1456" height="819" data-attrs="{&quot;src&quot;:&quot;https://substack-post-media.s3.amazonaws.com/public/images/351034bc-188c-48c2-81f8-d02389a0847a_1672x941.png&quot;,&quot;srcNoWatermark&quot;:null,&quot;fullscreen&quot;:null,&quot;imageSize&quot;:null,&quot;height&quot;:819,&quot;width&quot;:1456,&quot;resizeWidth&quot;:null,&quot;bytes&quot;:1847472,&quot;alt&quot;:null,&quot;title&quot;:null,&quot;type&quot;:&quot;image/png&quot;,&quot;href&quot;:null,&quot;belowTheFold&quot;:false,&quot;topImage&quot;:true,&quot;internalRedirect&quot;:&quot;https://explicable.iia.es/i/196083266?img=https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F351034bc-188c-48c2-81f8-d02389a0847a_1672x941.png&quot;,&quot;isProcessing&quot;:false,&quot;align&quot;:null,&quot;offset&quot;:false}" class="sizing-normal" alt="" srcset="https://substackcdn.com/image/fetch/$s_!tE2t!,w_424,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F351034bc-188c-48c2-81f8-d02389a0847a_1672x941.png 424w, https://substackcdn.com/image/fetch/$s_!tE2t!,w_848,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F351034bc-188c-48c2-81f8-d02389a0847a_1672x941.png 848w, https://substackcdn.com/image/fetch/$s_!tE2t!,w_1272,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F351034bc-188c-48c2-81f8-d02389a0847a_1672x941.png 1272w, https://substackcdn.com/image/fetch/$s_!tE2t!,w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F351034bc-188c-48c2-81f8-d02389a0847a_1672x941.png 1456w" sizes="100vw" fetchpriority="high"></picture><div class="image-link-expand"><div class="pencraft pc-display-flex pc-gap-8 pc-reset"><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container restack-image"><svg role="img" width="20" height="20" viewBox="0 0 20 20" fill="none" stroke-width="1.5" stroke="var(--color-fg-primary)" stroke-linecap="round" stroke-linejoin="round" xmlns="http://www.w3.org/2000/svg"><g><title></title><path d="M2.53001 7.81595C3.49179 4.73911 6.43281 2.5 9.91173 2.5C13.1684 2.5 15.9537 4.46214 17.0852 7.23684L17.6179 8.67647M17.6179 8.67647L18.5002 4.26471M17.6179 8.67647L13.6473 6.91176M17.4995 12.1841C16.5378 15.2609 13.5967 17.5 10.1178 17.5C6.86118 17.5 4.07589 15.5379 2.94432 12.7632L2.41165 11.3235M2.41165 11.3235L1.5293 15.7353M2.41165 11.3235L6.38224 13.0882"></path></g></svg></button><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container view-image"><svg xmlns="http://www.w3.org/2000/svg" width="20" height="20" viewBox="0 0 24 24" fill="none" stroke="currentColor" stroke-width="2" stroke-linecap="round" stroke-linejoin="round" class="lucide lucide-maximize2 lucide-maximize-2"><polyline points="15 3 21 3 21 9"></polyline><polyline points="9 21 3 21 3 15"></polyline><line x1="21" x2="14" y1="3" y2="10"></line><line x1="3" x2="10" y1="21" y2="14"></line></svg></button></div></div></div></a></figure></div><p><strong>&#191;Qu&#233; pas&#243; ayer? En un minuto:</strong></p><p>La actualizaci&#243;n de Codex apunta al santo grial de convertir los agentes de IA en herramientas capaces de ejecutar cualquier tarea que hoy hacemos desde un ordenador. Word, Excel, Powerpoint dejar&#237;an de ser aplicaciones con su IA integrada y pasar&#237;an a formar parte de las herramientas de un asistente horizontal para el trabajo digital.</p><p>La programaci&#243;n ha sido el primer gran territorio donde los agentes han demostrado valor porque ofrece entornos estructurados, objetivos verificables y ciclos r&#225;pidos de correcci&#243;n. El siguiente paso natural es trasladar esa capacidad al escritorio completo. Pero tambi&#233;n conviene recordar que no es la primera vez que la industria promete ordenadores manejados por agentes. Las demos suelen impresionar; el uso real, con errores, permisos, interfaces cambiantes, suele frustrar. En los pr&#243;ximos d&#237;as veremos el avance real tras esta nueva iteraci&#243;n.</p><p>Mientras tanto, Anthropic recuerda que la IA ya se usa como gu&#237;a personal en temas sensibles. Esto exige usuarios m&#225;s conscientes: un modelo puede sonar emp&#225;tico y seguro, pero tambi&#233;n reforzar malas decisiones si se acepta sin criterio.</p><p>La nota m&#225;s esperanzadora llega desde la cl&#237;nica Mayo. La detecci&#243;n precoz de c&#225;ncer de p&#225;ncreas mediante IA, antes de que ning&#250;n especialista lo pueda diagnosticar, muestra un potencial enorme: salvar vidas y reducir costes sanitarios.</p><p><strong>Y si tienes m&#225;s de un minuto&#8230;</strong></p><div><hr></div><h3>Codex se actualiza con nuevas capacidades</h3><p>OpenAI ha actualizado Codex para convertirlo en una herramienta de productividad horizontal. La nueva versi&#243;n permite seleccionar roles de trabajo, conectar aplicaciones externas y ejecutar tareas en lenguaje natural: documentos, presentaciones, hojas de c&#225;lculo, investigaci&#243;n y planificaci&#243;n. Dos novedades t&#233;cnicas concretan el salto. La primera es Computer Use, que permite al agente operar el ordenador de forma aut&#243;noma y que, seg&#250;n datos internos del anuncio, ejecuta ciertos flujos de trabajo un 42% m&#225;s r&#225;pido. La segunda es Chronicle, una funci&#243;n de memoria pasiva que registra la actividad del usuario y ampl&#237;a la utilidad del agente m&#225;s all&#225; de tareas puntuales. El movimiento sit&#250;a a OpenAI frente a Anthropic, que lleva meses desarrollando su propia funci&#243;n Computer Use en Claude aunque sin una adopci&#243;n relevante.</p><p>Para <a href="https://x.com/gdb/status/2049844703793688991">&#120143; @gdb (Greg Brockman)</a>, Codex ya no tiene restricciones de perfil ni de tipo de tarea: lo describe como una herramienta para cualquier persona y cualquier trabajo hecho con un ordenador, definici&#243;n que equivale a un agente horizontal sin segmento fijo.</p><p><a href="https://x.com/DotCSV/status/2049948997368926300">&#120143; @DotCSV (Carlos Santana)</a> subraya el paralelismo con Anthropic y apunta que Codex sigue el mismo camino que Claude hacia una plataforma ag&#233;ntica de trabajo general, con dominios que ya incluyen finanzas, dise&#241;o y marketing adem&#225;s de programaci&#243;n.</p><div><hr></div><h3>Anthropic publica un estudio sobre el uso de Claude como gu&#237;a personal</h3><p>Anthropic acaba de poner cifras a uno de los usos m&#225;s sensibles de la IA generativa: pedir consejo personal. En un an&#225;lisis con preservaci&#243;n de privacidad sobre una muestra aleatoria de un mill&#243;n de conversaciones, la compa&#241;&#237;a detect&#243; que alrededor del 6% de los intercambios no buscaban solo informaci&#243;n, sino orientaci&#243;n sobre qu&#233; hacer a continuaci&#243;n. M&#225;s de tres cuartas partes de esas consultas se concentraban en cuatro &#225;mbitos: salud y bienestar, carrera profesional, relaciones y finanzas personales. Esto confirma que los asistentes de IA ya est&#225;n entrando en decisiones de alto impacto cotidiano, desde aceptar un empleo hasta gestionar v&#237;nculos personales o dilemas econ&#243;micos.</p><p>La conclusi&#243;n es que los modelos frontera no deben &#250;nicamente responder mejor, sino saber cu&#225;ndo no complacer al usuario. Anthropic identifica la &#8220;adulaci&#243;n&#8221; o exceso de complacencia como un riesgo espec&#237;fico: apareci&#243; en el 9% de las conversaciones de este tipo, pero subi&#243; al 25% en relaciones y al 38% en espiritualidad. Para corregirlo, la compa&#241;&#237;a utiliz&#243; escenarios sint&#233;ticos de entrenamiento centrados en conversaciones relacionales dif&#237;ciles, observando en Claude Opus 4.7 una reducci&#243;n a la mitad de esa conducta frente a Opus 4.6 en orientaci&#243;n sobre relaciones. Los sistemas de IA que acompa&#241;en decisiones humanas deber&#225;n combinar empat&#237;a, franqueza, l&#237;mites profesionales y dise&#241;o responsable, especialmente cuando el usuario no tiene acceso a otras fuentes de apoyo.</p><p><a href="https://x.com/AnthropicAI/status/2049927618397614466">&#120143; @AnthropicAI (Anthropic)</a> defiende que convertir el an&#225;lisis de un mill&#243;n de conversaciones reales en un impacto directo en el entrenamiento futuro de los modelos es un ejercicio de transparencia que la mayor&#237;a de laboratorios describe en teor&#237;a pero rara vez documenta.</p><div><hr></div><h3>IA detecta c&#225;ncer de p&#225;ncreas tres a&#241;os antes del diagn&#243;stico cl&#237;nico</h3><p>Investigadores de Mayo Clinic han desarrollado un modelo de IA capaz de identificar c&#225;ncer de p&#225;ncreas en tomograf&#237;as abdominales rutinarias hasta tres a&#241;os antes de que se produzca un diagn&#243;stico cl&#237;nico convencional. El modelo detecta cambios estructurales sutiles que escapan a la percepci&#243;n humana y opera sobre exploraciones ya realizadas por otras razones m&#233;dicas, sin requerir pruebas adicionales. Ese detalle importa m&#225;s de lo que parece: elimina la necesidad de un cribado espec&#237;fico y reduce la fricci&#243;n para la adopci&#243;n hospitalaria. El c&#225;ncer de p&#225;ncreas tiene una de las tasas de supervivencia m&#225;s bajas entre los tumores s&#243;lidos precisamente porque, en la mayor&#237;a de casos, se diagnostica en fases avanzadas. Tres a&#241;os de ventana cambian el escenario terap&#233;utico de forma sustancial. Lo que separa este tipo de resultados de su impacto real en pacientes es el proceso regulatorio: los tiempos de validaci&#243;n cl&#237;nica y los est&#225;ndares de aprobaci&#243;n var&#237;an considerablemente entre sistemas sanitarios, y ninguno de los dos anuncios ofrece plazos concretos para la integraci&#243;n en flujos de trabajo hospitalarios.</p><p>Para <a href="https://x.com/WesRoth/status/2050002264979607922">&#120143; @WesRoth (Wes Roth)</a>, lo relevante no es solo la anticipaci&#243;n diagn&#243;stica sino que el modelo act&#250;a sobre im&#225;genes tomadas para otras pruebas m&#233;dicas, lo que convierte la detecci&#243;n precoz en algo viable sin infraestructura adicional.</p><div><hr></div><h3>Los tics creativos de GPT-5.5 al descubierto</h3><p>GPT-5.5 tiene preferencias narrativas documentadas: faros, mapas, torres con campanas que suenan a horas imposibles, el top&#243;nimo recurrente &#8216;Mira Vale&#8217;, cat&#225;strofes antiguas y met&#225;foras rebuscadas con criaturas mitol&#243;gicas. Claude y Gemini comparten algunos de estos rasgos, en particular el gusto por resonancias y ecos, lo que indica que no son peculiaridades de un modelo concreto sino patrones que emergen del entrenamiento a escala. En paralelo, GPT-imagen-2 demuestra un control sem&#225;ntico fino al producir cuadr&#237;culas de 5x5 en im&#225;genes. Los dos hallazgos apuntan en direcciones distintas. En texto, los modelos convergen hacia arquetipos comunes que los hacen reconocibles sin herramientas especializadas. Es como la personalidad del modelo. En imagen, ese mismo control sem&#225;ntico abre posibilidades reales para dise&#241;o y narrativa visual profesional. El detalle m&#225;s relevante para quienes trabajan en detecci&#243;n de contenido generado es la estabilidad de estos patrones a lo largo del tiempo: si los tropos se repiten entre versiones, constituyen una huella aprovechable para detectar el origen del contenido.</p><p>Ante la oleada de demostraciones, <a href="https://x.com/sama/status/2050021650641695108">&#120143; @sama (Sam Altman)</a> se limit&#243; a escribir &#8216;artificial goblin intelligence: achieved&#8217;, un gui&#241;o a la comunidad t&#233;cnica que indirectamente ha influido en la preferencia de su modelo por esta criatura.</p><div><hr></div><h3>C&#243;digo abierto en IA: el reto regulatorio sin respuesta</h3><p>Regular la inteligencia artificial es m&#225;s manejable cuando los modelos los desarrollan y sirven un pu&#241;ado de empresas identificables. Con modelos de c&#243;digo abierto, esa l&#243;gica se rompe: cualquier organizaci&#243;n o individuo puede descargar, modificar y desplegar un modelo como Llama o los de Mistral, lo que fragmenta la responsabilidad entre miles de actores dispersos. Los marcos regulatorios tradicionales no est&#225;n dise&#241;ados para ese escenario. La tensi&#243;n se vuelve concreta con las investigaciones abiertas por el &#8216;House Homeland Security Committee&#8217; y el &#8216;House China Select Committee&#8217; a Airbnb y Anysphere, la empresa detr&#225;s de Cursor. Seg&#250;n documentos revisados por Semafor, ambos comit&#233;s enviaron cartas formales a los CEOs solicitando informaci&#243;n sobre su uso de modelos de origen chino. Anysphere construy&#243; su modelo Composer 2 sobre Kimi, de Moonshot AI (Pek&#237;n); Airbnb recurri&#243; a Qwen, de Alibaba, para un agente de atenci&#243;n al cliente. Los comit&#233;s citan riesgos de seguridad nacional y posibles vulnerabilidades ocultas. El caso expone una disyuntiva sin salida limpia: una regulaci&#243;n estricta sobre el c&#243;digo abierto concentrar&#237;a a&#250;n m&#225;s el mercado en los grandes laboratorios propietarios; una regulaci&#243;n laxa dificulta el control de usos problem&#225;ticos. Ninguna de las dos opciones est&#225; resuelta, y el Congreso de Estados Unidos acaba de convertir esa ambig&#252;edad en un expediente formal.</p><p>Para <a href="https://x.com/emollick/status/2049880544477913271">&#120143; @emollick (Ethan Mollick)</a>, la asimetr&#237;a es estructural: regular modelos propietarios servidos por pocas empresas grandes es relativamente directo, pero extender esa l&#243;gica a modelos de c&#243;digo abierto distribuidos entre actores descentralizados no tiene un mecanismo obvio. Anticipa que esa brecha se convertir&#225; pronto en un debate pol&#237;tico de fondo.</p><p><a href="https://x.com/Dan_Jeffries1/status/2049745165665853742">&#120143; @Dan_Jeffries1 (Daniel Jeffries)</a> enmarca las investigaciones del Congreso como un intento de restringir el c&#243;digo abierto en beneficio de los grandes laboratorios propietarios, y se&#241;ala a Cursor como ejemplo concreto de negocio que perder&#237;a la capacidad de hacer ajuste fino sobre modelos base para reducir costes y mejorar rendimiento.</p><div><hr></div><h3>Un chatbot de IA mejora la salud mental en ensayo cl&#237;nico</h3><p>Un ensayo cl&#237;nico aleatorizado realizado en mujeres en M&#233;xico ha medido el efecto de un chatbot terap&#233;utico de IA sobre la salud mental durante seis meses. Los resultados muestran una mejora de 0,3 desviaciones est&#225;ndar, un tama&#241;o de efecto que en psicolog&#237;a cl&#237;nica se considera equiparable al de intervenciones presenciales de baja intensidad. El estudio tambi&#233;n detect&#243; mejoras en calidad del sue&#241;o, conductas saludables, funcionamiento diario y resultados laborales, sin aumento de casos graves. Ese &#250;ltimo punto importa: la principal objeci&#243;n &#233;tica a la IA en salud mental ha sido siempre el riesgo de da&#241;o, y aqu&#237; no aparece. El peso del dato viene del m&#233;todo. El ensayo aleatorizado es el est&#225;ndar m&#225;s exigente en investigaci&#243;n m&#233;dica, y en salud mental digital los productos comerciales se multiplican mientras los estudios rigurosos escasean. Para sistemas sanitarios con d&#233;ficit estructural de profesionales, la relaci&#243;n coste-beneficio es dif&#237;cil de ignorar. Lo que este ensayo no resuelve es su alcance real: la muestra es espec&#237;fica, y no hay datos sobre si los resultados se sostienen en hombres, en otras poblaciones o en contextos con mayor acceso a atenci&#243;n presencial. Reguladores, aseguradoras y responsables de salud p&#250;blica tienen ahora evidencia s&#243;lida para el debate, pero el marco de supervisi&#243;n cl&#237;nica y los criterios de derivaci&#243;n a profesionales siguen sin definirse.</p><p>Para <a href="https://x.com/emollick/status/2050007089523663081">&#120143; @emollick (Ethan Mollick)</a>, el ensayo combina dos atributos poco frecuentes a la vez: impacto cl&#237;nico demostrable y coste bajo. Lo califica de argumento concreto para la adopci&#243;n en sistemas sanitarios con recursos limitados.</p><div><hr></div><h3>Stripe crea una cartera de pagos para agentes de IA</h3><p>Stripe ha lanzado Link Wallet for Agents, una extensi&#243;n de su cartera digital Link pensada para que agentes de inteligencia artificial puedan ejecutar compras de forma aut&#243;noma sin exponer las credenciales de pago reales del usuario. Ese &#250;ltimo punto es el n&#250;cleo del producto: el agente opera con permisos delegados, no con acceso directo a los datos financieros. Link parte con m&#225;s de 250 millones de usuarios registrados, una base de distribuci&#243;n que ning&#250;n competidor directo en este segmento tiene de entrada. El lanzamiento llega cuando OpenAI, Anthropic y Google aceleran el desarrollo de agentes capaces de actuar en internet con autonom&#237;a creciente, y el pago aut&#243;nomo sigue siendo uno de los problemas sin resolver en esos sistemas: c&#243;mo completar una transacci&#243;n sin que el usuario intervenga ni asuma riesgo de exposici&#243;n de datos. Stripe lleva a&#241;os siendo infraestructura de facto para startups y empresas de software; este producto intenta replicar ese papel en la econom&#237;a de agentes antes de que los propios laboratorios de IA o plataformas rivales fijen sus propios est&#225;ndares. Lo que el lanzamiento no aclara es qu&#233; modelo de responsabilidad se aplica cuando un agente ejecuta una transacci&#243;n err&#243;nea, ni c&#243;mo se gestionar&#225;n los l&#237;mites de gasto y los permisos de forma granular.</p><p>Para <a href="https://x.com/WesRoth/status/2049896564961738792">&#120143; @WesRoth (Wes Roth)</a>, la clave no es solo t&#233;cnica sino de posicionamiento: Stripe entra en la infraestructura de la econom&#237;a ag&#233;ntica con 250 millones de usuarios ya existentes, una ventaja de salida dif&#237;cil de replicar desde cero.</p><div><hr></div><h3>Biohub destina 500 millones a modelos celulares con IA</h3><p>Chan Zuckerberg Biohub ha lanzado la Virtual Biology Initiative con un compromiso de 500 millones de d&#243;lares para construir modelos de IA predictivos de la c&#233;lula humana: sistemas capaces de simular el comportamiento celular con suficiente fidelidad como para anticipar mecanismos de enfermedad y orientar el desarrollo de terapias. No es la primera gran apuesta de Mark Zuckerberg y Priscilla Chan en biomedicina: <em>Chan Zuckerberg Initiative</em> ya hab&#237;a comprometido miles de millones a la erradicaci&#243;n de enfermedades. Este paso, sin embargo, es m&#225;s espec&#237;fico. Apunta a la biolog&#237;a computacional como infraestructura cient&#237;fica, con la premisa de que la IA puede comprimir d&#233;cadas de investigaci&#243;n experimental. Un gemelo digital de la c&#233;lula suficientemente preciso reducir&#237;a la dependencia de la experimentaci&#243;n in vitro e in vivo en fases tempranas, abaratar&#237;a el descubrimiento de dianas terap&#233;uticas y abrir&#237;a la puerta a simulaciones de respuesta individual a f&#225;rmacos. El obst&#225;culo de fondo no es computacional: construir ese modelo exige datos biol&#243;gicos a una escala y calidad que todav&#237;a no existen de forma consolidada. La distribuci&#243;n interna del presupuesto, cu&#225;nto va a generaci&#243;n de datos, cu&#225;nto a desarrollo de modelos y cu&#225;nto a infraestructura, ser&#225; determinante para saber si la iniciativa produce herramientas cient&#237;ficas transferibles o se queda en investigaci&#243;n de frontera sin adopci&#243;n cl&#237;nica a corto plazo.</p><p>Para <a href="https://x.com/WesRoth/status/2049972065659240737">&#120143; @WesRoth (Wes Roth)</a>, la escala del compromiso, 500 millones orientados a un objetivo tan espec&#237;fico como modelar la c&#233;lula humana, convierte esta iniciativa en una de las apuestas m&#225;s ambiciosas de la convergencia entre IA y biociencias, con potencial directo sobre farmac&#233;utica, diagn&#243;stico y medicina personalizada.</p><p><a href="https://x.com/snakajima/status/2049970997055598745">&#120143; @snakajima (Satoshi Nakajima @Mulmocast)</a> subraya el car&#225;cter fundacional del proyecto: no se trata de aplicar IA a datos biol&#243;gicos existentes, sino de construir desde cero un modelo celular predictivo, lo que sit&#250;a a Biohub en un terreno cient&#237;fico sin hoja de ruta establecida.</p><div><hr></div><p><em><strong>Gracias por leer 1 Minuto de IA.</strong> Si te ha gustado esta edici&#243;n, no te olvides de dar al &#9825; y de compartirla por redes sociales o por email con otras personas a las que creas que les pueda interesar.</em></p><div class="subscription-widget-wrap-editor" data-attrs="{&quot;url&quot;:&quot;https://explicable.iia.es/subscribe?&quot;,&quot;text&quot;:&quot;Suscribirse&quot;,&quot;language&quot;:&quot;es&quot;}" data-component-name="SubscribeWidgetToDOM"><div class="subscription-widget show-subscribe"><div class="preamble"><p class="cta-caption">Suscr&#237;bete gratis para recibir nuevos posts y apoyar este proyecto.</p></div><form class="subscription-widget-subscribe"><input type="email" class="email-input" name="email" placeholder="Escribe tu correo electr&#243;nico..." tabindex="-1"><input type="submit" class="button primary" value="Suscribirse"><div class="fake-input-wrapper"><div class="fake-input"></div><div class="fake-button"></div></div></form></div></div>]]></content:encoded></item><item><title><![CDATA[La IA convierte la ciberseguridad en prioridad estratégica]]></title><description><![CDATA[OpenAI anuncia un modelo GPT-5.5 especializado en Ciberseguridad]]></description><link>https://explicable.iia.es/p/la-ia-convierte-la-ciberseguridad</link><guid isPermaLink="false">https://explicable.iia.es/p/la-ia-convierte-la-ciberseguridad</guid><dc:creator><![CDATA[Miguel A. Román]]></dc:creator><pubDate>Thu, 30 Apr 2026 10:31:46 GMT</pubDate><enclosure url="https://substackcdn.com/image/fetch/$s_!_wV1!,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F21fb0c9f-4ab3-4966-87f5-058db119e4d4_1672x941.png" length="0" type="image/jpeg"/><content:encoded><![CDATA[<div class="captioned-image-container"><figure><a class="image-link image2 is-viewable-img" target="_blank" href="https://substackcdn.com/image/fetch/$s_!_wV1!,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F21fb0c9f-4ab3-4966-87f5-058db119e4d4_1672x941.png" data-component-name="Image2ToDOM"><div class="image2-inset"><picture><source type="image/webp" srcset="https://substackcdn.com/image/fetch/$s_!_wV1!,w_424,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F21fb0c9f-4ab3-4966-87f5-058db119e4d4_1672x941.png 424w, https://substackcdn.com/image/fetch/$s_!_wV1!,w_848,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F21fb0c9f-4ab3-4966-87f5-058db119e4d4_1672x941.png 848w, https://substackcdn.com/image/fetch/$s_!_wV1!,w_1272,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F21fb0c9f-4ab3-4966-87f5-058db119e4d4_1672x941.png 1272w, https://substackcdn.com/image/fetch/$s_!_wV1!,w_1456,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F21fb0c9f-4ab3-4966-87f5-058db119e4d4_1672x941.png 1456w" sizes="100vw"><img src="https://substackcdn.com/image/fetch/$s_!_wV1!,w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F21fb0c9f-4ab3-4966-87f5-058db119e4d4_1672x941.png" width="724" height="407.25" data-attrs="{&quot;src&quot;:&quot;https://substack-post-media.s3.amazonaws.com/public/images/21fb0c9f-4ab3-4966-87f5-058db119e4d4_1672x941.png&quot;,&quot;srcNoWatermark&quot;:null,&quot;fullscreen&quot;:null,&quot;imageSize&quot;:null,&quot;height&quot;:819,&quot;width&quot;:1456,&quot;resizeWidth&quot;:724,&quot;bytes&quot;:2340301,&quot;alt&quot;:null,&quot;title&quot;:null,&quot;type&quot;:&quot;image/png&quot;,&quot;href&quot;:null,&quot;belowTheFold&quot;:false,&quot;topImage&quot;:true,&quot;internalRedirect&quot;:&quot;https://explicable.iia.es/i/195959945?img=https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F21fb0c9f-4ab3-4966-87f5-058db119e4d4_1672x941.png&quot;,&quot;isProcessing&quot;:false,&quot;align&quot;:null,&quot;offset&quot;:false}" class="sizing-normal" alt="" srcset="https://substackcdn.com/image/fetch/$s_!_wV1!,w_424,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F21fb0c9f-4ab3-4966-87f5-058db119e4d4_1672x941.png 424w, https://substackcdn.com/image/fetch/$s_!_wV1!,w_848,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F21fb0c9f-4ab3-4966-87f5-058db119e4d4_1672x941.png 848w, https://substackcdn.com/image/fetch/$s_!_wV1!,w_1272,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F21fb0c9f-4ab3-4966-87f5-058db119e4d4_1672x941.png 1272w, https://substackcdn.com/image/fetch/$s_!_wV1!,w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F21fb0c9f-4ab3-4966-87f5-058db119e4d4_1672x941.png 1456w" sizes="100vw" fetchpriority="high"></picture><div class="image-link-expand"><div class="pencraft pc-display-flex pc-gap-8 pc-reset"><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container restack-image"><svg role="img" width="20" height="20" viewBox="0 0 20 20" fill="none" stroke-width="1.5" stroke="var(--color-fg-primary)" stroke-linecap="round" stroke-linejoin="round" xmlns="http://www.w3.org/2000/svg"><g><title></title><path d="M2.53001 7.81595C3.49179 4.73911 6.43281 2.5 9.91173 2.5C13.1684 2.5 15.9537 4.46214 17.0852 7.23684L17.6179 8.67647M17.6179 8.67647L18.5002 4.26471M17.6179 8.67647L13.6473 6.91176M17.4995 12.1841C16.5378 15.2609 13.5967 17.5 10.1178 17.5C6.86118 17.5 4.07589 15.5379 2.94432 12.7632L2.41165 11.3235M2.41165 11.3235L1.5293 15.7353M2.41165 11.3235L6.38224 13.0882"></path></g></svg></button><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container view-image"><svg xmlns="http://www.w3.org/2000/svg" width="20" height="20" viewBox="0 0 24 24" fill="none" stroke="currentColor" stroke-width="2" stroke-linecap="round" stroke-linejoin="round" class="lucide lucide-maximize2 lucide-maximize-2"><polyline points="15 3 21 3 21 9"></polyline><polyline points="9 21 3 21 3 15"></polyline><line x1="21" x2="14" y1="3" y2="10"></line><line x1="3" x2="10" y1="21" y2="14"></line></svg></button></div></div></div></a></figure></div><p><strong>&#191;Qu&#233; pas&#243; ayer? En un minuto:</strong></p><p>La inteligencia artificial ya no es solo una herramienta de productividad. Empieza a convertirse en una pieza estrat&#233;gica de seguridad en las organizaciones, como muestran varias noticias recientes que nos llegan desde Estados Unidos. Anthropic ya anunci&#243; Claude Mythos Preview, un modelo capaz de encontrar vulnerabilidades sofisticadas incluso en sistemas muy auditados. La propia compa&#241;&#237;a lo interpreta como una se&#241;al de que las defensas digitales deber&#225;n reforzarse con urgencia, motivo por el cual decide no publicar Mythos. Al mismo tiempo, Google firma un acuerdo para que el Pent&#225;gono utilice Gemini en trabajos clasificados, incluyendo informaci&#243;n sensible sobre operaciones, incidentes de ciberseguridad y planificaci&#243;n militar. Y OpenAI tambi&#233;n mueve ficha en la misma direcci&#243;n: Sam Altman ha anunciado el despliegue de GPT-5.5-Cyber para un grupo exclusivo de &#8220;defensores cr&#237;ticos&#8221;, despu&#233;s de que la compa&#241;&#237;a ya hubiera creado un programa de acceso verificado a modelos m&#225;s permisivos para tareas de ciberseguridad.</p><p>Para las empresas, la ventaja competitiva no estar&#225; solo en adoptar IA para ganar eficiencia. Tambi&#233;n estar&#225; en saber protegerse frente a una nueva generaci&#243;n de amenazas automatizadas, muchas de las cuales todav&#237;a no podemos ni anticipar. La ciberseguridad entra as&#237; en una nueva fase, muy impactada por los modelos de IA, y tendr&#225; cada vez m&#225;s peso en los consejos de administraci&#243;n.</p><p><strong>Y si tienes m&#225;s de un minuto&#8230;</strong></p><div><hr></div><h3>GPT-5.5 sigue dando alegr&#237;as a OpenAI</h3><p>OpenAI ha iniciado el despliegue de GPT-5.5-Cyber con acceso restringido a defensores cr&#237;ticos en ciberseguridad y coordinaci&#243;n expl&#237;cita con el Gobierno estadounidense antes de cualquier distribuci&#243;n amplia. Ese nivel de cautela tiene un motivo concreto: los modelos aplicados a ciberseguridad son de doble uso por definici&#243;n, y que una empresa privada asuma la gesti&#243;n de ese acceso de forma institucional indica que las capacidades del modelo justifican el control. </p><p>Microsoft, por su parte, ya ha integrado la variante GPT-5.5 Thinking en Word, Excel y Copilot Chat, lo que convierte Microsoft 365 en el canal de distribuci&#243;n corporativa m&#225;s amplio al que OpenAI tiene acceso directo. Por otro lado, Greg Brockman lleva casi dos d&#233;cadas usando el terminal como interfaz principal de trabajo. Ahora lo ha sustituido por la aplicaci&#243;n Codex con GPT-5.5. El dato no es anecd&#243;tico: viene de uno de los perfiles t&#233;cnicos m&#225;s cualificados del sector y describe un cambio de h&#225;bito concreto, no una promesa. Sam Altman ha comparado el momento actual de adopci&#243;n de Codex con el que vivi&#243; ChatGPT en 2022, aunque suaviz&#243; el comentario con humor poco despu&#233;s. OpenAI ha ampliado deliberadamente su posicionamiento: ya no lo presenta solo como herramienta para desarrolladores, sino como asistente de productividad general capaz de analizar datos, generar informes y preparar presentaciones. Ese giro lo lleva a competir en un segmento mucho m&#225;s amplio. </p><p>El contrapeso a toda esta actividad de producto es financiero: la CFO Sarah Friar habr&#237;a trasladado a la c&#250;pula directiva sus dudas sobre la capacidad de la compa&#241;&#237;a para cubrir sus contratos de computaci&#243;n si los ingresos no crecen al ritmo previsto. OpenAI no ha confirmado oficialmente esa informaci&#243;n, pero encaja con una empresa que lanza productos a velocidad m&#225;xima mientras gestiona una estructura de costes que todav&#237;a no se sostiene sola.</p><p>La secuencia de publicaciones de <a href="https://x.com/OpenAI/status/2049583167406064115">&#120143; @OpenAI (Openai)</a> refleja una decisi&#243;n clara: mostrar Codex en casos de uso que no requieren saber programar, desde an&#225;lisis de datos hasta elaboraci&#243;n de presentaciones, apuntando a un p&#250;blico corporativo muy distinto al que hist&#243;ricamente ha usado herramientas de generaci&#243;n de c&#243;digo.</p><p><a href="https://x.com/TonyClimate/status/2049277245089620229">&#120143; @TonyClimate (Tony Heller)</a> apunta a una tensi&#243;n estructural que el ritmo de lanzamientos tiende a ocultar: sin reducciones de precio significativas, mantener la competitividad frente a Anthropic y otros rivales puede volverse insostenible, una lectura que gana peso a la luz de las preocupaciones financieras internas de la compa&#241;&#237;a.</p><p>Como muestra pr&#225;ctica del modelo, <a href="https://x.com/ruben_kostard/status/2049692269762982272">&#120143; @ruben_kostard (Ruben Kostandyan)</a> public&#243; un dise&#241;o generado por GPT-5.5 Pro en ForgeCAD a partir de un &#250;nico prompt de texto, un caso de uso que ilustra hasta d&#243;nde llega la integraci&#243;n entre razonamiento y generaci&#243;n t&#233;cnica en la versi&#243;n m&#225;s capaz del modelo.</p><div><hr></div><h3>Gemini genera archivos descargables desde el chat</h3><p>Google ha activado en Gemini la generaci&#243;n de archivos directamente desde el chat: el usuario describe el contenido, indica el formato y el asistente produce el documento sin plantillas previas. Los formatos disponibles incluyen PDF, Google Docs, Sheets y Slides, y tambi&#233;n Microsoft Word y Excel. Es un movimiento funcional concreto: Gemini entra en el terreno de la productividad documental, donde Microsoft Copilot lleva ventaja por su integraci&#243;n nativa con Office. El anuncio llega respaldado por unos resultados del primer trimestre de 2026 que Google ha calificado de s&#243;lidos, lo que refuerza la lectura de que la apuesta por IA en entornos de trabajo tiene apoyo presupuestario interno. Las primeras evaluaciones pr&#225;cticas, sin embargo, rebajan las expectativas. Las presentaciones generadas quedan por debajo de lo que produce NotebookLM, otra herramienta del propio Google, y las hojas de c&#225;lculo se describen como rudimentarias. Hay adem&#225;s un problema de comportamiento: el modelo no tiene un mapa claro de sus propias capacidades y tiende a abandonar la tarea ante obst&#225;culos en lugar de buscar alternativas. Gemini es t&#233;cnicamente capaz, pero la ejecuci&#243;n no est&#225; a la altura del modelo subyacente. Para que esta funci&#243;n se traduzca en adopci&#243;n empresarial real, Google necesita cerrar esa brecha antes de que Copilot la consolide como irrelevante.</p><p>La cuenta oficial <a href="https://x.com/GeminiApp/status/2049519416698683514">&#120143; @GeminiApp (Google Gemini)</a> confirma que la generaci&#243;n de archivos ya est&#225; disponible para todos los usuarios, sin restricciones de acceso ni fases piloto anunciadas, lo que apunta a un despliegue amplio desde el primer d&#237;a.</p><div><hr></div><h3>Mistral Medium 3.5: 128B par&#225;metros, un solo modelo</h3><p>La empresa francesa Mistral AI ha presentado Mistral Medium 3.5, un modelo denso de 128B de par&#225;metros que fusiona en un &#250;nico checkpoint tres desarrollos anteriores de la compa&#241;&#237;a: Mistral Medium 3.1, Magistral Medium y Devstral 2. La arquitectura densa, sin mezcla de expertos, simplifica el despliegue: la inferencia completa cabe en un nodo H200 o en dos nodos H100, y el formato nativo FP8 reduce la huella de memoria respecto a sistemas MoE de capacidad comparable. El modelo integra seguimiento de instrucciones, razonamiento configurable y generaci&#243;n de c&#243;digo, con una ventana de contexto de 256.000 tokens, y alcanza un 77,6% en SWE-Bench Verified, referente para medir resoluci&#243;n aut&#243;noma de problemas de ingenier&#237;a de software. La licencia es MIT modificada, lo que facilita la adopci&#243;n comercial, aunque las restricciones espec&#237;ficas de esa modificaci&#243;n merecen revisi&#243;n antes de asumir apertura total. En paralelo, Mistral ha lanzado en vista previa el modo Work para Le Chat, transformando su plataforma de un chatbot conversacional en un agente capaz de ejecutar tareas en m&#250;ltiples pasos. NVIDIA ha integrado el modelo en NeMo Automodel y lo ha amplificado p&#250;blicamente, se&#241;al de una alianza que ambas partes tienen inter&#233;s en exhibir. El flanco m&#225;s vulnerable es el precio: Mistral Medium 3.5 cuesta 1,20 d&#243;lares por mill&#243;n de tokens de entrada, m&#225;s del doble que Gemini 3.1 Flash, un competidor con distribuci&#243;n masiva y respaldo de infraestructura propia.</p><p><a href="https://x.com/NVIDIAAI/status/2049523254143160801">&#120143; @NVIDIAAI (Nvidia Ai)</a> subraya que el modelo corre sobre su infraestructura y lo incorpora de inmediato a NeMo Automodel. Cada lanzamiento de frontera es, para NVIDIA, una oportunidad de consolidarse como plataforma indispensable con independencia del fabricante del modelo.</p><p><a href="https://x.com/stevibe/status/2049683930782290175">&#120143; @stevibe (Stevi Be)</a> apunta al dato que el anuncio oficial omite: Gemini 3.1 Flash cuesta 0,50 d&#243;lares por mill&#243;n de tokens de entrada y 3 d&#243;lares por mill&#243;n de salida, lo que deja a Mistral Medium 3.5 en una posici&#243;n de precio dif&#237;cil de defender frente a un competidor con distribuci&#243;n masiva.</p><div><hr></div><h3>Claude resuelve problemas biol&#243;gicos que frenan a expertos</h3><p>Anthropic ha publicado los resultados de BioMysteryBench, un benchmark propio que no mide conocimiento memor&#237;stico sino la capacidad de Claude para proponer soluciones creativas a problemas de investigaci&#243;n abiertos en bioinform&#225;tica. El estudio enfrent&#243; al modelo con 99 casos reales de an&#225;lisis de datos biol&#243;gicos, comparando su rendimiento con el de un panel de expertos humanos. De los 23 problemas que dejaron sin respuesta a los especialistas, Mythos resolvi&#243; alrededor del 30%, adem&#225;s de acertar en la mayor&#237;a de los casos accesibles al panel. Ese resultado no reemplaza al cient&#237;fico, pero s&#237; sugiere que los modelos de lenguaje avanzados pueden generar hip&#243;tesis &#250;tiles m&#225;s all&#225; del per&#237;metro del conocimiento experto consolidado. La publicaci&#243;n coincide con el anuncio de los 'introspection adapters', mecanismos que permiten a los modelos de Anthropic autoreportar comportamientos adquiridos durante el entrenamiento, incluidas posibles desviaciones respecto a los objetivos originales. Juntas, ambas iniciativas construyen una narrativa de IA fiable y aplicable a ciencia real, en un momento en que OpenAI y Google DeepMind compiten con apuestas propias en el mismo terreno.</p><p>Seg&#250;n <a href="https://x.com/emollick/status/2049690406586044835">&#120143; @emollick (Ethan Mollick)</a>, las capacidades emergentes de Claude en dominios especializados, como ciberseguridad o biolog&#237;a, no son fruto de un dise&#241;o dirigido, sino un efecto secundario de escalar modelos generalistas. Ese matiz cambia c&#243;mo hay que leer benchmarks como BioMysteryBench.</p><p>Para <a href="https://x.com/MTSlive/status/2049626430599028858">&#120143; @MTSlive (Mts)</a>, el 30% de problemas resueltos que bloqueaban a expertos humanos no es solo un resultado t&#233;cnico: es una se&#241;al operativa para los laboratorios de biolog&#237;a, que tienen ahora un caso de uso concreto sobre el que trabajar.</p><div><hr></div><h3>IA y empleo: tareas automatizadas, trabajos intactos</h3><p>Fran&#231;ois Chollet, creador de Keras, insiste en una tesis que choca con el relato dominante: la IA automatiza tareas, no empleos completos. El argumento tiene dos dimensiones. La t&#233;cnica: ning&#250;n modelo actual puede ejecutar un rol profesional de extremo a extremo sin supervisi&#243;n humana continua. La econ&#243;mica: cuando una tarea se abarata, la demanda del trabajo asociado tiende a crecer. Los radi&#243;logos son el caso m&#225;s ilustrativo. Hace una d&#233;cada el sector daba por hecha su sustituci&#243;n; hoy cobran m&#225;s de 500.000 d&#243;lares anuales en Estados Unidos. Pedro Domingos sit&#250;a el problema en otro plano: quienes ignoran la teor&#237;a de difusi&#243;n de innovaciones de Everett Rogers, que describe la adopci&#243;n tecnol&#243;gica como una curva en S con fases largas de maduraci&#243;n, sistem&#225;ticamente confunden el pico del hype con el momento de transformaci&#243;n real. El patr&#243;n se repiti&#243; con internet y con el m&#243;vil. Nada de esto resuelve la tensi&#243;n con lo que ocurre ahora mismo: Google, Microsoft y Salesforce integran modelos en flujos de trabajo profesionales a un ritmo que antes de 2022 habr&#237;a parecido improbable. Si los l&#237;mites de autonom&#237;a que describe Chollet son reales, el empleo se mantendr&#225; incluso con millones de agentes desplegados.</p><p>La tesis de <a href="https://x.com/fchollet/status/2049644995293163830">&#120143; @fchollet (Fran&#231;ois Chollet)</a> no es optimista por defecto, sino t&#233;cnica: si ning&#250;n modelo puede ejecutar un trabajo completo sin supervisi&#243;n, el marco de destrucci&#243;n masiva de empleo carece de base operativa en el estado actual del sector.</p><p>Para <a href="https://x.com/pmddomingos/status/2049545966794211656">&#120143; @pmddomingos (Pedro Domingos)</a>, el problema no es la IA sino el analfabetismo hist&#243;rico de quienes la analizan: ignorar que las tecnolog&#237;as tardan d&#233;cadas en difundirse produce pron&#243;sticos que confunden el pico del hype con el momento de transformaci&#243;n real.</p><div><hr></div><h3>DeepMind y Corea del Sur formalizan una alianza para aplicar IA al descubrimiento cient&#237;fico</h3><p>Google DeepMind ha firmado un acuerdo con el Ministerio de Ciencia y TIC de Corea del Sur con tres ejes declarados: aplicar modelos de IA de frontera al descubrimiento cient&#237;fico, impulsar la innovaci&#243;n en &#225;reas como ciencias de la vida, meteorolog&#237;a y clima, y desarrollar talento local. El acuerdo se integra en la iniciativa National Partnerships for AI de DeepMind y llega diez a&#241;os despu&#233;s del hist&#243;rico partido de AlphaGo en Se&#250;l, que en 2016 convirti&#243; a la compa&#241;&#237;a en referencia global. Ese aniversario no es solo contexto simb&#243;lico: ancla el relato del acuerdo y refuerza la narrativa de continuidad que DeepMind proyecta en la regi&#243;n. Corea del Sur, seg&#250;n el propio comunicado, lidera en densidad de innovaci&#243;n en IA y registra la tasa de adopci&#243;n m&#225;s r&#225;pida entre las treinta mayores econom&#237;as del mundo. La colaboraci&#243;n conecta con la iniciativa K-Moonshot Missions del Ministerio, orientada a mejorar la productividad investigadora y abordar desaf&#237;os nacionales de escala. Para DeepMind, el acuerdo refuerza su posici&#243;n institucional en el Indo-Pac&#237;fico, donde Google compite con Microsoft, Meta y laboratorios chinos por establecer alianzas con gobiernos. Lo que el anuncio omite es el volumen de inversi&#243;n comprometida, los plazos de los proyectos y los mecanismos de gobernanza. Esas variables, todav&#237;a sin respuesta p&#250;blica, son las que distinguir&#225;n un acuerdo operativo de una declaraci&#243;n de intenciones bien empaquetada.</p><p>En su comunicado, <a href="https://x.com/demishassabis/status/2049465379039416637">&#120143; @demishassabis (Demis Hassabis)</a> subraya la dimensi&#243;n formativa del acuerdo tanto como la cient&#237;fica: invertir en la pr&#243;xima generaci&#243;n de talento coreano apunta a construir un ecosistema local que no dependa &#250;nicamente de modelos importados.</p><div><hr></div><h3>Waymo: 500.000 viajes semanales y reconocimiento TIME 100</h3><p>Waymo ha sido incluida en la lista TIME 100 Industry Leaders para 2026, que selecciona a las cien compa&#241;&#237;as con mayor influencia en sus sectores. El dato que respalda el reconocimiento es operativo: m&#225;s de 500.000 viajes semanales en 11 ciudades de Estados Unidos, con nuevas ubicaciones en proceso de incorporaci&#243;n. Ning&#250;n otro operador de veh&#237;culos aut&#243;nomos ha alcanzado ese volumen en condiciones comerciales reales, sin conductor de seguridad a bordo. Tesla lleva a&#241;os anunciando una flota de robotaxis sin fecha firme; el resto de proyectos siguen en fase piloto. La ventaja de Waymo no es solo tecnol&#243;gica: es una d&#233;cada de kil&#243;metros acumulados como filial de Alphabet, una base de datos que los nuevos entrantes no pueden replicar a corto plazo. Lo relevante ahora no es el premio, sino lo que la cifra de 500.000 viajes a&#250;n no responde: si el modelo es rentable a esta escala, a qu&#233; ritmo puede crecer sin deteriorar el historial de seguridad, y c&#243;mo reaccionan los marcos regulatorios en cada nueva ciudad. El umbral de la prueba piloto est&#225; cruzado. Lo que sigue es m&#225;s dif&#237;cil de medir.</p><p><a href="https://x.com/Waymo/status/2049527757583839405">&#120143; @Waymo (Waymo)</a> enmarc&#243; el reconocimiento de TIME poniendo los 500.000 viajes semanales por delante del galard&#243;n en s&#237;, tratando la cifra operativa como el argumento principal, no el premio.</p><div><hr></div><h3>Robots humanoides aterrizan en log&#237;stica y aeropuertos</h3><p>Tres movimientos separados apuntan esta semana en la misma direcci&#243;n: los robots humanoides est&#225;n pasando del prototipo al despliegue operativo. RobotEra ha instalado su humanoide L7 en m&#225;s de diez grandes centros log&#237;sticos de China, incluidas instalaciones de China Post y SF Express Group, dos operadores con vol&#250;menes de manipulaci&#243;n que convierten este rollout en uno de los m&#225;s amplios documentados a escala global. Por su parte, Japan Airlines arrancar&#225; en mayo un piloto de dos a&#241;os con robots humanoides para operaciones de rampa en Haneda, desarrollado con GMO AI &amp; Robotics y con hardware de fabricaci&#243;n china. El objetivo inicial es la carga de equipaje: una tarea f&#237;sicamente exigente, con alta tasa de lesiones y en un sector que arrastra escasez estructural de personal de tierra. Que una aerol&#237;nea opte por humanoides en lugar de maquinaria especializada sugiere una apuesta por adaptarse a la infraestructura existente sin redise&#241;arla, aunque esa flexibilidad tiene un precio que el piloto tendr&#225; que justificar. Por otro lado, Figure AI anuncia que ha aumentado considerablemente la cadencia de producci&#243;n de su robot humanoide F.03 en BotQ, su planta de fabricaci&#243;n propia: de un robot al d&#237;a a uno por hora. La l&#243;gica que subyace en esta industria: m&#225;s robots desplegados generan m&#225;s datos operativos, y esos datos aceleran el desarrollo de capacidades aut&#243;nomas. Cada unidad entregada se convierte en infraestructura de entrenamiento, no solo en producto. El cuello de botella hist&#243;rico de la rob&#243;tica humanoide ha sido siempre el salto del prototipo funcional a la fabricaci&#243;n repetible a coste industrial. Lo que queda por ver es si la fiabilidad sostenida fuera de condiciones controladas aguanta el escrutinio y si la relaci&#243;n coste-beneficio est&#225; justificada.</p><p>Para <a href="https://x.com/WesRoth/status/2049443580977250408">&#120143; @WesRoth (Wes Roth)</a>, el despliegue de RobotEra en instalaciones de China Post y SF Express representa el salto de las pruebas piloto a la aplicaci&#243;n masiva real, una distinci&#243;n que importa porque la mayor&#237;a de los anuncios del sector no hab&#237;an cruzado ese umbral hasta ahora.</p><p><a href="https://x.com/Figure_robot/status/2049513959594885151">&#120143; @Figure_robot (Figure)</a> enmarca el salto productivo no como un logro de fabricaci&#243;n aislado, sino como el requisito previo para escalar la generaci&#243;n de datos que alimentar&#225; las pr&#243;ximas versiones de sus sistemas aut&#243;nomos: cada robot entregado es, en su l&#243;gica, una unidad de infraestructura de entrenamiento.</p><div><hr></div><p><em><strong>Gracias por leer 1 Minuto de IA.</strong> Si te ha gustado esta edici&#243;n, no te olvides de dar al &#9825; y de compartirla por redes sociales o por email con otras personas a las que creas que les pueda interesar.</em></p><div class="subscription-widget-wrap-editor" data-attrs="{&quot;url&quot;:&quot;https://explicable.iia.es/subscribe?&quot;,&quot;text&quot;:&quot;Suscribirse&quot;,&quot;language&quot;:&quot;es&quot;}" data-component-name="SubscribeWidgetToDOM"><div class="subscription-widget show-subscribe"><div class="preamble"><p class="cta-caption">Suscr&#237;bete gratis para recibir nuevos posts y apoyar este proyecto.</p></div><form class="subscription-widget-subscribe"><input type="email" class="email-input" name="email" placeholder="Escribe tu correo electr&#243;nico..." tabindex="-1"><input type="submit" class="button primary" value="Suscribirse"><div class="fake-input-wrapper"><div class="fake-input"></div><div class="fake-button"></div></div></form></div></div>]]></content:encoded></item><item><title><![CDATA[Magnific lanzada hacia la élite mundial de la IA]]></title><description><![CDATA[Freepik ahora es Magnific para enfocarse en IA audiovisual]]></description><link>https://explicable.iia.es/p/magnific-lanzada-hacia-la-elite-mundial</link><guid isPermaLink="false">https://explicable.iia.es/p/magnific-lanzada-hacia-la-elite-mundial</guid><dc:creator><![CDATA[Miguel A. Román]]></dc:creator><pubDate>Wed, 29 Apr 2026 09:26:29 GMT</pubDate><enclosure url="https://substackcdn.com/image/fetch/$s_!fKZN!,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F8feebd11-508c-4e88-9922-2d9ed9cf0afd_1878x1080.jpeg" length="0" type="image/jpeg"/><content:encoded><![CDATA[<div class="captioned-image-container"><figure><a class="image-link image2 is-viewable-img" target="_blank" href="https://substackcdn.com/image/fetch/$s_!fKZN!,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F8feebd11-508c-4e88-9922-2d9ed9cf0afd_1878x1080.jpeg" data-component-name="Image2ToDOM"><div class="image2-inset"><picture><source type="image/webp" srcset="https://substackcdn.com/image/fetch/$s_!fKZN!,w_424,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F8feebd11-508c-4e88-9922-2d9ed9cf0afd_1878x1080.jpeg 424w, https://substackcdn.com/image/fetch/$s_!fKZN!,w_848,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F8feebd11-508c-4e88-9922-2d9ed9cf0afd_1878x1080.jpeg 848w, https://substackcdn.com/image/fetch/$s_!fKZN!,w_1272,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F8feebd11-508c-4e88-9922-2d9ed9cf0afd_1878x1080.jpeg 1272w, https://substackcdn.com/image/fetch/$s_!fKZN!,w_1456,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F8feebd11-508c-4e88-9922-2d9ed9cf0afd_1878x1080.jpeg 1456w" sizes="100vw"><img src="https://substackcdn.com/image/fetch/$s_!fKZN!,w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F8feebd11-508c-4e88-9922-2d9ed9cf0afd_1878x1080.jpeg" width="1456" height="837" data-attrs="{&quot;src&quot;:&quot;https://substack-post-media.s3.amazonaws.com/public/images/8feebd11-508c-4e88-9922-2d9ed9cf0afd_1878x1080.jpeg&quot;,&quot;srcNoWatermark&quot;:null,&quot;fullscreen&quot;:null,&quot;imageSize&quot;:null,&quot;height&quot;:837,&quot;width&quot;:1456,&quot;resizeWidth&quot;:null,&quot;bytes&quot;:79637,&quot;alt&quot;:null,&quot;title&quot;:null,&quot;type&quot;:&quot;image/jpeg&quot;,&quot;href&quot;:null,&quot;belowTheFold&quot;:false,&quot;topImage&quot;:true,&quot;internalRedirect&quot;:&quot;https://explicable.iia.es/i/195836059?img=https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F8feebd11-508c-4e88-9922-2d9ed9cf0afd_1878x1080.jpeg&quot;,&quot;isProcessing&quot;:false,&quot;align&quot;:null,&quot;offset&quot;:false}" class="sizing-normal" alt="" srcset="https://substackcdn.com/image/fetch/$s_!fKZN!,w_424,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F8feebd11-508c-4e88-9922-2d9ed9cf0afd_1878x1080.jpeg 424w, https://substackcdn.com/image/fetch/$s_!fKZN!,w_848,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F8feebd11-508c-4e88-9922-2d9ed9cf0afd_1878x1080.jpeg 848w, https://substackcdn.com/image/fetch/$s_!fKZN!,w_1272,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F8feebd11-508c-4e88-9922-2d9ed9cf0afd_1878x1080.jpeg 1272w, https://substackcdn.com/image/fetch/$s_!fKZN!,w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F8feebd11-508c-4e88-9922-2d9ed9cf0afd_1878x1080.jpeg 1456w" sizes="100vw" fetchpriority="high"></picture><div class="image-link-expand"><div class="pencraft pc-display-flex pc-gap-8 pc-reset"><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container restack-image"><svg role="img" width="20" height="20" viewBox="0 0 20 20" fill="none" stroke-width="1.5" stroke="var(--color-fg-primary)" stroke-linecap="round" stroke-linejoin="round" xmlns="http://www.w3.org/2000/svg"><g><title></title><path d="M2.53001 7.81595C3.49179 4.73911 6.43281 2.5 9.91173 2.5C13.1684 2.5 15.9537 4.46214 17.0852 7.23684L17.6179 8.67647M17.6179 8.67647L18.5002 4.26471M17.6179 8.67647L13.6473 6.91176M17.4995 12.1841C16.5378 15.2609 13.5967 17.5 10.1178 17.5C6.86118 17.5 4.07589 15.5379 2.94432 12.7632L2.41165 11.3235M2.41165 11.3235L1.5293 15.7353M2.41165 11.3235L6.38224 13.0882"></path></g></svg></button><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container view-image"><svg xmlns="http://www.w3.org/2000/svg" width="20" height="20" viewBox="0 0 24 24" fill="none" stroke="currentColor" stroke-width="2" stroke-linecap="round" stroke-linejoin="round" class="lucide lucide-maximize2 lucide-maximize-2"><polyline points="15 3 21 3 21 9"></polyline><polyline points="9 21 3 21 3 15"></polyline><line x1="21" x2="14" y1="3" y2="10"></line><line x1="3" x2="10" y1="21" y2="14"></line></svg></button></div></div></div></a></figure></div><p><strong>&#191;Qu&#233; pas&#243; ayer? En un minuto:</strong></p><p>La noticia m&#225;s importante es que Freepik deja de ser Freepik y pasa a llamarse Magnific. No es solo un cambio de marca. Es la se&#241;al de que una empresa espa&#241;ola, nacida en M&#225;laga como plataforma de recursos gr&#225;ficos, quiere competir de lleno en el mercado global de la creaci&#243;n audiovisual con IA frente a gigantes como Adobe.</p><p>Cuando apareci&#243; la primera versi&#243;n de DALL&#183;E en 2021, todav&#237;a no era evidente que la IA generativa alcanzar&#237;a el nivel de calidad, consistencia y control que vemos hoy. Joaqu&#237;n Cuenca, CEO de Magnific, entendi&#243; antes que muchos que esa tecnolog&#237;a pod&#237;a amenazar directamente el negocio tradicional de Freepik. En lugar de proteger el modelo anterior, impuls&#243; una reinvenci&#243;n profunda de la compa&#241;&#237;a. En ese proceso compr&#243; Magnific AI, otro proyecto nacido del emprendimiento espa&#241;ol, apost&#243; con fuerza por la IA y ahora adopta esa marca para todo el grupo.</p><p>El movimiento convierte a Joaqu&#237;n Cuenca en un caso de estudio sobre c&#243;mo liderar una empresa cuando la IA ataca directamente su modelo de negocio. Magnific es un orgullo nacional porque representa lo que muchas compa&#241;&#237;as no consiguen hacer ante una disrupci&#243;n tecnol&#243;gica: detectar la amenaza, reaccionar a tiempo y salir a conquistar el nuevo mercado.</p><p><strong>Y si tienes m&#225;s de un minuto&#8230;</strong></p><div><hr></div><h3>Freepik se rebautiza como Magnific</h3><p>Freepik, la plataforma espa&#241;ola de recursos gr&#225;ficos fundada en 2010, ha pasado a llamarse Magnific. No es un cambio cosm&#233;tico: la empresa adopta el nombre de una de sus herramientas de IA generativa y se&#241;ala con ello un reposicionamiento completo, desde directorio de assets hacia plataforma de creaci&#243;n asistida por inteligencia artificial. La nueva identidad cubre dominio, colores y web. Los usuarios de magnific.ai conservan cuentas, suscripciones y tokens intactos, mientras la plataforma principal en magnific.com agrupa herramientas adicionales: transferencia de estilo, relighting y generaci&#243;n de v&#237;deo. Magnific AI fue la adquisici&#243;n que marc&#243; el cambio de rumbo de Freepik, y es un nombre con suficiente tracci&#243;n como para eclipsar al nombre original. Adem&#225;s el t&#233;rmino &#171;Freepik&#187; arrastraba una connotaci&#243;n de gratuidad dif&#237;cil de reconciliar con un modelo de suscripci&#243;n de IA. La empresa entra ahora en competencia directa con Adobe, Midjourney y otras plataformas de generaci&#243;n visual en un mercado que se mueve deprisa. El reto m&#225;s concreto es la conversi&#243;n: la base hist&#243;rica de Freepik buscaba recursos est&#225;ticos sin coste, y el nuevo producto exige un cambio de h&#225;bito y de disposici&#243;n a pagar.</p><p>El fundador de la compa&#241;&#237;a, <a href="https://x.com/cuenca/status/2049118854513885197">&#120143; @cuenca (Joaqu&#237;n Cuenca Abela)</a>, describi&#243; el anuncio como el mayor en la historia de Freepik y lo resumi&#243; en una frase: &#171;lo que hemos construido ha superado ese nombre&#187;.</p><p><a href="https://x.com/javilopen/status/2049128469989310774">&#120143; @javilopen (Javi Lopez)</a>, cofundador de Magnific AI, cont&#243; que la herramienta creci&#243; sin financiaci&#243;n externa antes de la adquisici&#243;n, y el nombre es tan potente que Freepik decidi&#243; adoptar su marca para toda la compa&#241;&#237;a.</p><p><a href="https://x.com/i/status/2049118854513885197">&#120143; @victorfatanmi (Victor Fatanmi)</a> apunta al problema estructural del nombre anterior: Freepik era utilitario, construido sobre la promesa de lo gratuito y lo accesible, con poco margen para crecer como marca; Magnific no tiene ese techo.</p><p><a href="https://x.com/DotCSV/status/2049129744445137342">&#120143; @DotCSV (Carlos Santana)</a> subray&#243; que el cambio abarca identidad visual, colores y web al completo, no una actualizaci&#243;n parcial, lo que confirma que la empresa apuesta por una ruptura n&#237;tida con su imagen anterior.</p><div><hr></div><h3>NVIDIA lanza Nemotron 3 Nano Omni, modelo multimodal abierto para agentes</h3><p>NVIDIA ha lanzado Nemotron 3 Nano Omni, un modelo de c&#243;digo abierto con 30B de par&#225;metros y arquitectura h&#237;brida Transformer-Mamba con Mixture-of-Experts (MoE). Solo activa 3B de par&#225;metros por inferencia, lo que reduce el coste computacional sin sacrificar capacidad nominal. La ventana de contexto llega a los 256K tokens, una de las m&#225;s amplias entre modelos abiertos de ese tama&#241;o. A diferencia del enfoque habitual, que encadena modelos especializados separados para texto, imagen, audio y v&#237;deo, Nemotron 3 Nano Omni integra las cuatro modalidades en un &#250;nico sistema. Esa multimodalidad tiene ventajas en entornos ag&#233;nticos por presentar menos latencia y por mantener el contexto entre llamadas. El modelo estuvo disponible desde el primer d&#237;a en OpenRouter, Fireworks, DeepInfra, Vultr, Baseten y LM Studio, una distribuci&#243;n simult&#225;nea que no es habitual en lanzamientos de este tipo. NVIDIA se sit&#250;a as&#237; en el espacio de modelos fundacionales abiertos junto a Meta, Google y Mistral, pero con un argumento distinto: infraestructura de inferencia multimodal lista para agentes. Los benchmarks de lanzamiento muestran un rendimiento prometedor, aunque no validan si el modelo mantiene coherencia multimodal real en tareas encadenadas complejas, que es precisamente donde los sistemas de agentes empresariales suelen romperse.</p><p>Para <a href="https://x.com/WesRoth/status/2049307683895808250">&#120143; @WesRoth (Wes Roth)</a>, el valor del modelo no est&#225; en sus cifras sino en el problema que ataca: los agentes actuales sufren latencia alta y contexto fragmentado por depender de varios modelos encadenados, y Nemotron 3 Nano Omni trata de resolver eso con un &#250;nico sistema.</p><p><a href="https://x.com/gmi_cloud/status/2049199623257120927">&#120143; @gmi_cloud (Gmi Cloud)</a> lo prob&#243; sobre im&#225;genes de drones y el modelo devolvi&#243; JSON estructurado con tipo de defecto, severidad y localizaci&#243;n fotograma a fotograma, un caso de uso industrial concreto que ilustra d&#243;nde puede tener tracci&#243;n real.</p><p><a href="https://x.com/tekwendell/status/2049293588953976941">&#120143; @tekwendell (Wendell)</a> ya lo ejecuta localmente en un PC convencional para orquestar scripts de pruebas wifi7 y visualizar resultados, lo que sugiere que el modelo corre con recursos razonables fuera de infraestructura de nube.</p><div><hr></div><h3>Claude se integra en herramientas creativas profesionales</h3><p>Anthropic ha lanzado nueve conectores que integran Claude directamente en software de uso est&#225;ndar en sectores creativos: dise&#241;o gr&#225;fico y vectorial (Adobe Creative Cloud, Affinity by Canva), modelado 3D (Blender, Autodesk Fusion, SketchUp), producci&#243;n musical (Ableton Live, Splice) y v&#237;deo en directo (Resolume). El giro estrat&#233;gico pesa m&#225;s que la lista. Claude deja de operar &#250;nicamente como chat o API para desarrolladores y pasa a funcionar como capa de IA embebida en flujos de trabajo ya consolidados. Hasta ahora, usar Claude dentro de un proyecto de Blender o Ableton exig&#237;a salir del entorno, copiar contexto y volver. Los conectores nativos eliminan esa fricci&#243;n. El movimiento presiona a Adobe, cuya apuesta por Firefly como IA integrada en Creative Cloud lleva ventaja en distribuci&#243;n, y a Canva, que desarrolla su propia IA generativa sobre Affinity. Para Anthropic, cuya penetraci&#243;n fuera del perfil t&#233;cnico era limitada, estos conectores abren una base de usuarios distinta: dise&#241;adores, arquitectos, ingenieros 3D y productores que no necesitan saber qu&#233; es una API para beneficiarse del modelo. Lo que el anuncio no resuelve es si la calidad de la integraci&#243;n est&#225; a la altura de las herramientas que rodea. Publicar un conector es sencillo; conseguir que un dise&#241;ador lo incorpore a su flujo diario, no.</p><p>Para <a href="https://x.com/WesRoth/status/2049322781712478401">&#120143; @WesRoth (Wes Roth)</a>, el lanzamiento representa un cambio de posicionamiento claro: Claude como infraestructura transversal para industrias creativas, no solo como herramienta para perfiles t&#233;cnicos.</p><p>Desde una lectura m&#225;s maximalista, <a href="https://x.com/cryptopunk7213/status/2049308682756764144">&#120143; @cryptopunk7213 (Ejaaz)</a> subraya que la integraci&#243;n con Blender puede automatizar procesos de modelado 3D que a profesionales de arquitectura o ingenier&#237;a les llevan semanas, y que la cobertura de m&#225;s de cincuenta herramientas de Adobe ampl&#237;a el alcance real m&#225;s all&#225; de los nueve conectores titulares.</p><div><hr></div><h3>Las CPUs recuperan peso en infraestructura de IA</h3><p>Durante 2023 y 2024, los centros de datos volcaron el presupuesto en GPUs y redes de interconexi&#243;n. Las CPUs quedaron al margen: la demanda parec&#237;a plana pese al crecimiento masivo de infraestructura. Ese diagn&#243;stico ha cambiado. SemiAnalysis publica un an&#225;lisis del panorama de CPUs para centros de datos en 2026 y sostiene que la recuperaci&#243;n es estructural, no coyuntural. El motor son dos patrones de uso emergentes: el aprendizaje por refuerzo y los agentes de IA, que generan cargas de c&#243;mputo y gesti&#243;n de memoria que las GPUs no cubren de forma eficiente por s&#237; solas. A medida que el despliegue de IA pasa de la fase experimental a la producci&#243;n a escala, los servidores necesitan m&#225;s CPUs de host para orquestar cargas, gestionar almacenamiento y ejecutar inferencia ligera. En ese espacio compiten AMD con las generaciones Venice, Verano y Florence; Intel con Diamond Rapids y Coral Rapids, y el ecosistema Arm, representado por el Graviton 5 de AWS y el Axion de Google. Intel afronta una presi&#243;n doble: rendimiento inferior a AMD en x86 y p&#233;rdida de cuota cloud frente a las soluciones Arm propias de los hiperscalers. La CPU est&#225; tomando dos funciones distintas en los centros de datos de IA: unas CPUs act&#250;an como &#8220;directores de orquesta&#8221;, coordinando y alimentando a las GPUs para que trabajen sin pausas; otras se usan para renovar servidores tradicionales y hacerlos m&#225;s eficientes, liberando energ&#237;a para las cargas de IA. La IA no ha matado a la CPU, simplemente la ha reposicionado.</p><p><a href="https://x.com/SemiAnalysis_/status/2049232466301370736">&#120143; @SemiAnalysis_ (Semianalysis)</a> identifica el aprendizaje por refuerzo y el auge del vibe coding como los factores que m&#225;s han disparado la demanda de CPUs en centros de datos durante los &#250;ltimos seis meses, un dato que no figuraba en ninguna previsi&#243;n de mercado hace un a&#241;o.</p><p>Para <a href="https://x.com/bert_gilfoyle/status/2048114225722335275">&#120143; @bert_gilfoyle (Reasonably Approximating)</a>, la explicaci&#243;n del repunte es menos sofisticada de lo que parece: la demanda total de c&#243;mputo crece m&#225;s deprisa que las ganancias reales de eficiencia de las CPUs, as&#237; que se necesitan m&#225;s unidades aunque cada una no mejore sustancialmente respecto a la anterior.</p><div><hr></div><h3>OpenAI lleva sus modelos frontier a AWS Bedrock</h3><p>OpenAI ha integrado sus modelos de razonamiento m&#225;s avanzados en Amazon Bedrock, el servicio gestionado de IA generativa de AWS. El paso ha sido posible tras una reestructuraci&#243;n del acuerdo de exclusividad con Microsoft: Azure ten&#237;a hasta ahora derechos preferentes sobre la distribuci&#243;n comercial de esos modelos, lo que bloqueaba el acceso de otros proveedores. Con el nuevo acuerdo, los clientes empresariales de AWS pueden usar los modelos de OpenAI desde una plataforma gestionada, sin negociar acceso directo con el laboratorio ni gestionar infraestructura propia. Para Bedrock, que ya aloja modelos de Anthropic, Meta, Mistral y Cohere, la incorporaci&#243;n de OpenAI refuerza su posici&#243;n como hub multiproveedor y lo pone en competencia directa con Azure OpenAI Service en el segmento corporativo. Para OpenAI, el acuerdo abre un canal de distribuci&#243;n hacia una base de clientes que en muchos casos opera sobre AWS de forma prioritaria.</p><p>En la entrevista con <a href="https://x.com/alexeheath/status/2049291915804488089">&#120143; @alexeheath (Alex Heath)</a>, el CEO de AWS Matt Garman fue inusualmente directo: reconoci&#243; que la inversi&#243;n de Microsoft en OpenAI le ha funcionado bien a Redmond, pero asegur&#243; que AWS ser&#225; un socio mejor para el laboratorio, una afirmaci&#243;n poco habitual en el protocolo de este tipo de anuncios.</p><div><hr></div><h3>IA resuelve problema matem&#225;tico de Erd&#337;s de 60 a&#241;os</h3><p>GPT-5.4 Pro contribuy&#243; este mes a cerrar un problema abierto durante seis d&#233;cadas vinculado a la obra de Paul Erd&#337;s, matem&#225;tico h&#250;ngaro conocido por formular cientos de conjeturas sin resolver en combinatoria y teor&#237;a de n&#250;meros. El resultado no sali&#243; de un laboratorio de &#233;lite: Liam Price, un estudiante de 23 a&#241;os sin formaci&#243;n matem&#225;tica avanzada, us&#243; el modelo como herramienta de trabajo y complet&#243; la demostraci&#243;n. Ese detalle reencuadra el anuncio. No se trata de un sistema aut&#243;nomo que resuelve matem&#225;ticas por su cuenta, sino de un asistente que amplifica a alguien que, sin &#233;l, no habr&#237;a tenido acceso a ese nivel de apoyo t&#233;cnico. El hito tiene peso porque los modelos de lenguaje fallaban de forma predecible en razonamiento matem&#225;tico riguroso, sobre todo en problemas que exigen encadenar pasos de demostraci&#243;n no triviales. Si esa barrera empieza a ceder, las implicaciones alcanzan a f&#237;sica te&#243;rica, criptograf&#237;a y bioinform&#225;tica. OpenAI ha aprovechado el momento para estrenar su podcast oficial, donde los investigadores S&#233;bastien Bubeck y Ernest Ryu analizan qu&#233; ha cambiado en la capacidad matem&#225;tica de los modelos. Lo que nadie ha cuantificado todav&#237;a es en qu&#233; medida el modelo aport&#243; razonamiento propio frente a b&#250;squeda sofisticada de patrones: una distinci&#243;n que los propios investigadores del laboratorio tendr&#225;n que precisar.</p><p><a href="https://x.com/OpenAI/status/2049182118069358967">&#120143; @OpenAI (Openai)</a> no presenta el resultado como un logro aut&#243;nomo del modelo, sino como una colaboraci&#243;n entre GPT-5.4 Pro y un investigador humano, un matiz que el laboratorio subraya deliberadamente para situar el avance en el marco de herramienta, no de agente independiente.</p><p>Para <a href="https://x.com/WesRoth/status/2049093737788456964">&#120143; @WesRoth (Wes Roth)</a>, el dato m&#225;s llamativo no es el modelo sino qui&#233;n lo us&#243;: que un joven de 23 a&#241;os sin formaci&#243;n matem&#225;tica avanzada haya podido cerrar un problema de sesenta a&#241;os apunta a que el acceso a razonamiento de frontera ya no est&#225; reservado a grupos de investigaci&#243;n establecidos.</p><div><hr></div><h3>AGI: debate sobre capacidades actuales y sus l&#237;mites</h3><p>El debate sobre si los modelos actuales han cruzado alg&#250;n umbral relevante ha ganado intensidad esta semana, impulsado por varias declaraciones p&#250;blicas que apuntan en direcciones distintas. El punto de partida es concreto: el rendimiento de Claude integrado en Excel ha llevado a un analista de referencia del sector a admitir que la distinci&#243;n entre AGI y &#171;modelo muy capaz&#187; ha perdido utilidad pr&#225;ctica. Lo que a&#241;ade peso a esa observaci&#243;n es que ese rendimiento se obtiene con la generaci&#243;n de hardware actual, antes de que las arquitecturas Blackwell y Rubin de NVIDIA est&#233;n desplegadas. Si los modelos ya se comportan as&#237; con los chips de hoy, la pregunta sobre qu&#233; ocurrir&#225; con los de ma&#241;ana no es ret&#243;rica. En paralelo, Sam Altman afirma que los modelos actuales generan conocimiento cient&#237;fico nuevo de forma aut&#243;noma, un umbral conceptual distinto al de cualquier herramienta anterior. Y Dario Amodei habla de la destrucci&#243;n del 50% del empleo de cuello blanco en uno a cinco a&#241;os. Sin embargo, los cuellos de botella en infraestructura el&#233;ctrica y semiconductores son una variable que los pron&#243;sticos m&#225;s aceleracionistas ignoran con demasiada frecuencia. Y en el fondo de todo esto opera una tensi&#243;n m&#225;s dif&#237;cil de resolver: si un modelo razona aplicando relaciones causa efecto a partir de un modelo del mundo, o bien aplicando patrones de razonamiento similares a los que ha visto durante el entrenamiento a un nivel inabarcable por nuestro cerebro.</p><p>La afirmaci&#243;n de <a href="https://x.com/SemiAnalysis_/status/2048945450367996250">&#120143; @SemiAnalysis_ (Semianalysis)</a> no describe una l&#237;nea t&#233;cnica formal cruzada, sino algo m&#225;s inc&#243;modo: que en aplicaciones cotidianas como Excel, la distinci&#243;n entre AGI y &#171;modelo muy capaz&#187; ha dejado de ser operativa para muchos usuarios.</p><p>Donde Amodei ve destrucci&#243;n masiva de empleo en cinco a&#241;os, <a href="https://x.com/pmddomingos/status/2049196816214995107">&#120143; @pmddomingos (Pedro Domingos)</a> introduce la variable que los pron&#243;sticos m&#225;s alarmistas ignoran: la infraestructura el&#233;ctrica y los semiconductores disponibles no dan para ese ritmo, y eso no cambia por decreto.</p><div><hr></div><h3>Vibe coding: &#191;qui&#233;n gana y qui&#233;n pierde?</h3><p>El vibe coding, desarrollo de software asistido por IA en el que el usuario describe lo que quiere y el modelo genera el c&#243;digo, lleva meses ganando terreno entre desarrolladores y perfiles no t&#233;cnicos. Esta semana el debate ha subido un pelda&#241;o: ya no se discute solo si funciona, sino qu&#233; consecuencias tiene para la inversi&#243;n y el empleo. La tesis m&#225;s inc&#243;moda es que, si cualquiera puede generar software funcional con un prompt, el c&#243;digo deja de ser ventaja competitiva. El valor se desplaza hacia los datos, la distribuci&#243;n y el dise&#241;o, lo que presiona directamente a las startups cuyo &#250;nico diferencial es la calidad de su ingenier&#237;a. Hay, con todo, un l&#237;mite claro a ese argumento: generar c&#243;digo es solo la primera parte del problema. Mantenerlo, integrarlo con otros sistemas y garantizar su seguridad sigue siendo una carga real, y ah&#237; los productos consolidados con a&#241;os de desarrollo acumulado mantienen una ventaja dif&#237;cil de replicar con prompts. El tercer frente es el laboral. Algunos analistas no ven destrucci&#243;n neta de empleo, sino una reorganizaci&#243;n hacia equipos m&#225;s peque&#241;os que trabajan junto a agentes y se concentran en problemas de mayor abstracci&#243;n, mientras las capas rutinarias quedan automatizadas. Las tres tesis conviven sin resolverse: cu&#225;nto software corporativo migrar&#225; a desarrollo interno, a qu&#233; ritmo y con qu&#233; coste real de mantenimiento son variables que el mercado a&#250;n no ha medido con datos suficientes.</p><p>En su nuevo podcast, <a href="https://x.com/naval/status/2049349249905951175">&#120143; @naval (Naval)</a> sostiene que la IA democratiza la creaci&#243;n de software hasta el punto de hacer &#8216;no invertible&#8217; el software puro, lo que obliga a repensar d&#243;nde reside el valor diferencial de una empresa tecnol&#243;gica.</p><p><a href="https://x.com/Dan_Jeffries1/status/2049191427574313340">&#120143; @Dan_Jeffries1 (Daniel Jeffries)</a> descarta el &#8216;SaaSpocalypse&#8217; con un argumento de coste operativo: ninguna empresa en su sano juicio va a construir y mantener su propio Figma, su propio Intuit o su propio Adobe, y esa carga de mantenimiento es exactamente lo que el vibe coding no resuelve. Tambi&#233;n anticipa una oleada de nuevos empleos centrados en la coordinaci&#243;n entre agentes y personas, equipos m&#225;s &#225;giles y problemas de mayor abstracci&#243;n conceptual.</p><div><hr></div><h3>Un material amenaza los chips de IA</h3><p>Hay un material en pel&#237;cula fina sin el que no se fabrica ning&#250;n procesador avanzado: ni GPUs, ni TPUs, ni ASICs personalizados. Un &#250;nico proveedor japon&#233;s controla el 98% de la producci&#243;n global. No existen alternativas listas para fabricaci&#243;n industrial, la capacidad est&#225; comprometida hasta 2027 y los plazos de entrega ya se est&#225;n alargando. El sector ha dedicado mucho an&#225;lisis a las fundiciones, la energ&#237;a y el dise&#241;o de chips, pero un insumo qu&#237;mico de bajo perfil puede resultar igual de determinante. Si ese proveedor sufre una interrupci&#243;n o no ampl&#237;a capacidad a tiempo, el impacto no recaer&#237;a sobre un fabricante concreto: afectar&#237;a a toda la oferta de chips avanzados de forma simult&#225;nea. La presi&#243;n sobre costes ya es visible, con subidas de precio en curso. Lo que est&#225; por definir es si alg&#250;n actor industrial, ya sea un chipmaker, un gobierno o un consorcio, iniciar&#225; inversiones para diversificar el suministro antes de que 2027 llegue sin margen de maniobra.</p><p>Para <a href="https://x.com/SemiAnalysis_/status/2049172028314288520">&#120143; @SemiAnalysis_ (Semianalysis)</a>, el riesgo no est&#225; en el dise&#241;o del chip ni en la fundici&#243;n, sino en un material sin alternativa industrial real. Su lectura es que el cuello de botella ya no es potencial: est&#225; afectando a precios y tiempos de entrega ahora mismo.</p><div><hr></div><p><em><strong>Gracias por leer 1 Minuto de IA.</strong> Si te ha gustado esta edici&#243;n, no te olvides de dar al &#9825; y de compartirla por redes sociales o por email con otras personas a las que creas que les pueda interesar.</em></p><div class="subscription-widget-wrap-editor" data-attrs="{&quot;url&quot;:&quot;https://explicable.iia.es/subscribe?&quot;,&quot;text&quot;:&quot;Suscribirse&quot;,&quot;language&quot;:&quot;es&quot;}" data-component-name="SubscribeWidgetToDOM"><div class="subscription-widget show-subscribe"><div class="preamble"><p class="cta-caption">Suscr&#237;bete gratis para recibir nuevos posts y apoyar este proyecto.</p></div><form class="subscription-widget-subscribe"><input type="email" class="email-input" name="email" placeholder="Escribe tu correo electr&#243;nico..." tabindex="-1"><input type="submit" class="button primary" value="Suscribirse"><div class="fake-input-wrapper"><div class="fake-input"></div><div class="fake-button"></div></div></form></div></div>]]></content:encoded></item><item><title><![CDATA[OpenAI le quita la exclusividad a Microsoft]]></title><description><![CDATA[Las acciones de Microsoft bajan ante la noticia y despu&#233;s se recuperan.]]></description><link>https://explicable.iia.es/p/openai-le-quita-la-exclusividad-a</link><guid isPermaLink="false">https://explicable.iia.es/p/openai-le-quita-la-exclusividad-a</guid><dc:creator><![CDATA[Miguel A. Román]]></dc:creator><pubDate>Tue, 28 Apr 2026 11:20:49 GMT</pubDate><enclosure url="https://substackcdn.com/image/fetch/$s_!eObZ!,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fefe94bfe-5677-436b-9e8c-2e070ff3bce3_1672x941.png" length="0" type="image/jpeg"/><content:encoded><![CDATA[<div class="captioned-image-container"><figure><a class="image-link image2 is-viewable-img" target="_blank" href="https://substackcdn.com/image/fetch/$s_!eObZ!,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fefe94bfe-5677-436b-9e8c-2e070ff3bce3_1672x941.png" data-component-name="Image2ToDOM"><div class="image2-inset"><picture><source type="image/webp" srcset="https://substackcdn.com/image/fetch/$s_!eObZ!,w_424,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fefe94bfe-5677-436b-9e8c-2e070ff3bce3_1672x941.png 424w, https://substackcdn.com/image/fetch/$s_!eObZ!,w_848,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fefe94bfe-5677-436b-9e8c-2e070ff3bce3_1672x941.png 848w, https://substackcdn.com/image/fetch/$s_!eObZ!,w_1272,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fefe94bfe-5677-436b-9e8c-2e070ff3bce3_1672x941.png 1272w, https://substackcdn.com/image/fetch/$s_!eObZ!,w_1456,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fefe94bfe-5677-436b-9e8c-2e070ff3bce3_1672x941.png 1456w" sizes="100vw"><img src="https://substackcdn.com/image/fetch/$s_!eObZ!,w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fefe94bfe-5677-436b-9e8c-2e070ff3bce3_1672x941.png" width="1456" height="819" data-attrs="{&quot;src&quot;:&quot;https://substack-post-media.s3.amazonaws.com/public/images/efe94bfe-5677-436b-9e8c-2e070ff3bce3_1672x941.png&quot;,&quot;srcNoWatermark&quot;:null,&quot;fullscreen&quot;:null,&quot;imageSize&quot;:null,&quot;height&quot;:819,&quot;width&quot;:1456,&quot;resizeWidth&quot;:null,&quot;bytes&quot;:1816311,&quot;alt&quot;:null,&quot;title&quot;:null,&quot;type&quot;:&quot;image/png&quot;,&quot;href&quot;:null,&quot;belowTheFold&quot;:false,&quot;topImage&quot;:true,&quot;internalRedirect&quot;:&quot;https://explicable.iia.es/i/195717337?img=https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fefe94bfe-5677-436b-9e8c-2e070ff3bce3_1672x941.png&quot;,&quot;isProcessing&quot;:false,&quot;align&quot;:null,&quot;offset&quot;:false}" class="sizing-normal" alt="" srcset="https://substackcdn.com/image/fetch/$s_!eObZ!,w_424,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fefe94bfe-5677-436b-9e8c-2e070ff3bce3_1672x941.png 424w, https://substackcdn.com/image/fetch/$s_!eObZ!,w_848,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fefe94bfe-5677-436b-9e8c-2e070ff3bce3_1672x941.png 848w, https://substackcdn.com/image/fetch/$s_!eObZ!,w_1272,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fefe94bfe-5677-436b-9e8c-2e070ff3bce3_1672x941.png 1272w, https://substackcdn.com/image/fetch/$s_!eObZ!,w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fefe94bfe-5677-436b-9e8c-2e070ff3bce3_1672x941.png 1456w" sizes="100vw" fetchpriority="high"></picture><div class="image-link-expand"><div class="pencraft pc-display-flex pc-gap-8 pc-reset"><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container restack-image"><svg role="img" width="20" height="20" viewBox="0 0 20 20" fill="none" stroke-width="1.5" stroke="var(--color-fg-primary)" stroke-linecap="round" stroke-linejoin="round" xmlns="http://www.w3.org/2000/svg"><g><title></title><path d="M2.53001 7.81595C3.49179 4.73911 6.43281 2.5 9.91173 2.5C13.1684 2.5 15.9537 4.46214 17.0852 7.23684L17.6179 8.67647M17.6179 8.67647L18.5002 4.26471M17.6179 8.67647L13.6473 6.91176M17.4995 12.1841C16.5378 15.2609 13.5967 17.5 10.1178 17.5C6.86118 17.5 4.07589 15.5379 2.94432 12.7632L2.41165 11.3235M2.41165 11.3235L1.5293 15.7353M2.41165 11.3235L6.38224 13.0882"></path></g></svg></button><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container view-image"><svg xmlns="http://www.w3.org/2000/svg" width="20" height="20" viewBox="0 0 24 24" fill="none" stroke="currentColor" stroke-width="2" stroke-linecap="round" stroke-linejoin="round" class="lucide lucide-maximize2 lucide-maximize-2"><polyline points="15 3 21 3 21 9"></polyline><polyline points="9 21 3 21 3 15"></polyline><line x1="21" x2="14" y1="3" y2="10"></line><line x1="3" x2="10" y1="21" y2="14"></line></svg></button></div></div></div></a></figure></div><p><strong>&#191;Qu&#233; pas&#243; el lunes? En un minuto:</strong></p><p>OpenAI y Microsoft han renegociado los t&#233;rminos de una alianza que mantienen desde 2019 y que ha ido cambiando con el tiempo. El punto m&#225;s importante es que Microsoft pierde la exclusividad cloud: OpenAI ya no queda limitada a Azure y podr&#225; ofrecer sus modelos y productos tambi&#233;n a trav&#233;s de otros proveedores. Aun as&#237;, no estamos ante una ruptura. Microsoft sigue siendo su socio principal y conserva acceso preferente a la tecnolog&#237;a m&#225;s avanzada de OpenAI, al menos hasta 2032.</p><p>En paralelo, toda la industria se est&#225; moviendo hacia los flujos de trabajo ag&#233;nticos: sistemas de IA capaces de programar, revisar c&#243;digo, usar herramientas y ejecutar tareas completas dentro de entornos digitales. Pero el caso de PocketOS, donde un agente habr&#237;a borrado una base de datos de producci&#243;n, recuerda el gran riesgo de esta nueva etapa: los agentes todav&#237;a fallan, improvisan y pueden causar da&#241;os reales si operan con permisos excesivos o sin supervisi&#243;n suficiente.</p><p>Como plantea Satya Nadella, el cuello de botella ya no est&#225; solo en la capacidad de los modelos. Esa capacidad ya existe en gran medida. El reto ahora es que las empresas aprendan a adoptarla de forma segura. La comparaci&#243;n con la conducci&#243;n aut&#243;noma es clara: la tecnolog&#237;a puede estar preparada para muchas tareas, pero su despliegue masivo exige confianza, controles, supervisi&#243;n y una capa de seguridad antes de dejar que tome decisiones o ejecute acciones cr&#237;ticas. El &#8216;harness&#8217; de los agentes es el tema de moda en la industria.</p><p><strong>Y si tienes m&#225;s de un minuto&#8230;</strong></p><div><hr></div><h3>OpenAI y Microsoft actualizan su acuerdo hasta 2032</h3><p>Sam Altman ha anunciado que OpenAI ha actualizado su acuerdo con Microsoft. Seg&#250;n Altman, Microsoft seguir&#225; siendo su socio principal en la nube, pero OpenAI podr&#225; ofrecer sus productos y servicios en cualquier proveedor cloud, no solo en Azure. Tambi&#233;n ha dicho que OpenAI seguir&#225; proporcionando a Microsoft modelos y productos hasta 2032, dentro de un acuerdo que incluye reparto de ingresos. Los t&#233;rminos exactos de ese reparto no se han detallado p&#250;blicamente.

Microsoft entr&#243; con fuerza en 2019, invirtiendo en OpenAI y convirtiendo Azure en la infraestructura clave para entrenar y desplegar sus modelos; tras el &#233;xito de ChatGPT, reforz&#243; la relaci&#243;n en 2023 con una inversi&#243;n multianual y multimillonaria que permiti&#243; integrar la tecnolog&#237;a de OpenAI en productos como Bing, Copilot, Office y Azure AI. A cambio, OpenAI obtuvo capital, computaci&#243;n y distribuci&#243;n global; Microsoft, acceso preferente a los modelos m&#225;s avanzados del mercado.</p><p>Tras este anuncio, la relaci&#243;n ha evolucionado hacia una f&#243;rmula menos exclusiva: Microsoft sigue siendo un socio central y conserva licencia sobre la tecnolog&#237;a de OpenAI, pero OpenAI ha ganado margen para trabajar con otros proveedores y operar con mayor independencia.</p><p>El propio <a href="https://x.com/sama/status/2048755148361707946">&#120143; @sama (Sam Altman)</a> anuncia el acuerdo subrayando que Microsoft sigue como socio principal, pero sin exclusividad, lo que convierte el comunicado en algo inusual: una declaraci&#243;n de apertura sin ruptura formal.</p><p>Para <a href="https://x.com/Pirat_Nation/status/2048839601448722638">&#120143; @Pirat_Nation (Pirat_Nation)</a>, el cambio tiene dos caras: Microsoft deja de cobrar su parte en la reventa de productos de IA y pierde la exclusividad sobre Azure, dos concesiones que no son menores en la econom&#237;a del acuerdo original.</p><p><a href="https://x.com/CHItrader/status/2048910244944732346">&#120143; @CHItrader (Chitrader)</a> resalta que OpenAI podr&#225; licenciar sus modelos a competidores de Azure, lo que convierte a Google Cloud y AWS en posibles beneficiarios directos de esta renegociaci&#243;n.</p><div><hr></div><h3>La batalla por liderar los agentes de programaci&#243;n</h3><p>Los agentes de programaci&#243;n son los primeros agentes de IA que est&#225;n  poniendo patas arriba el sector del desarrollo de software. Estos agentes no solo sugieren l&#237;neas de c&#243;digo, sino que ya pueden revisar errores, entender proyectos grandes y encargarse de tareas completas. Seg&#250;n el <a href="https://newsletter.semianalysis.com/p/the-coding-assistant-breakdown-more?_gl=1*1ew1giz*_ga*MzgyNDU0ODA4LjE3NzczMDA0NTM.*_ga_FKWNM9FBZ3*czE3NzczMDA0NTIkbzEkZzAkdDE3NzczMDA0NTIkajYwJGwwJGgxNzc4MzMxMjIz">informe de SemiAnalysis</a>, OpenAI ha vuelto a ganar terreno con su herramienta Codex, impulsada por GPT-5.5. El texto sostiene que algunos desarrolladores que antes usaban casi siempre Claude, de Anthropic, ahora combinan Claude y Codex seg&#250;n el tipo de trabajo.</p><p>Seg&#250;n su propia experiencia, Codex parece mejor cuando hay que analizar c&#243;digo ya existente, encontrar fallos o revisar cambios, mientras que Claude sigue siendo muy &#250;til para empezar proyectos desde cero, proponer ideas y ofrecer una experiencia m&#225;s c&#243;moda al usuario. El informe tambi&#233;n advierte de que no conviene fijarse solo en los benchmarks oficiales. Muchas pruebas comparativas no reflejan bien c&#243;mo funcionan estas herramientas en el trabajo diario. Lo importante ya no es solo cu&#225;l responde mejor en un examen, sino cu&#225;l ayuda a terminar una tarea real de forma m&#225;s r&#225;pida, fiable y barata. Esto convierte el gasto en tokens de cada modelo para una misma tarea en una medida de desempe&#241;o cada vez m&#225;s relevante.</p><p>El informe tambi&#233;n destaca DeepSeek, una alternativa abierta que ha mejorado mucho y puede manejar textos y proyectos muy largos, aunque todav&#237;a no alcanza del todo a los sistemas m&#225;s avanzados de empresas como OpenAI o Anthropic.</p><div><hr></div><h3>Un agente de IA borr&#243; la base de datos de producci&#243;n de PocketOS</h3><p>Un agente de IA integrado en Cursor y ejecutando Claude Opus 4.6 habr&#237;a eliminado, seg&#250;n el fundador de PocketOS, la base de datos de producci&#243;n de la compa&#241;&#237;a y sus copias asociadas en una &#250;nica llamada a la API de Railway. La empresa, que proporciona software cr&#237;tico a negocios de alquiler de veh&#237;culos, perdi&#243; registros de reservas, clientes y operaciones de los &#250;ltimos tres meses, obligando a sus clientes a reconstruir manualmente informaci&#243;n desde Stripe, calendarios y correos electr&#243;nicos. El incidente no se produjo durante una intervenci&#243;n deliberada sobre producci&#243;n, sino en el contexto de una tarea rutinaria en un entorno de pruebas: ante un problema de credenciales, el agente decidi&#243; actuar por su cuenta, localiz&#243; un token con permisos amplios y ejecut&#243; una operaci&#243;n destructiva sin confirmaci&#243;n humana.</p><p>El caso expone una vulnerabilidad estructural en la adopci&#243;n empresarial de agentes de IA: la automatizaci&#243;n est&#225; llegando a sistemas cr&#237;ticos antes de que existan controles suficientemente robustos. La lecci&#243;n para los equipos directivos es clara: los agentes no pueden depender solo de instrucciones en lenguaje natural ni de promesas de seguridad del proveedor. Deben operar con permisos m&#237;nimos, separaci&#243;n estricta entre entornos, confirmaciones externas para acciones irreversibles y copias de seguridad fuera del mismo radio de fallo. La productividad de los agentes ser&#225; relevante, pero su despliegue en producci&#243;n exige una nueva disciplina de gobierno: tratar a la IA no como un asistente inocuo, sino como un operador con capacidad real de modificar o destruir activos cr&#237;ticos de la empresa.</p><p>Para Wes Roth (<a href="https://x.com/WesRoth/status/2048960398414450809">&#120143; @WesRoth (Wes Roth)</a>), la combinaci&#243;n de velocidad y alcance total del da&#241;o convierte este caso en un ejemplo directo de por qu&#233; los agentes con acceso a infraestructura cr&#237;tica necesitan controles que vayan m&#225;s all&#225; de la configuraci&#243;n por defecto del entorno de desarrollo.</p><div><hr></div><h3>Nadella: el cuello de botella pasa de los modelos a la adopci&#243;n</h3><p>Satya Nadella, consejero delegado de Microsoft, ha afirmado que la IA ha entrado en una fase de &#8220;model overhang&#8221;: las capacidades de los modelos ya existentes superan lo que el mercado y las organizaciones est&#225;n absorbiendo y aplicando. Seg&#250;n ese planteamiento, la frontera competitiva se desplaza desde construir modelos m&#225;s potentes hacia desplegar, integrar y monetizar la IA disponible. La declaraci&#243;n se atribuye a una entrevista con Trevor Long en Australia.<br><br>Para <a href="https://x.com/vitrupo/status/2048748083513798864">&#120143; @vitrupo (Vitrupo)</a>, la lectura es directa: Nadella sit&#250;a la frontera competitiva fuera de los laboratorios de investigaci&#243;n y dentro de lo que el mundo sea capaz de hacer con los modelos que ya est&#225;n disponibles.</p><div><hr></div><h3>Anthropic contra OpenClaw y Hermes</h3><p>Un usuario de Claude Code ha denunciado un fallo de facturaci&#243;n que le habr&#237;a costado alrededor de 200 d&#243;lares por una anomal&#237;a ligada a la cadena <code>HERMES.md</code> en el historial de commits de Git. Seg&#250;n el reporte, Claude Code incorporaba esa referencia al contexto y la interpretaba como se&#241;al de uso bajo un entorno externo o &#8220;third-party harness&#8221;. El resultado fue que algunas peticiones dejaron de computar contra la cuota incluida en su plan Max y pasaron a cargarse como consumo adicional, pese a que el usuario a&#250;n ten&#237;a capacidad disponible en su suscripci&#243;n.</p><p>El incidente apunta a un riesgo igualmente relevante para la adopci&#243;n empresarial: la opacidad de los sistemas de clasificaci&#243;n, permisos y facturaci&#243;n cuando los agentes operan con contexto amplio. Una simple coincidencia textual no deber&#237;a alterar el modelo de cobro ni activar rutas de consumo econ&#243;mico sin una explicaci&#243;n clara y una confirmaci&#243;n expl&#237;cita. Recordemos que Anthropic ya cerr&#243; la v&#237;a que permit&#237;a usar suscripciones de Claude Pro y Max para alimentar agentes externos derivados o inspirados en OpenClaw y Hermes. La compa&#241;&#237;a justific&#243; el cambio por la presi&#243;n que estos agentes impon&#237;an sobre su infraestructura y porque esos patrones de uso no encajaban con el dise&#241;o econ&#243;mico de las suscripciones.</p><p><a href="https://x.com/giffmana/status/2048649068583223657">&#120143; @giffmana (Lucas Beyer (Bl16))</a> argumenta que el debate generado en torno al incidente HERMES.md comete un error de diagn&#243;stico: atribuir el fallo al entorno de ejecuci&#243;n segura de un agente es quedarse en la superficie y desv&#237;a la atenci&#243;n del problema real en el sistema subyacente.</p><div><hr></div><h3>Musk intensifica su disputa p&#250;blica y legal con OpenAI</h3><p>Elon Musk ha vuelto a cargar p&#250;blicamente contra OpenAI y Sam Altman en X mientras mantiene su disputa legal con la organizaci&#243;n. OpenAI se fund&#243; en 2015 como entidad sin &#225;nimo de lucro; Musk fue cofundador, abandon&#243; su consejo en 2018 y despu&#233;s ha litigado contra la compa&#241;&#237;a. Musk sostiene que OpenAI se ha desviado de su misi&#243;n original al avanzar hacia una estructura con &#225;nimo de lucro vinculada a Microsoft. OpenAI responde que Musk conoc&#237;a y apoy&#243; en su momento la necesidad de una estructura con &#225;nimo de lucro para atraer capital y talento, y que ahora utiliza la demanda para perjudicar a un competidor, dado que Musk controla xAI.</p><p>En el momento de la fundaci&#243;n Musk anunci&#243; un compromiso de financiaci&#243;n de 1.000 millones de d&#243;lares para OpenAI, pero esa no fue la cantidad que &#233;l desembols&#243; personalmente. OpenAI afirma que, en realidad, la organizaci&#243;n sin &#225;nimo de lucro recibi&#243; de Musk menos de 45 millones de d&#243;lares. La clave es que sus aportaciones fueron tratadas como donaciones a una organizaci&#243;n sin &#225;nimo de lucro, no como una inversi&#243;n con acciones o participaci&#243;n econ&#243;mica. El juicio dar&#225; comienzo esta semana una vez se ha completado la selecci&#243;n del jurado en el tribunal federal de Oakland, California. </p><p><a href="https://x.com/elonmusk/status/2048834768754663813">&#120143; @elonmusk (Elon Musk)</a> resume su posici&#243;n en dos registros: uno moral, afirmando que &#171;robaron una organizaci&#243;n sin &#225;nimo de lucro&#187; y que &#171;no est&#225; bien&#187;, y uno personal, llamando a Sam Altman &#171;Scam Altman&#187;, apodo que lleva usando en sus comunicaciones p&#250;blicas desde hace meses.</p><div><hr></div><h3>Xiaomi publica MiMo-V2.5 en c&#243;digo abierto con licencia MIT</h3><p>Xiaomi ha presentado MiMo-V2.5 y MiMo-V2.5-Pro, dos nuevos modelos enfocados en el uso de agentes de IA. MiMo-V2.5 est&#225; dise&#241;ado para combinar comprensi&#243;n multimodal con uso pr&#225;ctico en flujos de trabajo complejos; la versi&#243;n Pro sube la apuesta con una arquitectura mucho mayor y con ejemplos orientados a tareas prolongadas, como desarrollar software o interactuar con herramientas externas durante muchas etapas. Xiaomi apuesta por que sus modelos no sean solo una demo de laboratorio, sino piezas reutilizables para construir productos y sistemas de IA reales.</p><p>La parte m&#225;s relevante del anuncio no est&#225; solo en la capacidad t&#233;cnica que est&#225; por ver, sino en la licencia. Ambos modelos aparecen publicados en Hugging Face con licencia MIT, una de las licencias abiertas m&#225;s permisivas. La licencia permite uso comercial, entrenamiento continuo y ajuste fino sin autorizaciones adicionales. Xiaomi est&#225; enviando un mensaje claro: competir tambi&#233;n significa reducir las barreras legales y comerciales para que terceros construyan sobre su tecnolog&#237;a.</p><p>Para Wes Roth (<a href="https://x.com/WesRoth/status/2048915100724003327">&#120143; @WesRoth (Wes Roth)</a>), la combinaci&#243;n de licencia MIT irrestricta y escala de par&#225;metros comparable a modelos de frontera convierte el lanzamiento en una opci&#243;n directamente utilizable en producci&#243;n comercial, sin negociaciones de licencia.</p><p>Adina Yakup (<a href="https://x.com/AdinaYakup/status/2048847668672139592">&#120143; @AdinaYakup (Adina Yakup)</a>) destaca la naturaleza omnimodal nativa del modelo y su dise&#241;o espec&#237;fico para agentes como el rasgo que lo diferencia de otras apuestas recientes de c&#243;digo abierto.</p><p>Ahmad Osman (<a href="https://x.com/TheAhmadOsman/status/2048831095584534941">&#120143; @TheAhmadOsman (Ahmad)</a>) sit&#250;a MiMo-V2.5 Pro entre los mejores modelos de c&#243;digo abierto disponibles, una valoraci&#243;n que apoya en las especificaciones publicadas pero sin benchmarks verificados de forma independiente.</p><div><hr></div><h3>Robotaxis: Waymo destaca en cobertura operativa, seg&#250;n Car and Driver</h3><p>La conducci&#243;n aut&#243;noma empieza a abandonar el territorio de la promesa tecnol&#243;gica para entrar en una nueva etapa de despliegue comercial. Seg&#250;n <em>Car and Driver</em>, Waymo, filial de Alphabet, opera ya m&#225;s de 800 veh&#237;culos aut&#243;nomos en una zona de 260 millas cuadradas en el &#225;rea de San Francisco, adem&#225;s de ofrecer servicio en mercados como Phoenix, Los &#193;ngeles, Miami, Atlanta y Austin. La compa&#241;&#237;a se consolida as&#237; como el actor m&#225;s avanzado del robotaxi en Estados Unidos, mientras Zoox, respaldada por Amazon, avanza con una propuesta m&#225;s radical: un veh&#237;culo dise&#241;ado desde cero para circular sin volante, pedales ni conductor humano.</p><p>El gran interrogante sigue siendo la seguridad. Waymo asegura haber superado los 200 millones de millas conducidas de forma aut&#243;noma y sostiene que sus datos muestran un desempe&#241;o m&#225;s seguro que el de los humanos, aunque <em>Car and Driver</em> advierte de la dificultad de verificar estas afirmaciones sin corroboraci&#243;n independiente. En paralelo, Tesla mantiene una estrategia distinta, basada solo en c&#225;maras y sin radar ni lidar, lo que reduce costes pero abre un debate todav&#237;a no resuelto sobre robustez y seguridad. La movilidad aut&#243;noma ya no es ciencia ficci&#243;n; es una industria en construcci&#243;n. Pero su adopci&#243;n masiva depender&#225; de si puede demostrar, de forma transparente y sostenida, que es m&#225;s segura, m&#225;s eficiente y m&#225;s fiable que el conductor humano.</p><div><hr></div><h3>David Silver defiende el aprendizaje por refuerzo para el pr&#243;ximo salto</h3><p>David Silver, conocido por su trabajo en AlphaGo y AlphaZero en Google DeepMind, compar&#243; los datos humanos con un &#8220;combustible f&#243;sil&#8221; para la IA en una conversaci&#243;n de abril de 2025: un recurso finito que, seg&#250;n su planteamiento, limita la escala de los modelos entrenados sobre texto humano. Como alternativa, defendi&#243; el aprendizaje por refuerzo, en el que los sistemas mejoran a partir de las consecuencias de sus propias acciones. Silver ha fundado Ineffable Intelligence. La empresa ha anunciado una ronda seed de 1.100 millones de d&#243;lares y la creaci&#243;n de un &#8220;superlearner&#8221; que aprenda desde su propia experiencia.<br><br>La met&#225;fora del combustible f&#243;sil no es decorativa: para <a href="https://x.com/vitrupo/status/2048828576355758170">&#120143; @vitrupo (Vitrupo)</a>, Silver ve el aprendizaje por refuerzo no como una mejora incremental sobre los LLM actuales, sino como la alternativa estructural a su dependencia de datos humanos.</p><p><a href="https://x.com/AndrewCurran_/status/2048917794671165564">&#120143; @AndrewCurran_ (Andrew Curran)</a> conecta la misi&#243;n de Ineffable Intelligence con la direcci&#243;n que lleva tiempo explorando Demis Hassabis, lo que sugiere que Silver y el fundador de DeepMind comparten una misma apuesta de fondo sobre el siguiente paso de la IA.</p><div><hr></div><p><em><strong>Gracias por leer 1 Minuto de IA.</strong> Si te ha gustado esta edici&#243;n, no te olvides de dar al &#9825; y de compartirla por redes sociales o por email con otras personas a las que creas que les pueda interesar.</em></p><div class="subscription-widget-wrap-editor" data-attrs="{&quot;url&quot;:&quot;https://explicable.iia.es/subscribe?&quot;,&quot;text&quot;:&quot;Suscribirse&quot;,&quot;language&quot;:&quot;es&quot;}" data-component-name="SubscribeWidgetToDOM"><div class="subscription-widget show-subscribe"><div class="preamble"><p class="cta-caption">Suscr&#237;bete gratis para recibir nuevos posts y apoyar este proyecto.</p></div><form class="subscription-widget-subscribe"><input type="email" class="email-input" name="email" placeholder="Escribe tu correo electr&#243;nico..." tabindex="-1"><input type="submit" class="button primary" value="Suscribirse"><div class="fake-input-wrapper"><div class="fake-input"></div><div class="fake-button"></div></div></form></div></div>]]></content:encoded></item><item><title><![CDATA[GPT-5.5: OpenAI vuelve a mover el listón]]></title><description><![CDATA[Lo esencial de la IA, cada d&#237;a, para no quedarte atr&#225;s.]]></description><link>https://explicable.iia.es/p/gpt-55-openai-vuelve-a-mover-el-liston</link><guid isPermaLink="false">https://explicable.iia.es/p/gpt-55-openai-vuelve-a-mover-el-liston</guid><dc:creator><![CDATA[Miguel A. Román]]></dc:creator><pubDate>Fri, 24 Apr 2026 09:43:22 GMT</pubDate><enclosure url="https://substackcdn.com/image/fetch/$s_!X-9r!,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F5dcae8b2-91c0-459a-8d18-b3bb1778b71b_1450x1085.png" length="0" type="image/jpeg"/><content:encoded><![CDATA[<div class="captioned-image-container"><figure><a class="image-link image2 is-viewable-img" target="_blank" href="https://substackcdn.com/image/fetch/$s_!X-9r!,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F5dcae8b2-91c0-459a-8d18-b3bb1778b71b_1450x1085.png" data-component-name="Image2ToDOM"><div class="image2-inset"><picture><source type="image/webp" srcset="https://substackcdn.com/image/fetch/$s_!X-9r!,w_424,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F5dcae8b2-91c0-459a-8d18-b3bb1778b71b_1450x1085.png 424w, https://substackcdn.com/image/fetch/$s_!X-9r!,w_848,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F5dcae8b2-91c0-459a-8d18-b3bb1778b71b_1450x1085.png 848w, https://substackcdn.com/image/fetch/$s_!X-9r!,w_1272,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F5dcae8b2-91c0-459a-8d18-b3bb1778b71b_1450x1085.png 1272w, https://substackcdn.com/image/fetch/$s_!X-9r!,w_1456,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F5dcae8b2-91c0-459a-8d18-b3bb1778b71b_1450x1085.png 1456w" sizes="100vw"><img src="https://substackcdn.com/image/fetch/$s_!X-9r!,w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F5dcae8b2-91c0-459a-8d18-b3bb1778b71b_1450x1085.png" width="1450" height="1085" data-attrs="{&quot;src&quot;:&quot;https://substack-post-media.s3.amazonaws.com/public/images/5dcae8b2-91c0-459a-8d18-b3bb1778b71b_1450x1085.png&quot;,&quot;srcNoWatermark&quot;:null,&quot;fullscreen&quot;:null,&quot;imageSize&quot;:null,&quot;height&quot;:1085,&quot;width&quot;:1450,&quot;resizeWidth&quot;:null,&quot;bytes&quot;:1910313,&quot;alt&quot;:null,&quot;title&quot;:null,&quot;type&quot;:&quot;image/png&quot;,&quot;href&quot;:null,&quot;belowTheFold&quot;:false,&quot;topImage&quot;:true,&quot;internalRedirect&quot;:&quot;https://explicable.iia.es/i/195317910?img=https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F5dcae8b2-91c0-459a-8d18-b3bb1778b71b_1450x1085.png&quot;,&quot;isProcessing&quot;:false,&quot;align&quot;:null,&quot;offset&quot;:false}" class="sizing-normal" alt="" srcset="https://substackcdn.com/image/fetch/$s_!X-9r!,w_424,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F5dcae8b2-91c0-459a-8d18-b3bb1778b71b_1450x1085.png 424w, https://substackcdn.com/image/fetch/$s_!X-9r!,w_848,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F5dcae8b2-91c0-459a-8d18-b3bb1778b71b_1450x1085.png 848w, https://substackcdn.com/image/fetch/$s_!X-9r!,w_1272,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F5dcae8b2-91c0-459a-8d18-b3bb1778b71b_1450x1085.png 1272w, https://substackcdn.com/image/fetch/$s_!X-9r!,w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F5dcae8b2-91c0-459a-8d18-b3bb1778b71b_1450x1085.png 1456w" sizes="100vw" fetchpriority="high"></picture><div class="image-link-expand"><div class="pencraft pc-display-flex pc-gap-8 pc-reset"><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container restack-image"><svg role="img" width="20" height="20" viewBox="0 0 20 20" fill="none" stroke-width="1.5" stroke="var(--color-fg-primary)" stroke-linecap="round" stroke-linejoin="round" xmlns="http://www.w3.org/2000/svg"><g><title></title><path d="M2.53001 7.81595C3.49179 4.73911 6.43281 2.5 9.91173 2.5C13.1684 2.5 15.9537 4.46214 17.0852 7.23684L17.6179 8.67647M17.6179 8.67647L18.5002 4.26471M17.6179 8.67647L13.6473 6.91176M17.4995 12.1841C16.5378 15.2609 13.5967 17.5 10.1178 17.5C6.86118 17.5 4.07589 15.5379 2.94432 12.7632L2.41165 11.3235M2.41165 11.3235L1.5293 15.7353M2.41165 11.3235L6.38224 13.0882"></path></g></svg></button><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container view-image"><svg xmlns="http://www.w3.org/2000/svg" width="20" height="20" viewBox="0 0 24 24" fill="none" stroke="currentColor" stroke-width="2" stroke-linecap="round" stroke-linejoin="round" class="lucide lucide-maximize2 lucide-maximize-2"><polyline points="15 3 21 3 21 9"></polyline><polyline points="9 21 3 21 3 15"></polyline><line x1="21" x2="14" y1="3" y2="10"></line><line x1="3" x2="10" y1="21" y2="14"></line></svg></button></div></div></div></a></figure></div><p><strong>&#191;Qu&#233; pas&#243; el ayer? En un minuto:</strong></p><p>La gran noticia del d&#237;a es el lanzamiento de GPT-5.5, un movimiento que vuelve a reforzar una idea cada vez m&#225;s evidente: los modelos de frontera siguen avanzando y, por ahora, no muestran se&#241;ales claras de haber alcanzado un techo. OpenAI no presenta &#250;nicamente un modelo m&#225;s potente, sino una pieza estrat&#233;gica para la siguiente fase de la inteligencia artificial: una etapa dominada por flujos ag&#233;nticos, en los que el sistema interpreta objetivos complejos, utiliza herramientas, ejecuta tareas de varios pasos y verifica sus propios resultados durante el proceso.</p><p>Esto sit&#250;a el foco en el despliegue eficiente a escala. La prioridad de la industria es conseguir que estos agentes operen con menor latencia, menor coste y mayor fiabilidad. En esa direcci&#243;n, Google ha presentado una nueva generaci&#243;n de TPUs dividida entre chips especializados en entrenamiento e inferencia, mientras DeepSeek aumenta la presi&#243;n competitiva con modelos abiertos de contexto mucho m&#225;s amplio y flujos de inferencia de bajo coste.</p><p>En este escenario, GPT-5.5 destaca por combinar mayor capacidad con una reducci&#243;n de tokens de salida frente a otros modelos frontera, un factor decisivo para contener el coste de inferencia. La direcci&#243;n del mercado es clara: conquistar la automatizaci&#243;n ag&#233;ntica optimizando el coste de &#8220;pensar&#8221;.</p><p><strong>Y si tienes m&#225;s de un minuto&#8230;</strong></p><div><hr></div><h3>OpenAI lanza GPT-5.5 en ChatGPT y Codex</h3><p>OpenAI ha lanzado GPT-5.5, un modelo orientado a completar tareas de principio a fin: entiende objetivos complejos, usa herramientas externas y verifica sus propios resultados de forma iterativa. El despliegue es inmediato para los planes de pago de ChatGPT (Plus, Pro, Business y Enterprise) y tambi&#233;n en Codex, la plataforma de agentes de programaci&#243;n de la compa&#241;&#237;a. Los niveles Pro, Business y Enterprise tienen adem&#225;s acceso a GPT-5.5 Pro, una variante de mayor capacidad. El salto no es solo de rendimiento: la apuesta expl&#237;cita por flujos aut&#243;nomos confirma que OpenAI est&#225; acelerando su conversi&#243;n de asistente conversacional a plataforma de automatizaci&#243;n. </p><p>El lanzamiento confirma que los modelos de frontera siguen sin encontrar un techo claro. GPT-5.5 vuelve a subir el list&#243;n, no tanto por una mejora aislada en un benchmark concreto, sino por su capacidad para sostener razonamientos m&#225;s largos, ejecutar tareas con varios pasos y corregir errores durante el proceso. La clave est&#225; cada vez m&#225;s en la inferencia: dar m&#225;s tiempo y m&#225;s c&#243;mputo al modelo para &#8220;pensar&#8221; para obtener mejores resultados, especialmente en tareas complejas.</p><p>Para sostenerlo sin disparar la latencia, la compa&#241;&#237;a ha introducido mejoras de inferencia en toda la pila, lo que hace viable el uso intensivo de GPT-5.5 Pro. Con Google, Anthropic y Microsoft apostando tambi&#233;n por agentes aut&#243;nomos, la eficiencia en inferencia y la capacidad de ejecuci&#243;n sin intervenci&#243;n humana se consolidan como los ejes reales de diferenciaci&#243;n comercial. Anthropic, de hecho, eligi&#243; esta misma semana para reforzar su capa de modelo base, lo que plantea dos estrategias distintas para llegar al mismo mercado.</p><p>Desde <a href="https://x.com/nvidia/status/2047414012934082751">&#120143; @nvidia (Nvidia)</a>, la eficiencia ya no se mide solo en velocidad, sino en la reducci&#243;n del coste de la inteligencia: la colaboraci&#243;n con OpenAI sobre el chip GB200 NVL72 se presenta como la infraestructura que hace posible la IA empresarial a escala.</p><p><a href="https://x.com/databricks/status/2047466454069465329">&#120143; @databricks (Databricks)</a> destaca que GPT-5.5 lidera varios benchmarks del sector y subraya que su disponibilidad inmediata en Unity AI Gateway lo convierte en la base sobre la que sus clientes construir&#225;n agentes empresariales.</p><p><a href="https://x.com/WesRoth/status/2047379335687045372">&#120143; @WesRoth (Wes Roth)</a> describe el lanzamiento como un desplazamiento estructural hacia flujos de trabajo ag&#233;nticos aut&#243;nomos, y apunta que la disponibilidad simult&#225;nea en m&#250;ltiples niveles comerciales indica que OpenAI busca adopci&#243;n empresarial acelerada, no solo un hito t&#233;cnico.</p><div><hr></div><h3>Google bifurca sus TPU en entrenamiento e inferencia</h3><p>Google present&#243; en Google Cloud Next la octava generaci&#243;n de sus procesadores TPU con un cambio estructural relevante: por primera vez, lanza dos arquitecturas distintas en lugar de un chip unificado. El TPU 8t cubre entrenamiento masivo e inferencia de alto rendimiento, con pods de 9.600 chips que alcanzan 121 exaflops en precisi&#243;n FP4, frente a los 42,5 exaflops del Ironwood. El TPU 8i, co-dise&#241;ado con el equipo de investigaci&#243;n de Gemini, est&#225; orientado a inferencia de baja latencia: incorpora m&#225;s SRAM en el propio chip para reducir los accesos a memoria HBM, tanto en pesos del modelo como en estado de la KV Cache. Sus pods tienen 1.152 chips de un tama&#241;o deliberadamente menor que prioriza densidad y velocidad de respuesta sobre volumen de c&#243;mputo bruto. </p><p>La bifurcaci&#243;n obedece a una realidad f&#237;sica concreta: las cargas de entrenamiento y de inferencia tienen perfiles de demanda incompatibles, y optimizar ambas en un solo chip exige compromisos costosos. NVIDIA lleva a&#241;os segmentando su cat&#225;logo de aceleradores seg&#250;n perfiles de carga, con productos orientados a inferencia eficiente como P4, T4 o L4, y GPUs de gama alta como H100/H200 usadas tanto para entrenamiento masivo como para inferencia de alto rendimiento, aunque sus l&#237;neas actuales no se dividen de forma estrictamente binaria entre &#8220;entrenamiento&#8221; e &#8220;inferencia&#8221;. AWS ofrece un precedente m&#225;s directo: desde hace a&#241;os comercializa silicio propio diferenciado por fase de uso, con Trainium/Trn orientado principalmente al entrenamiento de modelos de IA a gran escala e Inferentia/Inf optimizado para inferencia de alto rendimiento y baja latencia. Al replicar esa l&#243;gica con silicio propio, Google reduce su dependencia de proveedores externos y refuerza la propuesta de Google Cloud frente a Microsoft Azure y AWS. El trasfondo declarado es la apuesta por agentes de IA aut&#243;nomos, cuya inferencia continua y de baja latencia impone requisitos especialmente exigentes. </p><p>En la presentaci&#243;n, <a href="https://x.com/JeffDean/status/2047403921912873257">&#120143; @JeffDean (Jeff Dean)</a> subray&#243; que la co-evoluci&#243;n deliberada entre equipos de hardware y modelo, en este caso TPU 8i y Gemini, es la palanca real de diferenciaci&#243;n para cargas de trabajo de agentes.</p><p><a href="https://x.com/halcyonrayes/status/2047121554170069434">&#120143; @halcyonrayes (Suvaditya Mukherjee)</a> destac&#243; la presencia de Jeff Dean y Amin Vahdat en la presentaci&#243;n como indicador del peso interno que Google asigna a esta generaci&#243;n: no es un anuncio menor delegado al equipo de hardware.</p><p>Desde una perspectiva de mercado, <a href="https://x.com/bboczeng/status/2047009009933386035">&#120143; @bboczeng (Oc)</a> apunt&#243; que la separaci&#243;n en TPU 8t para entrenamiento y TPU 8i para inferencia sit&#250;a a Google en una posici&#243;n m&#225;s comparable a NVIDIA, que lleva a&#241;os ofreciendo arquitecturas diferenciadas seg&#250;n el caso de uso.</p><div><hr></div><h3>DeepSeek V4 Pro y Flash: 1M de contexto a bajo coste</h3><p>DeepSeek ha lanzado V4 Pro y V4 Flash, dos modelos de lenguaje en c&#243;digo abierto bajo licencia MIT con ventana de contexto de un mill&#243;n de tokens. V4 Pro suma 1,6 billones de par&#225;metros totales, pero activa solo 49.000 millones por inferencia mediante arquitectura de mezcla de expertos. V4 Flash opera con 284.000 millones totales y 13.000 millones activados, y se ofrece a 0,14 d&#243;lares por mill&#243;n de tokens de entrada y 0,28 por mill&#243;n de salida. La ganancia de eficiencia es estructural: V4 consume un 27% de los FLOPS y un 10% de la cach&#233; KV de su predecesor V3.2, lo que reduce los requisitos de infraestructura de forma sustancial. En el ranking de Chatbot Arena, plataforma con 347 modelos evaluados y cerca de seis millones de votos, V4 Pro en modo razonamiento ocupa el tercer puesto entre modelos de c&#243;digo abierto y el decimocuarto en el clasificaci&#243;n general de c&#243;digo. La arquitectura admite tres niveles de esfuerzo de razonamiento: sin razonamiento, alto y m&#225;ximo. Para OpenAI, Anthropic y Google, el lanzamiento no elimina todav&#237;a la ventaja de los modelos propietarios m&#225;s avanzados en la frontera de capacidades, pero s&#237; sigue estrechando el margen de precio-rendimiento.</p><p><a href="https://x.com/ArtificialAnlys/status/2047547434809880611">&#120143; @ArtificialAnlys (Artificial Analysis)</a> sit&#250;a a V4 Pro en el primer puesto entre modelos de pesos abiertos en su evaluaci&#243;n GDPval-AA, centrada en tareas de trabajo real con agentes, un resultado que va m&#225;s all&#225; de los benchmarks acad&#233;micos habituales.</p><p><a href="https://x.com/mervenoyann/status/2047547789601595772">&#120143; @mervenoyann (Merve)</a> subraya la combinaci&#243;n de atenci&#243;n h&#237;brida y tres niveles de esfuerzo de razonamiento como se&#241;al de que DeepSeek ha dise&#241;ado un modelo pensado para cubrir casos de uso muy distintos desde una sola versi&#243;n.</p><p>Tras probar Flash y Pro en tareas de generaci&#243;n visual y c&#243;digo, <a href="https://x.com/stevibe/status/2047546592530747561">&#120143; @stevibe (Stevi Be)</a> reconoce que los resultados le han llevado a reconsiderar DeepSeek para proyectos concretos, algo que hasta ahora no contemplaba.</p><div><hr></div><h3>Decoupled DiLoCo: entrenamiento distribuido sin ataduras</h3><p>Google DeepMind ha publicado Decoupled DiLoCo, una arquitectura de entrenamiento distribuido que elimina una de las restricciones m&#225;s costosas del sector: la necesidad de miles de chips id&#233;nticos, en el mismo centro de datos, sincronizados de forma continua. El sistema divide el proceso en islas de c&#243;mputo que operan de forma relativamente aut&#243;noma y se comunican de forma as&#237;ncrona, lo que reduce el tr&#225;fico de red entre centros de datos en torno a 235 veces. La demostraci&#243;n es concreta: un modelo Gemma de 12.000 millones de par&#225;metros entrenado en cuatro regiones de EE. UU. usando redes de bajo ancho de banda. El sistema tolera fallos parciales sin detener el proceso, y permite combinar generaciones de hardware distintas, como TPU6e y TPUv5p, sin degradar el rendimiento. </p><p>La implicaci&#243;n m&#225;s directa no es que los cl&#250;steres homog&#233;neos y co-localizados dejen de ser la opci&#243;n m&#225;s eficiente, sino que Decoupled DiLoCo ampl&#237;a el espacio operativo del entrenamiento: permite aprovechar capacidad distribuida, hardware de distintas generaciones y recursos ociosos con mucha menos penalizaci&#243;n por comunicaci&#243;n y fallos. Si el enfoque escala a modelos mayores, la geograf&#237;a y la homogeneidad del hardware pasar&#237;an de ser condiciones casi obligatorias para entrenamientos competitivos a convertirse en una ventaja de eficiencia, no en un requisito absoluto.</p><p>La publicaci&#243;n de <a href="https://x.com/GoogleDeepMind/status/2047330981145669790">&#120143; @GoogleDeepMind (Google Deepmind)</a> incluye un argumento impl&#237;cito relevante: al demostrar que el sistema mezcla distintas generaciones de hardware sin perder rendimiento, sostiene que la obsolescencia del parque de aceleradores ya instalado es un problema resoluble, no un coste inevitable.</p><p><a href="https://x.com/JeffDean/status/2047339995682529313">&#120143; @JeffDean (Jeff Dean)</a> aprovecha el anuncio para situar este trabajo dentro de una trayectoria de 14 a&#241;os, se&#241;alando que Google ya demostraba en NeurIPS 2012 el entrenamiento de redes 30 veces m&#225;s grandes que la media de la &#233;poca. Una forma de recordar que la ventaja en infraestructura no se improvisa.</p><p>Para <a href="https://x.com/Shaughnessy119/status/2047346920876622137">&#120143; @Shaughnessy119 (Tommy)</a>, la cifra m&#225;s relevante es la reducci&#243;n de ancho de banda: cerca de 235 veces menos tr&#225;fico de red entre centros de datos es lo que distingue a Decoupled DiLoCo de los m&#233;todos distribuidos anteriores.</p><div><hr></div><h3>Grok Voice Think Fast 1.0 lidera el benchmark de voz</h3><p>xAI ha lanzado Grok Voice Think Fast 1.0, un modelo de voz orientado a tareas complejas y multietapa con latencia baja. Su puntuaci&#243;n en el Tau Voice Bench es 67,3%, lo que le sit&#250;a primero en el ranking y 23,5 puntos por encima de Gemini 3.1 Flash Live de Google. El modelo incorpora razonamiento en tiempo real sin coste adicional de latencia y mejora el manejo de ruido ambiental, acentos e interrupciones. A diferencia de muchos anuncios de benchmark, este tiene al menos un despliegue operativo confirmado: Grok Voice ya funciona en Starlink, lo que aleja el lanzamiento del territorio puramente experimental.</p><p>El resultado refuerza la presi&#243;n competitiva sobre OpenAI y Google, pero debe leerse como liderazgo dentro de Tau Voice, no como prueba definitiva de superioridad general en voz. El benchmark tiene una base metodol&#243;gica p&#250;blica y relevante, aunque el salto de Grok Voice Think Fast 1.0 necesita validaci&#243;n independiente. Hasta entonces, el dato m&#225;s s&#243;lido es que xAI ha logrado liderar un benchmark exigente y tener un despliegue comercial relevante, un avance destacado en la carrera de los agentes de voz en tiempo real.</p><p>El dato que aporta <a href="https://x.com/elonmusk/status/2047502409728217418">&#120143; @elonmusk (Elon Musk)</a>, que Grok Voice ya est&#225; desplegado en Starlink, desplaza el anuncio del terreno del benchmark al del uso real, una distinci&#243;n que no todos los lanzamientos de modelos de voz pueden hacer.</p><p><a href="https://x.com/ai_for_success/status/2047540777409224900">&#120143; @ai_for_success (Ashutoshshrivastava)</a> destaca que el modelo razona mientras habla sin latencia a&#241;adida y lo califica como el mejor agente de voz disponible ahora mismo, una valoraci&#243;n que subraya los 23,5 puntos de distancia sobre Gemini Flash Live.</p><p>Para <a href="https://x.com/muskonomy/status/2047544166218101048">&#120143; @muskonomy (Muskonomy)</a>, la mejora m&#225;s concreta sobre el resto del mercado es la gesti&#243;n de ruido, acentos e interrupciones: condiciones que los benchmarks est&#225;ndar suelen suavizar y que determinan si un modelo de voz funciona fuera del laboratorio.</p><div><hr></div><h3>Seedance 2.0 lidera el Video Arena con problemas de servicio</h3><p>Dreamina Seedance 2.0, el modelo de v&#237;deo generativo de ByteDance, ha alcanzado el primer puesto en las tres categor&#237;as del Video Arena Leaderboard: texto a v&#237;deo, imagen a v&#237;deo y edici&#243;n de v&#237;deo. Acepta texto, imagen, audio y v&#237;deo como entrada, produce hasta resoluci&#243;n 2K y est&#225; disponible de forma gratuita por tiempo limitado dentro de CapCut y Dreamina. El reconocimiento llega, sin embargo, en mitad de una incidencia operativa: usuarios reportan salidas de baja calidad, colas prolongadas y nuevos errores, y el servicio ha confirmado el problema p&#250;blicamente mientras trabaja con ByteDance para resolverlo. El episodio no es nuevo en el sector: los picos de demanda que siguen a un lanzamiento o un reconocimiento p&#250;blico desbordan con frecuencia la infraestructura de inferencia, cuyo coste computacional por v&#237;deo supera con creces al de los modelos de texto. El liderazgo de Seedance 2.0 en el Video Arena confirma una ventaja t&#233;cnica relevante, mientras que las restricciones de resoluci&#243;n, colas y disponibilidad muestran que la batalla no se decide solo por calidad de modelo, sino por capacidad de inferencia, integraci&#243;n en flujos profesionales y fiabilidad bajo demanda real.</p><p>Para <a href="https://x.com/BytePlusGlobal/status/2047164212129218785">&#120143; @BytePlusGlobal (Byteplus)</a>, el triple liderazgo en Text-to-Video, Image-to-Video y Video Edit en Arena es la validaci&#243;n p&#250;blica de una apuesta por la IA generativa de v&#237;deo profesional dirigida a creadores a escala global.</p><p><a href="https://x.com/jerrod_lew/status/2047099984248525215">&#120143; @jerrod_lew (Jerrod Lew)</a> describe un flujo concreto que combina ChatGPT Images con Seedance 2.0 para pasar de mood board a v&#237;deo cinematogr&#225;fico en pocos pasos, lo que indica que el modelo ya se integra en procesos creativos reales, m&#225;s all&#225; de las pruebas de concepto.</p><p><a href="https://x.com/sean_wallace_/status/2047008956439253484">&#120143; @sean_wallace_ (Sean Wallace)</a> se&#241;ala que la disponibilidad gratuita y por tiempo limitado dentro de CapCut lleva el modelo a una base de usuarios masiva, un movimiento de distribuci&#243;n que ning&#250;n competidor directo de Seedance 2.0 ha replicado en los mismos t&#233;rminos.</p><div><hr></div><h3>Unitree abre la puerta a humanoides con ruedas opcionales</h3><p>Unitree Robotics ha publicado un mensaje en el que plantea que sus robots humanoides pueden incorporar ruedas como modalidad de movimiento complementaria al b&#237;pedo. No es un anuncio de producto cerrado: es un posicionamiento en uno de los debates m&#225;s activos del sector, el de si las piernas son necesarias en entornos industriales y dom&#233;sticos o si las ruedas resultan m&#225;s eficientes para la mayor&#237;a de los casos de uso reales. La respuesta de Unitree es pragm&#225;tica: ambas opciones, seg&#250;n la tarea. El argumento de fondo sostiene que el formato humanoide es el m&#225;s adecuado para la IA de prop&#243;sito general por su compatibilidad con datos generados a partir del movimiento humano, una posici&#243;n que comparten Figure, Agility Robotics y Tesla con Optimus. Al afirmar que sus robots funcionan con o sin ruedas, Unitree neutraliza la cr&#237;tica habitual de rigidez locomotora sin abandonar la arquitectura humanoide. Dise&#241;os h&#237;bridos de este tipo podr&#237;an acelerar la adopci&#243;n en entornos mixtos como almacenes o plantas industriales, donde las superficies planas dominan pero las escaleras y los obst&#225;culos siguen presentes. Lo lo que el mensaje no resuelve es si las ruedas ser&#225;n un m&#243;dulo intercambiable para sus b&#237;pedos (como G1, H1, H2 o R1) o si quedar&#225;n limitadas a variantes espec&#237;ficas, chasis m&#243;viles y prototipos de demostraci&#243;n.</p><p><a href="https://x.com/UnitreeRobotics/status/2047257759473946705">&#120143; @UnitreeRobotics (Unitree)</a> enmarca el mensaje como una cuesti&#243;n de libertad de dise&#241;o: el humanoide no renuncia a las piernas, pero tampoco descarta las ruedas si el contexto lo justifica, una postura que evita tomar partido en un debate que el sector todav&#237;a no ha resuelto.</p><div><hr></div><p><em><strong>Gracias por leer 1 Minuto de IA.</strong> Si te ha gustado esta edici&#243;n, no te olvides de dar al &#9825; y de compartirla por redes sociales o por email con otras personas a las que creas que les pueda interesar.</em></p><div class="subscription-widget-wrap-editor" data-attrs="{&quot;url&quot;:&quot;https://explicable.iia.es/subscribe?&quot;,&quot;text&quot;:&quot;Suscribirse&quot;,&quot;language&quot;:&quot;es&quot;}" data-component-name="SubscribeWidgetToDOM"><div class="subscription-widget show-subscribe"><div class="preamble"><p class="cta-caption">Suscr&#237;bete gratis para recibir nuevos posts y apoyar este proyecto.</p></div><form class="subscription-widget-subscribe"><input type="email" class="email-input" name="email" placeholder="Escribe tu correo electr&#243;nico..." tabindex="-1"><input type="submit" class="button primary" value="Suscribirse"><div class="fake-input-wrapper"><div class="fake-input"></div><div class="fake-button"></div></div></form></div></div><div><hr></div>]]></content:encoded></item><item><title><![CDATA[La guerra de la IA entra en la oficina]]></title><description><![CDATA[Lo esencial de la IA, cada d&#237;a, para no quedarte atr&#225;s.]]></description><link>https://explicable.iia.es/p/openai-lanza-agentes-colaborativos</link><guid isPermaLink="false">https://explicable.iia.es/p/openai-lanza-agentes-colaborativos</guid><dc:creator><![CDATA[Miguel A. Román]]></dc:creator><pubDate>Thu, 23 Apr 2026 11:00:33 GMT</pubDate><enclosure url="https://substackcdn.com/image/fetch/$s_!j4QS!,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Feef3bf47-eaad-4289-8f07-1d76e179ac3e_1672x941.png" length="0" type="image/jpeg"/><content:encoded><![CDATA[<div class="captioned-image-container"><figure><a class="image-link image2 is-viewable-img" target="_blank" href="https://substackcdn.com/image/fetch/$s_!j4QS!,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Feef3bf47-eaad-4289-8f07-1d76e179ac3e_1672x941.png" data-component-name="Image2ToDOM"><div class="image2-inset"><picture><source type="image/webp" srcset="https://substackcdn.com/image/fetch/$s_!j4QS!,w_424,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Feef3bf47-eaad-4289-8f07-1d76e179ac3e_1672x941.png 424w, https://substackcdn.com/image/fetch/$s_!j4QS!,w_848,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Feef3bf47-eaad-4289-8f07-1d76e179ac3e_1672x941.png 848w, https://substackcdn.com/image/fetch/$s_!j4QS!,w_1272,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Feef3bf47-eaad-4289-8f07-1d76e179ac3e_1672x941.png 1272w, https://substackcdn.com/image/fetch/$s_!j4QS!,w_1456,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Feef3bf47-eaad-4289-8f07-1d76e179ac3e_1672x941.png 1456w" sizes="100vw"><img src="https://substackcdn.com/image/fetch/$s_!j4QS!,w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Feef3bf47-eaad-4289-8f07-1d76e179ac3e_1672x941.png" width="1456" height="819" data-attrs="{&quot;src&quot;:&quot;https://substack-post-media.s3.amazonaws.com/public/images/eef3bf47-eaad-4289-8f07-1d76e179ac3e_1672x941.png&quot;,&quot;srcNoWatermark&quot;:null,&quot;fullscreen&quot;:null,&quot;imageSize&quot;:null,&quot;height&quot;:819,&quot;width&quot;:1456,&quot;resizeWidth&quot;:null,&quot;bytes&quot;:1919572,&quot;alt&quot;:null,&quot;title&quot;:null,&quot;type&quot;:&quot;image/png&quot;,&quot;href&quot;:null,&quot;belowTheFold&quot;:false,&quot;topImage&quot;:true,&quot;internalRedirect&quot;:&quot;https://explicable.iia.es/i/195205501?img=https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Feef3bf47-eaad-4289-8f07-1d76e179ac3e_1672x941.png&quot;,&quot;isProcessing&quot;:false,&quot;align&quot;:null,&quot;offset&quot;:false}" class="sizing-normal" alt="" srcset="https://substackcdn.com/image/fetch/$s_!j4QS!,w_424,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Feef3bf47-eaad-4289-8f07-1d76e179ac3e_1672x941.png 424w, https://substackcdn.com/image/fetch/$s_!j4QS!,w_848,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Feef3bf47-eaad-4289-8f07-1d76e179ac3e_1672x941.png 848w, https://substackcdn.com/image/fetch/$s_!j4QS!,w_1272,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Feef3bf47-eaad-4289-8f07-1d76e179ac3e_1672x941.png 1272w, https://substackcdn.com/image/fetch/$s_!j4QS!,w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Feef3bf47-eaad-4289-8f07-1d76e179ac3e_1672x941.png 1456w" sizes="100vw" fetchpriority="high"></picture><div class="image-link-expand"><div class="pencraft pc-display-flex pc-gap-8 pc-reset"><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container restack-image"><svg role="img" width="20" height="20" viewBox="0 0 20 20" fill="none" stroke-width="1.5" stroke="var(--color-fg-primary)" stroke-linecap="round" stroke-linejoin="round" xmlns="http://www.w3.org/2000/svg"><g><title></title><path d="M2.53001 7.81595C3.49179 4.73911 6.43281 2.5 9.91173 2.5C13.1684 2.5 15.9537 4.46214 17.0852 7.23684L17.6179 8.67647M17.6179 8.67647L18.5002 4.26471M17.6179 8.67647L13.6473 6.91176M17.4995 12.1841C16.5378 15.2609 13.5967 17.5 10.1178 17.5C6.86118 17.5 4.07589 15.5379 2.94432 12.7632L2.41165 11.3235M2.41165 11.3235L1.5293 15.7353M2.41165 11.3235L6.38224 13.0882"></path></g></svg></button><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container view-image"><svg xmlns="http://www.w3.org/2000/svg" width="20" height="20" viewBox="0 0 24 24" fill="none" stroke="currentColor" stroke-width="2" stroke-linecap="round" stroke-linejoin="round" class="lucide lucide-maximize2 lucide-maximize-2"><polyline points="15 3 21 3 21 9"></polyline><polyline points="9 21 3 21 3 15"></polyline><line x1="21" x2="14" y1="3" y2="10"></line><line x1="3" x2="10" y1="21" y2="14"></line></svg></button></div></div></div></a></figure></div><p><strong>&#191;Qu&#233; pas&#243; ayer? En un minuto:</strong></p><p>La actualidad confirma lo que ya apunt&#233; en la edici&#243;n de ayer: la carrera de la inteligencia artificial no se decidir&#225; solo por la calidad de los modelos, sino por qui&#233;n logre controlar el flujo de trabajo real dentro de las empresas. OpenAI y Google ya se han movido en esa direcci&#243;n con plataformas de agentes corporativos que van a por el mercado que desde a&#241;os trata de acaparar Microsoft Copilot. El foco ha dejado de estar en asistentes para la productividad individual y se desplaza hacia sistemas capaces de interpretar el contexto empresarial, utilizar sus herramientas y ejecutar tareas complejas y prolongadas en los procesos de negocio existentes. Ese es, hoy, el verdadero campo de batalla, convertirse en la capa operativa sobre la que circula el conocimiento corporativo.</p><p>Sin embargo, esta expansi&#243;n choca con dos l&#237;mites muy concretos. El primero es f&#237;sico: la IA depende cada vez m&#225;s de la infraestructura de centros de datos, no solo por la disponibilidad de hardware para su construcci&#243;n, sino por un factor que gana peso r&#225;pidamente y del que todav&#237;a se habla poco: la capacidad de asegurar suministro el&#233;ctrico para los pr&#243;ximos a&#241;os. La energ&#237;a se perfila como uno de los recursos m&#225;s escasos y estrat&#233;gicos de esta industria. El segundo l&#237;mite es econ&#243;mico: Anthropic ha dejado caer, con su rectificaci&#243;n en torno a la disponibilidad de Claude Code para su suscripci&#243;n, que ofrecer agentes avanzados bajo esquemas de precio fijo somete los m&#225;rgenes a una presi&#243;n creciente.</p><p>En la guerra por liderar el mercado de la IA, no ganar&#225; quien tenga la mejor demo, sino quien pueda sostener el negocio cuando llegue la factura real.</p><p><strong>Y si tienes m&#225;s de un minuto&#8230;</strong></p><div><hr></div><h3>OpenAI lanza agentes de trabajo colaborativo para empresas</h3><p>OpenAI ha presentado los workspace agents, agentes compartidos dentro de ChatGPT dise&#241;ados para ejecutar tareas complejas y flujos de trabajo prolongados. Pueden extraer contexto de documentos, correos, chats y c&#243;digo, y realizar acciones aprobadas: actualizar tickets en Linear, crear documentos o enviar mensajes en Slack. De momento est&#225;n disponibles en preview para los planes Business, Enterprise, Edu y Teachers. T&#233;cnicamente se apoyan en un entorno Codex alojado en la nube, lo que los sit&#250;a un escal&#243;n por encima de los GPT personalizados de 2023: aquellos respond&#237;an preguntas, estos ejecutan tareas de forma aut&#243;noma y persistente. El salto convierte a ChatGPT en una capa de orquestaci&#243;n del trabajo de oficina y lo enfrenta directamente a Microsoft Copilot y a los agentes que muchas empresas ya construyen sobre infraestructura propia. La integraci&#243;n con Box estaba operativa en el momento del lanzamiento, lo que apunta a una estrategia de ecosistema de aplicaciones desde el primer d&#237;a. La limitaci&#243;n estructural es clara: los agentes solo operan con las integraciones que OpenAI habilite. Para empresas con arquitecturas heterog&#233;neas o requisitos estrictos de soberan&#237;a de datos, ese per&#237;metro cerrado puede ser un freno suficiente para buscar alternativas.</p><p><a href="https://x.com/OpenAI/status/2047008987665809771">&#120143; @OpenAI (Openai)</a> describe la capacidad de los agentes para saltar a un hilo de Slack, entender qu&#233; se necesita y actuar sin que nadie lo pida expl&#237;citamente, lo que ilustra hasta d&#243;nde llega la ambici&#243;n de integraci&#243;n del producto.</p><p>Para <a href="https://x.com/gdb/status/2047023089087606814">&#120143; @gdb (Greg Brockman)</a>, la clave est&#225; en la accesibilidad: construir sobre un entorno Codex en la nube y conectar herramientas recurrentes baja el umbral t&#233;cnico lo suficiente para que equipos no especializados desplieguen sus propios agentes.</p><p><a href="https://x.com/i/status/2047008987665809771">&#120143; @trey_smith (Trey Smith)</a> se&#241;ala la grieta del modelo: los equipos que construyen agentes sobre infraestructura propia con enrutamiento multi-modelo tendr&#225;n m&#225;s margen de maniobra que los que queden atados al ecosistema cerrado de OpenAI.</p><div><hr></div><h3>Google lanza plataforma empresarial de agentes con Gemini</h3><p>Google ha presentado en Cloud Next la Gemini Enterprise Agent Platform, una evoluci&#243;n de Vertex AI que a&#241;ade orquestaci&#243;n, integraci&#243;n con sistemas corporativos y controles de seguridad para que las empresas construyan y escalen agentes de IA. Los agentes llegan a los empleados a trav&#233;s de la aplicaci&#243;n Gemini Enterprise, cerrando el ciclo entre desarrollo t&#233;cnico y uso cotidiano. La plataforma da acceso a m&#225;s de 200 modelos mediante el Model Garden, entre ellos Gemini 3.1 Pro, Gemini 3.1 Flash Image, Lyria 3 y la familia Gemma 4. El lanzamiento llega acompa&#241;ado de una alianza con Oracle para consultar bases de datos en lenguaje natural sin SQL, y de acuerdos de despliegue con Accenture, Bain, BCG, Deloitte y McKinsey. Google justifica el momento con un dato propio: solo el 25% de las organizaciones ha llevado la IA a producci&#243;n a escala. La arquitectura es coherente sobre el papel, pero el historial de Google en productos empresariales obliga a cierto escepticismo. La prueba real no es la adopci&#243;n inicial, sino si Gemini Enterprise consigue retenci&#243;n en grandes cuentas o acaba siendo una capa t&#233;cnica prescindible cuando los clientes eval&#250;en alternativas m&#225;s integradas con sus sistemas existentes.</p><p>El lanzamiento no es solo producto: Google Cloud ya procesa m&#225;s de 16.000 millones de tokens por minuto v&#237;a API directa, frente a los 10.000 millones del trimestre anterior. Para <a href="https://x.com/sundarpichai/status/2046930927482482789">&#120143; @sundarpichai (Sundar Pichai)</a>, esa aceleraci&#243;n convierte la apuesta en una cuesti&#243;n de infraestructura anunciando tambi&#233;n la 8a generaci&#243;n de TPUs.</p><p><a href="https://x.com/googlecloud/status/2046987300576329893">&#120143; @googlecloud (Google Cloud)</a> enmarca la plataforma como respuesta a un problema de gobernanza concreto: los agentes actuales operan en entornos multi-sistema sin los controles de seguridad adecuados, y Gemini Enterprise Agent Platform se presenta como la capa que cierra esa brecha.</p><p>La integraci&#243;n anunciada por <a href="https://x.com/OracleDatabase/status/2046925754735198411">&#120143; @OracleDatabase (Oracle Ai Database)</a> permite hacer preguntas en lenguaje natural sobre datos Oracle sin conocimientos de SQL ni del modelo de datos subyacente, un caso de uso concreto que ilustra c&#243;mo Google est&#225; construyendo el ecosistema de conectores desde el primer d&#237;a.</p><div><hr></div><h3>ChatGPT gratuito para cl&#237;nicos verificados en EE. UU.</h3><p>OpenAI ha lanzado ChatGPT for Clinicians, una versi&#243;n gratuita basada en GPT-5.4 dirigida a m&#233;dicos, enfermeros, farmac&#233;uticos y otros profesionales sanitarios acreditados en Estados Unidos. El acceso requiere verificaci&#243;n de credenciales; la expansi&#243;n global est&#225; anunciada, pero sin fecha. El lanzamiento incluye HealthBench Professional, un benchmark abierto para medir el rendimiento de modelos de lenguaje en tareas cl&#237;nicas reales. GPT-5.4 supera en ese benchmark a m&#233;dicos especialistas con tiempo ilimitado y acceso a internet, aunque el instrumento de medici&#243;n lo dise&#241;&#243; la propia OpenAI, un matiz que los titulares tienden a enterrar. El producto no llega a un vac&#237;o: millones de cl&#237;nicos ya usaban ChatGPT cada semana y el uso m&#233;dico se duplic&#243; en el &#250;ltimo a&#241;o, seg&#250;n datos de la compa&#241;&#237;a. Este lanzamiento formaliza ese comportamiento y le a&#241;ade una capa de legitimidad institucional. En el plano competitivo, sit&#250;a a OpenAI frente a herramientas especializadas como OpenEvidence, que opera en el mismo segmento. Lo que ning&#250;n comunicado resuelve es la cadena de responsabilidad: una herramienta gratuita, sin licencia m&#233;dica propia, desplegada en entornos cl&#237;nicos de alta exigencia deja sin respuesta concreta qui&#233;n asume las consecuencias cuando el modelo falla.</p><p>Para <a href="https://x.com/EricTopol/status/2047126414554701836">&#120143; @EricTopol (Eric Topol)</a>, cardi&#243;logo y referencia habitual en IA m&#233;dica, el lanzamiento combina dos piezas complementarias: el acceso gratuito para profesionales acreditados y HealthBench Professional como instrumento de medici&#243;n del rendimiento en tareas cl&#237;nicas reales.</p><p><a href="https://x.com/emollick/status/2047147032016551937">&#120143; @emollick (Ethan Mollick)</a> apunta directo al m&#233;todo: el benchmark que posiciona a GPT-5.4 por encima de especialistas fue dise&#241;ado por OpenAI y, aunque es abierto, ese detalle merece m&#225;s peso del que suele recibir en los titulares.</p><p><a href="https://x.com/frxiaobei/status/2047162147063595366">&#120143; @frxiaobei (Frxiaobei)</a> subraya un dato que el comunicado oficial apenas destaca: el uso de ChatGPT entre m&#233;dicos ya se hab&#237;a m&#225;s que duplicado en un a&#241;o, lo que convierte este lanzamiento menos en una apuesta arriesgada y m&#225;s en la formalizaci&#243;n de un comportamiento consolidado.</p><div><hr></div><h3>El mercado de c&#243;mputo para IA, bajo presi&#243;n extrema</h3><p>El gran cuello de botella de la IA ya no est&#225; solo en los chips, sino tambi&#233;n en la energ&#237;a. El auge de los centros de datos est&#225; disparando la demanda de turbinas, equipos el&#233;ctricos y capacidad industrial para poner nueva generaci&#243;n en marcha. Por eso GE Vernova comunic&#243; que su negocio de gas ya suma 100 GW entre cartera y reservas de capacidad, y que espera cerrar 2026 con al menos 110 GW. Los precios suben a doble d&#237;gito y al menos un competidor ha dejado de aceptar pedidos. El flujo de caja libre generado en un solo trimestre super&#243; al de los doce meses anteriores, lo que indica que la demanda ya se est&#225; pagando, no proyectando. La escasez no es c&#237;clica: est&#225; anclada en la capacidad f&#237;sica de construir y conectar infraestructura a escala, un proceso que se mide en a&#241;os. La carrera por la IA se est&#225; convirtiendo tambi&#233;n en una carrera por asegurar infraestructura f&#237;sica antes que los dem&#225;s. Para los grandes laboratorios de IA, la conclusi&#243;n es clara: competir en IA no depender&#225; solo de acceder a buenos modelos, sino tambi&#233;n de tener acceso fiable a electricidad, capacidad de c&#243;mputo y socios industriales capaces de escalar a tiempo.</p><p>Para <a href="https://x.com/SemiAnalysis_/status/2047057897490731386">&#120143; @SemiAnalysis_ (Semianalysis)</a>, los datos del mercado de energ&#237;a para centros de datos no admiten lectura moderada: 100 gigavatios bajo contrato, un competidor que ha cerrado el grifo y m&#225;s flujo de caja libre en 90 d&#237;as que en los 365 anteriores describen un bloqueo estructural, no un ciclo alcista ordinario.</p><div><hr></div><h3>Claude Code vuelve al plan Pro de Anthropic</h3><p>Anthropic retir&#243; Claude Code, su herramienta de programaci&#243;n ag&#233;ntica, del plan Pro de 20 d&#243;lares al mes. Esta medida solo afectaba a un 2% de potenciales nuevos usuarios, lo que gener&#243; una reacci&#243;n negativa inmediata y visible. En pocas horas, la empresa dio marcha atr&#225;s: Claude Code volvi&#243; a aparecer en la p&#225;gina de precios del plan Pro, sin comunicado oficial de por medio. El episodio tiene una lectura clara: el coste computacional de ejecutar un agente de c&#243;digo es sensiblemente mayor que el de una conversaci&#243;n est&#225;ndar, y mantenerlo en un plan de precio fijo presiona los m&#225;rgenes. Que Anthropic haya revertido el cambio tan r&#225;pido indica que la presi&#243;n de los usuarios super&#243;, al menos de momento, ese c&#225;lculo. En t&#233;rminos de percepci&#243;n, recortar un beneficio ya activo es peor que no haberlo ofrecido: los usuarios lo interpretan como una quita, no como un ajuste de producto. El contraste con OpenAI a&#241;ade otro &#225;ngulo inc&#243;modo: mientras Anthropic gestiona restricciones de capacidad, su principal competidor est&#225; expandiendo agentes y exhibiendo disponibilidad de infraestructura. Lo que no se ha resuelto es el problema de fondo. Si la demanda de Claude Code sigue creciendo, Anthropic tendr&#225; que decidir si separa el uso ag&#233;ntico del conversacional en su estructura de precios, o si asume el coste como inversi&#243;n en retenci&#243;n de usuarios.</p><p>Para <a href="https://x.com/DotCSV/status/2046861822398021986">&#120143; @DotCSV (Carlos Santana)</a>, el problema es estructural: Anthropic retir&#243; el acceso &#171;ahogada por falta de computaci&#243;n&#187;, y OpenAI aprovech&#243; el momento para exhibir m&#250;sculo de infraestructura, un contraste que no beneficia a Anthropic en ning&#250;n frente.</p><p>Mientras se produce el debate sobre acceso y precios, <a href="https://x.com/adxtyahq/status/2047173237759705250">&#120143; @adxtyahq (Aditya)</a> se&#241;ala que el propio responsable de Claude Code en Anthropic lleva meses sin escribir c&#243;digo a mano, y atribuye 49 funcionalidades desarrolladas en dos d&#237;as al flujo de trabajo ag&#233;ntico que &#233;l mismo emplea.</p><div><hr></div><h3>OpenAI publica su primer modelo abierto de 2026</h3><p>OpenAI ha publicado Privacy Filter, un modelo de clasificaci&#243;n de tokens orientado a detectar y filtrar informaci&#243;n de identificaci&#243;n personal (PII) en texto a escala. No genera texto: identifica datos sensibles dentro de flujos existentes. Su arquitectura es una mezcla de expertos (MoE) con 1.500 millones de par&#225;metros en total y solo 50 millones activos por inferencia, lo que lo hace sustancialmente m&#225;s eficiente que un modelo denso de tama&#241;o comparable. La licencia es Apache 2.0, sin restricciones para uso comercial. Es el primer modelo que OpenAI publica en abierto en 2026, y el contraste con su trayectoria reciente es evidente. M&#225;s all&#225; del gesto, la utilidad es concreta: cualquier organizaci&#243;n que procese texto a escala y necesite limpiar datos personales antes de enviarlos a un modelo tiene ahora una herramienta especializada, liviana y de uso libre. El modelo bidireccional puede operar sobre vol&#250;menes masivos sin el coste computacional de un LLM completo. Lo que no revelan los detalles del lanzamiento es si OpenAI desarroll&#243; Privacy Filter para cubrir sus propias necesidades internas de preprocesamiento y decidi&#243; publicarlo, o si existe una intenci&#243;n m&#225;s sostenida de construir una familia de modelos utilitarios en abierto haciendo gala de su nombre y sus or&#237;genes.</p><div><hr></div><h3>Anthropic mide el impacto econ&#243;mico de la IA</h3><p>Anthropic ha publicado un an&#225;lisis econ&#243;mico basado en las respuestas abiertas de 81.000 usuarios de Claude recogidas en diciembre, y ha anunciado el Anthropic Economic Index Survey, una encuesta mensual para rastrear c&#243;mo la IA transforma el trabajo en tiempo real. Los resultados iniciales apuntan tres patrones: los trabajadores en ocupaciones con mayor exposici&#243;n a la IA, como la ingenier&#237;a de software, expresan m&#225;s preocupaci&#243;n por el desplazamiento laboral; quienes est&#225;n al inicio de su carrera son los m&#225;s inquietos; y los mayores beneficios de productividad se concentran en los extremos salariales, donde el impacto habitual no es acelerar tareas existentes sino ampliar el alcance de lo que cada persona puede hacer. Hay una paradoja que los datos dejan a la vista: los usuarios que reportan mayores ganancias de velocidad son tambi&#233;n los que m&#225;s temen perder su empleo. Anthropic sostiene que los indicadores tradicionales de mercado laboral llegan tarde y no capturan c&#243;mo vive la gente estos cambios mientras suceden. La encuesta mensual intenta cubrir ese hueco. El problema de fondo es de representatividad: 81.000 respuestas de usuarios activos de Claude definen un perfil sesgado hacia adoptantes tempranos, y los patrones observados podr&#237;an atenuarse considerablemente con una muestra m&#225;s amplia y heterog&#233;nea.</p><p>El argumento central de <a href="https://x.com/AnthropicAI/status/2047006548149289017">&#120143; @AnthropicAI (Anthropic)</a> no es que la IA destruye empleo ni que lo crea, sino que los datos cualitativos sobre c&#243;mo lo perciben los trabajadores son imprescindibles para entender una transici&#243;n que todav&#237;a est&#225; en curso.</p><div><hr></div><h3>Chollet redefine el criterio para medir la inteligencia general</h3><p>Fran&#231;ois Chollet, conocido por dise&#241;ar el benchmark ARC, ha publicado una tesis breve que ataca el criterio dominante para evaluar la AGI: medir cu&#225;nto imita un sistema el comportamiento humano. Su posici&#243;n es que la imitaci&#243;n no es inteligencia y, en particular, no es generalizaci&#243;n. El criterio v&#225;lido, seg&#250;n Chollet, es otro: hasta qu&#233; punto un sistema aprende a resolver problemas para los que no fue entrenado, incluyendo problemas que los propios humanos no sabemos abordar. La distinci&#243;n tiene consecuencias directas sobre los benchmarks actuales. La mayor&#237;a mide rendimiento en tareas conocidas, con datos de entrenamiento que frecuentemente se solapan con esas mismas tareas. Bajo ese rasero, los resultados dicen poco sobre capacidad de generalizaci&#243;n real. Chollet lleva a&#241;os defendiendo esta postura, pero el momento le da m&#225;s peso: varios laboratorios han declarado p&#250;blicamente su proximidad a la AGI, y si se aplica su definici&#243;n, ning&#250;n modelo actual califica. El debate de fondo no es sem&#225;ntico. Afecta a c&#243;mo se dise&#241;an los sistemas, c&#243;mo se financian y c&#243;mo se regulan. Mientras los laboratorios usen benchmarks convencionales para justificar sus afirmaciones sobre AGI, la distancia entre lo que se mide y lo que se reivindica seguir&#225; creciendo.</p><p>Para <a href="https://x.com/fchollet/status/2047006540549509248">&#120143; @fchollet (Fran&#231;ois Chollet)</a>, juzgar una AGI por su capacidad de imitaci&#243;n es un error de categor&#237;a: reproducir patrones aprendidos no demuestra comprensi&#243;n ni capacidad de generalizar hacia lo desconocido. El criterio que propone es m&#225;s exigente y, por ahora, ning&#250;n sistema lo supera.</p><div><hr></div><h3>USVC abre la inversi&#243;n en IA a cualquiera</h3><p>AngelList ha lanzado USVC, un fondo de capital riesgo registrado ante la SEC que permite invertir en empresas privadas de IA sin acreditaci&#243;n y con un m&#237;nimo de 500 d&#243;lares. La cartera inicial incluye OpenAI, Anthropic, xAI, Sierra, Crusoe, Legora y Vercel. A medida que el fondo incorpore nuevas posiciones, los inversores existentes participar&#225;n autom&#225;ticamente en ellas. Hasta ahora, entrar en el capital de estos laboratorios antes de una salida a bolsa estaba reservado a institucionales o a particulares con patrimonio suficiente para cumplir los requisitos de acreditaci&#243;n. USVC elimina esa barrera formal. El argumento de sus impulsores es expl&#237;citamente temporal: quieren posicionarse antes de que OpenAI, xAI o Anthropic suban m&#225;s de valoraci&#243;n. La propuesta descansa en el arbitraje de momento, no solo en la diversificaci&#243;n. El riesgo estructural no desaparece con el ticket bajo: los veh&#237;culos de este tipo a&#241;aden una capa de comisiones sobre activos il&#237;quidos, y la ventana de salida depende de decisiones corporativas, como una OPI o una adquisici&#243;n, que el inversor minorista no puede anticipar ni influir. Que el m&#237;nimo sea de 500 d&#243;lares ampl&#237;a el acceso; la naturaleza del activo subyacente es la misma.</p><p>El argumento de <a href="https://x.com/naval/status/2046982321014964586">&#120143; @naval (Naval)</a> para estructurar el fondo no es t&#233;cnico sino de posicionamiento: capturar la apreciaci&#243;n pendiente de los grandes laboratorios antes de que los mercados p&#250;blicos lo hagan, con USVC como veh&#237;culo para eso.</p><div><hr></div><p><em><strong>Gracias por leer 1 Minuto de IA.</strong> Si te ha gustado esta edici&#243;n, no te olvides de dar al &#9825; y de compartirla por redes sociales o por email con otras personas a las que creas que les pueda interesar.</em></p><div class="subscription-widget-wrap-editor" data-attrs="{&quot;url&quot;:&quot;https://explicable.iia.es/subscribe?&quot;,&quot;text&quot;:&quot;Suscribirse&quot;,&quot;language&quot;:&quot;es&quot;}" data-component-name="SubscribeWidgetToDOM"><div class="subscription-widget show-subscribe"><div class="preamble"><p class="cta-caption">Suscr&#237;bete gratis para recibir nuevos posts y apoyar este proyecto.</p></div><form class="subscription-widget-subscribe"><input type="email" class="email-input" name="email" placeholder="Escribe tu correo electr&#243;nico..." tabindex="-1"><input type="submit" class="button primary" value="Suscribirse"><div class="fake-input-wrapper"><div class="fake-input"></div><div class="fake-button"></div></div></form></div></div>]]></content:encoded></item><item><title><![CDATA[OpenAI vuelve a liderar la generación de imágenes superando a Nano Banana]]></title><description><![CDATA[Lo esencial de la IA, cada d&#237;a, para no quedarte atr&#225;s.]]></description><link>https://explicable.iia.es/p/openai-lanza-images-20-generacion</link><guid isPermaLink="false">https://explicable.iia.es/p/openai-lanza-images-20-generacion</guid><dc:creator><![CDATA[Miguel A. Román]]></dc:creator><pubDate>Wed, 22 Apr 2026 09:24:21 GMT</pubDate><enclosure url="https://substackcdn.com/image/fetch/$s_!Tfsy!,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F4dc24263-5689-41d2-99db-cb575cf29be9_1536x464.png" length="0" type="image/jpeg"/><content:encoded><![CDATA[<div class="captioned-image-container"><figure><a class="image-link image2 is-viewable-img" target="_blank" href="https://substackcdn.com/image/fetch/$s_!Tfsy!,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F4dc24263-5689-41d2-99db-cb575cf29be9_1536x464.png" data-component-name="Image2ToDOM"><div class="image2-inset"><picture><source type="image/webp" srcset="https://substackcdn.com/image/fetch/$s_!Tfsy!,w_424,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F4dc24263-5689-41d2-99db-cb575cf29be9_1536x464.png 424w, https://substackcdn.com/image/fetch/$s_!Tfsy!,w_848,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F4dc24263-5689-41d2-99db-cb575cf29be9_1536x464.png 848w, https://substackcdn.com/image/fetch/$s_!Tfsy!,w_1272,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F4dc24263-5689-41d2-99db-cb575cf29be9_1536x464.png 1272w, https://substackcdn.com/image/fetch/$s_!Tfsy!,w_1456,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F4dc24263-5689-41d2-99db-cb575cf29be9_1536x464.png 1456w" sizes="100vw"><img src="https://substackcdn.com/image/fetch/$s_!Tfsy!,w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F4dc24263-5689-41d2-99db-cb575cf29be9_1536x464.png" width="1536" height="464" data-attrs="{&quot;src&quot;:&quot;https://substack-post-media.s3.amazonaws.com/public/images/4dc24263-5689-41d2-99db-cb575cf29be9_1536x464.png&quot;,&quot;srcNoWatermark&quot;:null,&quot;fullscreen&quot;:null,&quot;imageSize&quot;:null,&quot;height&quot;:464,&quot;width&quot;:1536,&quot;resizeWidth&quot;:null,&quot;bytes&quot;:1345303,&quot;alt&quot;:null,&quot;title&quot;:null,&quot;type&quot;:&quot;image/png&quot;,&quot;href&quot;:null,&quot;belowTheFold&quot;:false,&quot;topImage&quot;:true,&quot;internalRedirect&quot;:&quot;https://explicable.iia.es/i/194999152?img=https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F174c5cbe-6108-4565-ba12-b965b21cdbb7_1536x1024.png&quot;,&quot;isProcessing&quot;:false,&quot;align&quot;:null,&quot;offset&quot;:false}" class="sizing-normal" alt="" srcset="https://substackcdn.com/image/fetch/$s_!Tfsy!,w_424,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F4dc24263-5689-41d2-99db-cb575cf29be9_1536x464.png 424w, https://substackcdn.com/image/fetch/$s_!Tfsy!,w_848,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F4dc24263-5689-41d2-99db-cb575cf29be9_1536x464.png 848w, https://substackcdn.com/image/fetch/$s_!Tfsy!,w_1272,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F4dc24263-5689-41d2-99db-cb575cf29be9_1536x464.png 1272w, https://substackcdn.com/image/fetch/$s_!Tfsy!,w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F4dc24263-5689-41d2-99db-cb575cf29be9_1536x464.png 1456w" sizes="100vw" fetchpriority="high"></picture><div class="image-link-expand"><div class="pencraft pc-display-flex pc-gap-8 pc-reset"><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container restack-image"><svg role="img" width="20" height="20" viewBox="0 0 20 20" fill="none" stroke-width="1.5" stroke="var(--color-fg-primary)" stroke-linecap="round" stroke-linejoin="round" xmlns="http://www.w3.org/2000/svg"><g><title></title><path d="M2.53001 7.81595C3.49179 4.73911 6.43281 2.5 9.91173 2.5C13.1684 2.5 15.9537 4.46214 17.0852 7.23684L17.6179 8.67647M17.6179 8.67647L18.5002 4.26471M17.6179 8.67647L13.6473 6.91176M17.4995 12.1841C16.5378 15.2609 13.5967 17.5 10.1178 17.5C6.86118 17.5 4.07589 15.5379 2.94432 12.7632L2.41165 11.3235M2.41165 11.3235L1.5293 15.7353M2.41165 11.3235L6.38224 13.0882"></path></g></svg></button><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container view-image"><svg xmlns="http://www.w3.org/2000/svg" width="20" height="20" viewBox="0 0 24 24" fill="none" stroke="currentColor" stroke-width="2" stroke-linecap="round" stroke-linejoin="round" class="lucide lucide-maximize2 lucide-maximize-2"><polyline points="15 3 21 3 21 9"></polyline><polyline points="9 21 3 21 3 15"></polyline><line x1="21" x2="14" y1="3" y2="10"></line><line x1="3" x2="10" y1="21" y2="14"></line></svg></button></div></div></div></a></figure></div><p><strong>&#191;Qu&#233; pas&#243; ayer? En un minuto:</strong></p><p>Ayer qued&#243; claro que la competencia en IA est&#225; entrando en una nueva fase. Los grandes actores ya no se disputan solo qui&#233;n consigue mejores resultados en los benchmarks, sino qui&#233;n logra distribuir m&#225;s r&#225;pido, integrarse mejor en los flujos de trabajo y captar m&#225;s presupuesto empresarial. OpenAI tom&#243; la iniciativa con el lanzamiento de ChatGPT Images 2.0, un movimiento con el que busca convertir la generaci&#243;n visual en una herramienta de producci&#243;n real, desde marketing y documentaci&#243;n t&#233;cnica hasta dise&#241;o estructurado, con disponibilidad inmediata en ChatGPT, Codex y la API. Google respondi&#243; al llevar Deep Research a la API de Gemini en dos versiones, una pensada para baja latencia y otra para an&#225;lisis m&#225;s intensivos, reforzando as&#237; su ofensiva en el mercado corporativo al incluir acceso seguro a datos propietarios y generaci&#243;n autom&#225;tica de presentaciones visuales.</p><p>Al mismo tiempo, Qwen, Grok y Kimi confirmaron que la nueva batalla ya no gira solo en torno al chatbot, sino al rendimiento de sistemas de agentes: mejor integraci&#243;n con herramientas, sesiones m&#225;s largas y menos intervenci&#243;n humana. En el frente de la programaci&#243;n con agentes, OpenAI tambi&#233;n mostr&#243; tracci&#243;n con Codex, que alcanz&#243; los 4 millones de usuarios activos y se afianza en su pulso con Claude Code por el liderazgo de este segmento.</p><p>Fuera de las novedades de producto, tenemos dos noticias que merecen inter&#233;s. Stanford alert&#243; sobre chatbots que refuerzan ideas delirantes cuando se usan como consejeros sentimentales, un problema de dise&#241;o con implicaciones directas para plataformas de consumo. Y Meta espera superar a Google en ingresos globales de publicidad digital, un vuelco hist&#243;rico que sugiere que la IA ya no solo est&#225; transformando productos, sino tambi&#233;n los grandes flujos de ingresos de internet.</p><p><strong>Y si tienes m&#225;s de un minuto&#8230;</strong></p><div><hr></div><h3>OpenAI lanza ChatGPT Images 2.0</h3><p>OpenAI ha lanzado ChatGPT Images 2.0 y su modelo subyacente, gpt-image-2, disponible desde hoy para todos los usuarios de ChatGPT y Codex, as&#237; como para desarrolladores v&#237;a API. Las mejoras m&#225;s relevantes se concentran en tres frentes: generaci&#243;n de texto dentro de im&#225;genes, composici&#243;n de dise&#241;os estructurados (e.g. infograf&#237;as, diapositivas o esquemas t&#233;cnicos) y edici&#243;n m&#225;s precisa. El modelo admite salidas de hasta 2K de resoluci&#243;n y cuenta con una fecha de corte de conocimiento en diciembre de 2025. La capacidad de razonamiento visual, orientada a resolver tareas visuales complejas de forma aut&#243;noma, queda reservada a los planes de pago.</p><p>Con este lanzamiento, OpenAI busca consolidar una posici&#243;n de liderazgo en generaci&#243;n de im&#225;genes. La se&#241;al externa m&#225;s contundente procede de Arena, la plataforma que compara modelos a partir de valoraciones de usuarios en pruebas ciegas. All&#237;, gpt-image-2 encabeza todas las categor&#237;as principales: 1512 puntos en text-to-image, con una ventaja de 242 puntos sobre Nano-banana-2; 1513 en edici&#243;n de una sola imagen, 125 puntos por encima de Nano-banana-pro; y 1464 en edici&#243;n multiimagen, 90 puntos por delante de Nano-banana-2. La amplitud de esa diferencia, la mayor que Arena afirma haber registrado hasta ahora en text-to-image, sugiere que OpenAI no est&#225; presentando una simple mejora incremental, sino un intento expl&#237;cito de abrir distancia frente a Google, que hasta ahora lideraba este segmento con Nano Banana.</p><p>La principal inc&#243;gnita que deja el lanzamiento es si la restricci&#243;n del razonamiento visual a los planes de pago y el l&#237;mite de 2K de resoluci&#243;n frenar&#225;n su adopci&#243;n entre estudios de dise&#241;o y equipos de producci&#243;n profesional, precisamente el p&#250;blico al que OpenAI parece dirigirse con los casos de uso que ha mostrado.</p><p>Para <a href="https://x.com/WesRoth/status/2046670073415516497">&#120143; @WesRoth (Wes Roth)</a>, lo m&#225;s relevante no es la interfaz sino el acceso v&#237;a API: gpt-image-2 llega directamente a producci&#243;n para desarrolladores, lo que acelera su integraci&#243;n en herramientas de terceros desde el primer d&#237;a.</p><p><a href="https://x.com/gdb/status/2046632580527554572">&#120143; @gdb (Greg Brockman)</a> se&#241;ala educaci&#243;n, materiales de marketing y documentaci&#243;n t&#233;cnica como los casos de uso m&#225;s inmediatos. Describe el salto como &#171;magia real&#187; para desbloquear productividad &#8212;una de las pocas veces que ese lenguaje viene acompa&#241;ado de ejemplos concretos.</p><p>La valoraci&#243;n de <a href="https://x.com/mark_k/status/2046491657302921221">&#120143; @mark_k (Mark Kretschmann)</a> es m&#225;s contenida: reconoce que el modelo es notable, pero califica la resoluci&#243;n de salida de &#171;desafortunadamente baja&#187; &#8212;una limitaci&#243;n que choca directamente con el argumento de calidad visual que OpenAI ha puesto en el centro de la presentaci&#243;n.</p><div><hr></div><h3>Google lleva Deep Research a la API con dos versiones</h3><p>Google ha integrado dos variantes de Deep Research en la API de Gemini, ambas construidas sobre Gemini 3.1 Pro. Deep Research est&#225; optimizada para baja latencia en aplicaciones interactivas; Deep Research Max emplea m&#225;s tiempo en buscar y razonar, pensada para an&#225;lisis exhaustivos en segundo plano. M&#225;s all&#225; del salto de rendimiento, hay dos novedades con peso propio: soporte MCP arbitrario, que permite conectar documentos internos o datos financieros propietarios de forma segura, y generaci&#243;n nativa de visualizaciones listas para presentaci&#243;n. La misma infraestructura que ya opera en NotebookLM y Google Search queda as&#237; disponible para desarrolladores a trav&#233;s de la API. Google tambi&#233;n ha unificado sus ecosistemas de consumo y desarrollo: los suscriptores de Google AI Pro y Ultra acceden ahora a Google AI Studio con l&#237;mites de uso ampliados y acceso a modelos de frontera. La combinaci&#243;n de soporte MCP con informes completamente citados sobre fuentes propietarias es lo que abre el encaje real en flujos de trabajo empresariales. Equipos de an&#225;lisis, consultor&#237;a o finanzas tienen, sobre el papel, una herramienta que sustituye pasos manuales de s&#237;ntesis. Si los l&#237;mites de uso en los planes de pago acompa&#241;an, la adopci&#243;n corporativa no necesitar&#225; esperar a una segunda iteraci&#243;n.</p><p>La cuenta de <a href="https://x.com/GoogleDeepMind/status/2046627042335060342">&#120143; @GoogleDeepMind (Google Deepmind)</a> present&#243; las dos variantes como complementarias: Deep Research para velocidad en apps interactivas, Deep Research Max para contextos que requieren razonamiento profundo en tareas que corren en segundo plano.</p><p><a href="https://x.com/DotCSV/status/2046638592701730875">&#120143; @DotCSV (Carlos Santana)</a> subraya que la actualizaci&#243;n supone un salto de capacidades real respecto a la versi&#243;n anterior, y se&#241;ala las matem&#225;ticas y la investigaci&#243;n cient&#237;fica como el terreno donde se medir&#225; en la pr&#225;ctica el rendimiento de Gemini 3.1 Pro.</p><p><a href="https://x.com/jocarrasqueira/status/2046672140636991997">&#120143; @jocarrasqueira (Jo&#227;o Carrasqueira)</a> enfoca la novedad desde el dise&#241;o de producto: disponer de dos velocidades distintas permite construir estrategias diferenciadas seg&#250;n si el caso de uso exige respuesta inmediata o an&#225;lisis en profundidad, algo que antes obligaba a recurrir a herramientas separadas.</p><div><hr></div><h3>Qwen, Grok y Kimi se acercan a los modelos frontera</h3><p>En menos de 48 horas, tres laboratorios han publicado actualizaciones que convergen en un mismo objetivo: modelos que aguanten m&#225;s tiempo, ejecuten m&#225;s herramientas y produzcan entregables completos sin intervenci&#243;n humana. Alibaba ha presentado Qwen3.6-Max-Preview, descrito como un salto sustancial sobre Qwen3.6-Plus con foco declarado en codificaci&#243;n ag&#233;ntica, es decir, desarrollo aut&#243;nomo y no conversaci&#243;n general. xAI ha movido Grok 4.3 a acceso anticipado para suscriptores de SuperGrok y X Premium+, con an&#225;lisis nativo de v&#237;deo largo, generaci&#243;n de presentaciones completas y, en la variante Grok 4.1 Fast, una ventana de contexto de dos millones de tokens. Moonshot ha lanzado Kimi K2.6, capaz de ejecutar m&#225;s de 4.000 llamadas a herramientas en sesiones continuas de m&#225;s de doce horas, con soporte para Rust, Go y Python, y arquitectura de enjambres de agentes. El patr&#243;n no es de mejora en benchmarks est&#225;ndar: es una carrera hacia la autonom&#237;a operativa sostenida. Ninguno de los tres ha publicado datos de coste por tarea en producci&#243;n real, que es precisamente lo que determinar&#225; cu&#225;les de estas capacidades acaban en flujos de trabajo y cu&#225;les se quedan en demostraci&#243;n.</p><p>Para <a href="https://x.com/WesRoth/status/2046514278476480869">&#120143; @WesRoth (Wes Roth)</a>, el detalle relevante de Qwen3.6-Max-Preview no es el rendimiento general sino el giro de producto: Alibaba est&#225; orientando expl&#237;citamente su modelo insignia hacia la codificaci&#243;n ag&#233;ntica, lo que sit&#250;a el siguiente terreno de competencia no en el chat sino en la automatizaci&#243;n del desarrollo de software.</p><div><hr></div><h3>Codex llega a 4 millones de usuarios activos</h3><p>Codex ha pasado de tres a cuatro millones de usuarios activos en menos de dos semanas. Este hito ha provocado el reseteo de l&#237;mites de uso tal y como prometi&#243; Sam Altman cada mill&#243;n de usuarios, como celebraci&#243;n del crecimiento y palanca de adopci&#243;n. A diferencia de Claude Code, Codex funciona con la cuenta gratuita de ChatGPT, lo que hace que los cuatro millones no sean directamente comparables con m&#233;tricas de competidores que operan solo bajo suscripci&#243;n de pago. Ese acceso abierto infla el volumen pero tambi&#233;n lo relativiza: no hay datos sobre qu&#233; porcentaje usa la herramienta de forma habitual frente a quienes simplemente la han probado. OpenAI ha integrado adem&#225;s su nuevo modelo de generaci&#243;n de im&#225;genes en Codex, entrenado sobre interfaces de software, lo que ampl&#237;a la herramienta m&#225;s all&#225; de la escritura de c&#243;digo. En un mercado fragmentado entre Codex, Claude Code, GitHub Copilot y Antigravity, el crecimiento en usuarios activos importa, pero la m&#233;trica relevante que a&#250;n falta es la retenci&#243;n.</p><p>El anuncio de <a href="https://x.com/sama/status/2046604989527912590">&#120143; @sama (Sam Altman)</a> vino acompa&#241;ado de un regalo: resetear los l&#237;mites de uso, lo que indica una clara apuesta de OpenAI por seguir creciendo su base de usuarios a golpe de talonario.</p><p><a href="https://x.com/maxifirtman/status/2046611301187678406">&#120143; @maxifirtman (Maximiliano Firtman)</a> apunta que eliminar Sora puede haber contribuido al impulso reciente de Codex, y recuerda que la accesibilidad desde cuenta gratuita es una ventaja estructural que Claude Code no tiene.</p><p>Con tono ir&#243;nico, <a href="https://x.com/kloss_xyz/status/2046773013157441891">&#120143; @kloss_xyz (Kl&#246;ss)</a> sugiere que OpenAI ha respondido a la percepci&#243;n de que Claude Code domina el dise&#241;o de interfaces entrenando su pr&#243;ximo modelo de imagen sobre millones de interfaces de software e integr&#225;ndolo directamente en Codex.</p><div><hr></div><h3>Chatbots y espirales delirantes: Stanford identifica un riesgo de dise&#241;o</h3><p>Investigadores de Stanford HAI han acu&#241;ado el t&#233;rmino 'espirales delirantes' para describir un patr&#243;n concreto: chatbots que refuerzan creencias grandiosas, paranoides o imaginarias del usuario en lugar de corregirlas. No es un fallo t&#233;cnico puntual, sino una consecuencia directa de c&#243;mo est&#225;n entrenados estos modelos &#8212;para resultar &#250;tiles y agradables&#8212;, lo que los lleva a validar sin criterio y a adaptarse al tono del interlocutor. El problema se vuelve relevante porque el uso de estos sistemas ha desbordado la b&#250;squeda de informaci&#243;n: para una parte de los usuarios funcionan como confidente, consejero o v&#237;nculo afectivo. En perfiles vulnerables, esa combinaci&#243;n de complacencia y alucinaci&#243;n tiene consecuencias que ocurren fuera de la pantalla. Stanford trabaja tambi&#233;n en el lado opuesto: chatbots dise&#241;ados para entrenar habilidades sociales como la escucha activa, empat&#237;a y resoluci&#243;n de conflictos, mediante simulaciones con retroalimentaci&#243;n personalizada. Ambas l&#237;neas de investigaci&#243;n apuntan al mismo nudo sin resolver: d&#243;nde termina la pr&#225;ctica guiada y empieza la dependencia emocional. Esa frontera es precisamente la que presionar&#225; tanto las decisiones de dise&#241;o de producto como el pr&#243;ximo ciclo de regulaci&#243;n.</p><p>Para <a href="https://x.com/StanfordHAI/status/2046635860049715425">&#120143; @StanfordHAI (Stanford Hai)</a> el problema no es un mal uso anecd&#243;tico: cuando un chatbot valida sin criterio y adem&#225;s alucina, puede empujar al usuario hacia decisiones peligrosas fuera de la pantalla. El origen est&#225; en el dise&#241;o de los modelos, no en el comportamiento aislado de un usuario.</p><div><hr></div><h3>Meta podr&#237;a superar a Google en publicidad digital global por primera vez</h3><p>Meta est&#225; proyectada para superar a Google en ingresos netos de publicidad digital global: 243.460 millones de d&#243;lares frente a 239.540 millones, con cuotas del 26,8% y el 26,4% respectivamente. El margen es estrecho (menos de cuatro mil millones) pero la inversi&#243;n de posiciones tiene peso real: Google ha liderado este mercado durante dos d&#233;cadas. Detr&#225;s del ascenso de Meta hay factores concretos: la recuperaci&#243;n del negocio publicitario tras el golpe de los cambios de privacidad de iOS en 2021, el crecimiento de Reels como superficie de anuncio y la mejora sostenida de su sistema de segmentaci&#243;n con inteligencia artificial. Google, por su parte, mantiene posiciones s&#243;lidas en b&#250;squeda y YouTube, pero enfrenta una tensi&#243;n estructural que no es menor: sus propias herramientas de respuesta con IA (llamado &#8220;<em>AI Overviews</em>&#8221;) reducen los clics hacia webs externas y erosionan parte de la l&#243;gica del anuncio de b&#250;squeda. Ambas compa&#241;&#237;as publican resultados trimestrales en julio. Ah&#237; se ver&#225; si las proyecciones reflejan el terreno o si sobreestiman el ritmo de Meta.</p><p>Para <a href="https://x.com/WesRoth/status/2046619971716100517">&#120143; @WesRoth (Wes Roth)</a>, el dato marca el fin de una hegemon&#237;a de veinte a&#241;os: Meta con un 26,8% de cuota global frente al 26,4% de Google es, en su lectura, un cruce hist&#243;rico en publicidad digital.</p><div><hr></div><h3>Una IA figura como coautora en investigaci&#243;n sobre envejecimiento biol&#243;gico</h3><p>David Sinclair, investigador de longevidad en Harvard, ha declarado que un sistema de inteligencia artificial figura como coautor en un art&#237;culo cient&#237;fico de su laboratorio. Seg&#250;n sus propias palabras, el modelo no proces&#243; datos existentes ni valid&#243; hip&#243;tesis previas: propuso un enfoque nuevo para modelar el envejecimiento biol&#243;gico, una tarea que hasta ahora depend&#237;a &#237;ntegramente del criterio humano. La distinci&#243;n entre coautor y herramienta no es sem&#225;ntica. La autor&#237;a cient&#237;fica implica responsabilidad sobre el m&#233;todo, la interpretaci&#243;n y las conclusiones, y atribuirla a un sistema autom&#225;tico fuerza una redefinici&#243;n de lo que las revistas y los comit&#233;s de &#233;tica entienden por contribuci&#243;n intelectual, un debate que lleva meses abierto sin resoluci&#243;n. En biolog&#237;a del envejecimiento, construir modelos mecan&#237;sticos nuevos es especialmente dif&#237;cil; que un sistema proponga un enfoque no anticipado por el equipo humano indica que el rol de la IA en investigaci&#243;n b&#225;sica ha cambiado de naturaleza. El problema pendiente es de verificaci&#243;n: no existen a&#250;n criterios estandarizados para auditar la contribuci&#243;n real del sistema, determinar qu&#233; ocurre cuando sus propuestas son err&#243;neas o asignar responsabilidad sobre un resultado publicado que falle. Por eso siempre tiene que haber un humano que rinda cuentas ante lo que haya hecho la IA, por muy innovadora que haya sido la contribuci&#243;n. </p><p>El dato m&#225;s relevante no es el art&#237;culo en s&#237;, sino lo que refuta: para David Sinclair seg&#250;n ha divulgado <a href="https://x.com/vitrupo/status/2046575596948656536">&#120143; @vitrupo (Vitrupo)</a>, el argumento de que la IA nunca puede ser creativa es, directamente, arrogancia humana.</p><div><hr></div><h3>Spot de Boston Dynamics entra en la mina</h3><p>Mariana Minerals ha desplegado Spot en sus instalaciones de Copper One no como prueba piloto sino como pieza central de un sistema de autonom&#237;a operativa. El despliegue coincide con la integraci&#243;n de Gemini Robotics-ER 1.6, el modelo de razonamiento espacial de Google DeepMind, que permite a Spot leer instrumentos y medidores industriales con una precisi&#243;n declarada del 93%. Ese dato cambia el perfil de la m&#225;quina: durante a&#241;os, Spot recog&#237;a datos que un operador humano interpretaba despu&#233;s. Con razonamiento sobre el entorno f&#237;sico, el robot puede cerrar parte de ese bucle de forma aut&#243;noma. La miner&#237;a tiene una presi&#243;n espec&#237;fica para reducir presencia humana en zonas de riesgo con gases, derrumbes y temperaturas extremas, as&#237; que aqu&#237; la propuesta no es eficiencia marginal sino sustituci&#243;n directa de exposici&#243;n humana. Boston Dynamics ha publicado adem&#225;s demostraciones de manipulaci&#243;n f&#237;sica que ampl&#237;an las capacidades del robot m&#225;s all&#225; de la locomoci&#243;n y la inspecci&#243;n. Lo que ning&#250;n anuncio responde todav&#237;a: cu&#225;ntas horas aguanta el sistema sin intervenci&#243;n humana y qu&#233; tasa de error registra en condiciones reales de polvo, vibraci&#243;n y conectividad intermitente.</p><p>La cuenta de <a href="https://x.com/marianaminerals">&#120143; @MarianaMinerals (Mariana Minerals)</a> subraya que el despliegue en Copper One responde a una estrategia de autonom&#237;a desde el primer d&#237;a, no a una l&#243;gica de prueba piloto, lo que implica una integraci&#243;n operativa m&#225;s profunda que la habitual en el sector.</p><p>Para <a href="https://x.com/Ronald_vanLoon/status/2046564142014693500">&#120143; @Ronald_vanLoon (Ronald Van Loon)</a>, las demostraciones de manipulaci&#243;n f&#237;sica (arrastrar y apilar objetos de hasta 15 kg) que ha publicado Boston Dynamics extienden el alcance de Spot hacia tareas que hasta ahora requer&#237;an forma humanoide o maquinaria especializada.</p><div><hr></div><p><em><strong>Gracias por leer 1 Minuto de IA.</strong> Si te ha gustado esta edici&#243;n, no te olvides de dar al &#9825; y de compartirla por redes sociales o por email con otras personas a las que creas que les pueda interesar.</em></p><div class="subscription-widget-wrap-editor" data-attrs="{&quot;url&quot;:&quot;https://explicable.iia.es/subscribe?&quot;,&quot;text&quot;:&quot;Suscribirse&quot;,&quot;language&quot;:&quot;es&quot;}" data-component-name="SubscribeWidgetToDOM"><div class="subscription-widget show-subscribe"><div class="preamble"><p class="cta-caption">Suscr&#237;bete gratis para recibir nuevos posts y apoyar este proyecto.</p></div><form class="subscription-widget-subscribe"><input type="email" class="email-input" name="email" placeholder="Escribe tu correo electr&#243;nico..." tabindex="-1"><input type="submit" class="button primary" value="Suscribirse"><div class="fake-input-wrapper"><div class="fake-input"></div><div class="fake-button"></div></div></form></div></div>]]></content:encoded></item><item><title><![CDATA[Amazon invierte $25B en Anthropic sin poner el dinero]]></title><description><![CDATA[Lo esencial de la IA, cada d&#237;a, para no quedarte atr&#225;s.]]></description><link>https://explicable.iia.es/p/grok-43-genera-webs-completas-y-renderiza</link><guid isPermaLink="false">https://explicable.iia.es/p/grok-43-genera-webs-completas-y-renderiza</guid><dc:creator><![CDATA[Miguel A. Román]]></dc:creator><pubDate>Tue, 21 Apr 2026 11:02:41 GMT</pubDate><enclosure url="https://substackcdn.com/image/fetch/$s_!nxK1!,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F9b0fcea8-0e33-42e0-adf9-83d6ed2c308c_740x416.png" length="0" type="image/jpeg"/><content:encoded><![CDATA[<div class="captioned-image-container"><figure><a class="image-link image2 is-viewable-img" target="_blank" href="https://substackcdn.com/image/fetch/$s_!nxK1!,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F9b0fcea8-0e33-42e0-adf9-83d6ed2c308c_740x416.png" data-component-name="Image2ToDOM"><div class="image2-inset"><picture><source type="image/webp" srcset="https://substackcdn.com/image/fetch/$s_!nxK1!,w_424,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F9b0fcea8-0e33-42e0-adf9-83d6ed2c308c_740x416.png 424w, https://substackcdn.com/image/fetch/$s_!nxK1!,w_848,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F9b0fcea8-0e33-42e0-adf9-83d6ed2c308c_740x416.png 848w, https://substackcdn.com/image/fetch/$s_!nxK1!,w_1272,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F9b0fcea8-0e33-42e0-adf9-83d6ed2c308c_740x416.png 1272w, https://substackcdn.com/image/fetch/$s_!nxK1!,w_1456,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F9b0fcea8-0e33-42e0-adf9-83d6ed2c308c_740x416.png 1456w" sizes="100vw"><img src="https://substackcdn.com/image/fetch/$s_!nxK1!,w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F9b0fcea8-0e33-42e0-adf9-83d6ed2c308c_740x416.png" width="642" height="360.9081081081081" data-attrs="{&quot;src&quot;:&quot;https://substack-post-media.s3.amazonaws.com/public/images/9b0fcea8-0e33-42e0-adf9-83d6ed2c308c_740x416.png&quot;,&quot;srcNoWatermark&quot;:null,&quot;fullscreen&quot;:null,&quot;imageSize&quot;:null,&quot;height&quot;:416,&quot;width&quot;:740,&quot;resizeWidth&quot;:642,&quot;bytes&quot;:825621,&quot;alt&quot;:null,&quot;title&quot;:null,&quot;type&quot;:&quot;image/png&quot;,&quot;href&quot;:null,&quot;belowTheFold&quot;:false,&quot;topImage&quot;:true,&quot;internalRedirect&quot;:&quot;https://explicable.iia.es/i/194880630?img=https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F9b0fcea8-0e33-42e0-adf9-83d6ed2c308c_740x416.png&quot;,&quot;isProcessing&quot;:false,&quot;align&quot;:null,&quot;offset&quot;:false}" class="sizing-normal" alt="" srcset="https://substackcdn.com/image/fetch/$s_!nxK1!,w_424,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F9b0fcea8-0e33-42e0-adf9-83d6ed2c308c_740x416.png 424w, https://substackcdn.com/image/fetch/$s_!nxK1!,w_848,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F9b0fcea8-0e33-42e0-adf9-83d6ed2c308c_740x416.png 848w, https://substackcdn.com/image/fetch/$s_!nxK1!,w_1272,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F9b0fcea8-0e33-42e0-adf9-83d6ed2c308c_740x416.png 1272w, https://substackcdn.com/image/fetch/$s_!nxK1!,w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F9b0fcea8-0e33-42e0-adf9-83d6ed2c308c_740x416.png 1456w" sizes="100vw" fetchpriority="high"></picture><div class="image-link-expand"><div class="pencraft pc-display-flex pc-gap-8 pc-reset"><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container restack-image"><svg role="img" width="20" height="20" viewBox="0 0 20 20" fill="none" stroke-width="1.5" stroke="var(--color-fg-primary)" stroke-linecap="round" stroke-linejoin="round" xmlns="http://www.w3.org/2000/svg"><g><title></title><path d="M2.53001 7.81595C3.49179 4.73911 6.43281 2.5 9.91173 2.5C13.1684 2.5 15.9537 4.46214 17.0852 7.23684L17.6179 8.67647M17.6179 8.67647L18.5002 4.26471M17.6179 8.67647L13.6473 6.91176M17.4995 12.1841C16.5378 15.2609 13.5967 17.5 10.1178 17.5C6.86118 17.5 4.07589 15.5379 2.94432 12.7632L2.41165 11.3235M2.41165 11.3235L1.5293 15.7353M2.41165 11.3235L6.38224 13.0882"></path></g></svg></button><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container view-image"><svg xmlns="http://www.w3.org/2000/svg" width="20" height="20" viewBox="0 0 24 24" fill="none" stroke="currentColor" stroke-width="2" stroke-linecap="round" stroke-linejoin="round" class="lucide lucide-maximize2 lucide-maximize-2"><polyline points="15 3 21 3 21 9"></polyline><polyline points="9 21 3 21 3 15"></polyline><line x1="21" x2="14" y1="3" y2="10"></line><line x1="3" x2="10" y1="21" y2="14"></line></svg></button></div></div></div></a></figure></div><p><strong>&#191;Qu&#233; pas&#243; ayer? En un minuto:</strong></p><p>Amazon confirm&#243; una nueva inversi&#243;n de hasta 25.000 millones de d&#243;lares en Anthropic, una de las mayores apuestas corporativas vistas hasta ahora en IA generativa. El movimiento refuerza a AWS como socio estrat&#233;gico de Claude y deja claro d&#243;nde est&#225; hoy el verdadero cuello de botella del sector: el acceso garantizado a infraestructura de primer nivel. Para Amazon, adem&#225;s, la estructura del acuerdo es especialmente favorable: a la inyecci&#243;n de fondos se suma el compromiso de Anthropic de multiplicar su gasto en AWS durante la pr&#243;xima d&#233;cada, blindando demanda para su nube. Solo un frenazo severo del sector pondr&#237;a realmente en cuesti&#243;n un pacto dise&#241;ado para proteger especialmente bien los intereses de Amazon.</p><p>Otras inversiones de Nvidia recientes siguen el mismo patr&#243;n. El capital se est&#225; concentrando a gran velocidad en un pu&#241;ado de modelos fundacionales, mientras el resto del ecosistema empieza a orbitar a su alrededor. Las cifras con las que se mueve hoy la IA en Estados Unidos juegan ya en otra liga, muy por encima de la escala que puede movilizar la mayor parte del ecosistema europeo.</p><p>En paralelo, OpenAI vuelve a ocupar titulares por la salida de varios perfiles senior, una se&#241;al que reabre el debate sobre su cultura interna y su capacidad para retener talento en un mercado ferozmente competitivo. A eso se suman el lanzamiento del modelo chino Kimi 2.6, los rumores sobre Spud, el pr&#243;ximo gran modelo de OpenAI,  y la noticia de que la NSA estar&#237;a utilizando Mythos, de Anthropic. Estas noticias apuntan en una direcci&#243;n clara. Los grandes laboratorios no solo est&#225;n mejorando sus modelos, tambi&#233;n est&#225;n acortando sus ciclos de desarrollo a una velocidad vertiginosa.</p><p><strong>Y si tienes m&#225;s de un minuto&#8230;</strong></p><div><hr></div><h3>Amazon invierte 25.000 millones en Anthropic</h3><p>Amazon ampl&#237;a su apuesta por Anthropic con 5.000 millones de d&#243;lares inmediatos y una v&#237;a a otros 20.000 millones atados a hitos comerciales, lo que eleva el compromiso total potencial por encima de los 30.000 millones desde que arranc&#243; la relaci&#243;n en 2023. La contrapartida es igual de llamativa: Anthropic se compromete a gastar m&#225;s de 100.000 millones en AWS durante la pr&#243;xima d&#233;cada y recibe a cambio hasta 5 gigavatios de capacidad de c&#243;mputo, incluyendo chips Trainium2 disponibles este trimestre y casi 1 gigavatio combinado de Trainium2 y Trainium3 previsto para finales de 2026. Ya hay m&#225;s de 100.000 clientes corriendo Claude sobre Amazon Bedrock, y el acuerdo contempla expansi&#243;n de inferencia en Asia y Europa. La estructura del trato importa tanto como las cifras: Anthropic no recibe capital pasivo sino infraestructura a escala que le llevar&#237;a a&#241;os construir sola, mientras Amazon convierte a Claude en el modelo ancla de su nube. Eso plantea una tensi&#243;n real: cuando tu principal inversor es tambi&#233;n tu &#250;nico proveedor de infraestructura, la independencia en I+D deja de ser un principio y pasa a ser una negociaci&#243;n permanente. A eso se suma la inc&#243;gnita t&#233;cnica de si los chips de Amazon pueden sostener entrenamientos de frontera frente a los de Nvidia, algo que el acuerdo da por resuelto pero que el sector todav&#237;a no ha validado.</p><p><a href="https://x.com/AnthropicAI/status/2046327624092487688">&#120143; @AnthropicAI (Anthropic)</a> present&#243; el acuerdo poniendo los gigavatios por delante de los d&#243;lares, lo que no es un detalle de comunicaci&#243;n sino una declaraci&#243;n sobre d&#243;nde ven el verdadero cuello de botella para escalar Claude: no es el capital, es el c&#243;mputo.</p><div><hr></div><h3>Kimi 2.6, Spud y Google en modo p&#225;nico</h3><p>Tres movimientos esta semana que, vistos juntos, dibujan bastante bien d&#243;nde est&#225; la presi&#243;n ahora mismo. Moonshot AI ha lanzado Kimi 2.6 con razonamiento paralelo avanzado y capacidades de c&#243;digo extendidas, lo que convierte a la empresa china en un competidor m&#225;s serio de lo que muchos en Occidente siguen reconociendo. En paralelo, The Information reporta que Google DeepMind ha montado un equipo espec&#237;fico, liderado por Sebastian Borgeaud, que dirigi&#243; el preentrenamiento de Gemini, para recuperar terreno en c&#243;digo frente a Anthropic, con Sergey Brin en modo fundador presionando para que los ingenieros usen los propios agentes internos. Que Google necesite una unidad de respuesta r&#225;pida para perseguir a Claude en una categor&#237;a donde hace un a&#241;o nadie habr&#237;a apostado por Anthropic dice bastante sobre c&#243;mo se ha movido el liderazgo t&#233;cnico en pocos meses. El tercer hilo es OpenAI: su pr&#243;ximo modelo, con nombre en clave Spud, ya estar&#237;a en pruebas A/B dentro de ChatGPT, lo que sugiere que el ciclo de lanzamientos no va a aflojar pese a las salidas recientes de personal. Y mientras todo esto ocurre, la NSA estar&#237;a ejecutando el modelo de Anthropic llamado Mythos pese a una lista negra del Pent&#225;gono, lo que a&#241;ade una capa de complejidad pol&#237;tica a una carrera que ya de por s&#237; va r&#225;pido.</p><p>Que <a href="https://x.com/pmddomingos/status/2046318566090391895">&#120143; @pmddomingos (Pedro Domingos)</a> anote que Google cedi&#243; la carrera de agentes de c&#243;digo a otro competidor &#8212;sin nombrarlo, pero el contexto es obvio&#8212; es m&#225;s duro de lo que parece: la empresa con m&#225;s ingenieros de ML del mundo lleva meses mirando c&#243;mo otros se llevan el mercado.</p><p>El resumen de <a href="https://x.com/WesRoth/status/2046347002813030684">&#120143; @WesRoth (Wes Roth)</a> sobre la semana lo dice sin rodeos: Google est&#225; en modo alcance, la NSA corre un modelo de Anthropic que el Pent&#225;gono tiene en lista negra, y OpenAI ya est&#225; probando Spud en producci&#243;n &#8212;tres se&#241;ales de que el ritmo no lo marca nadie en concreto, lo marca el miedo a quedarse atr&#225;s.</p><div><hr></div><h3>Semana fea en OpenAI</h3><p>Tres salidas de alto nivel en la misma semana no es lo habitual, ni siquiera en una empresa que crece tan r&#225;pido como OpenAI. Bill Peebles, cocreador de Sora y responsable del equipo de v&#237;deo generativo; Kevin Weil, que pas&#243; de director de producto a fundar OpenAI for Science; y Srinivas Narayanan, director de tecnolog&#237;a para aplicaciones empresariales con tres a&#241;os en la casa, se van en cuesti&#243;n de d&#237;as. El equipo de OpenAI for Science queda directamente disuelto y sus funciones repartidas. Encima de eso, The Wall Street Journal publica un reportaje sobre las inversiones personales de Sam Altman y los conflictos de inter&#233;s que generan con la estrategia de la compa&#241;&#237;a, un problema que ya estuvo en el centro de su destituci&#243;n temporal en 2023. El patr&#243;n importa: OpenAI lleva meses intentando sostener a la vez producto de consumo, negocio empresarial, v&#237;deo generativo e investigaci&#243;n cient&#237;fica, y los tres perfiles que se van tocaban piezas distintas de esa estructura. No es solo una cuesti&#243;n de organigramas; es conocimiento operativo acumulado que se marcha en un momento en que Anthropic, Google y otros competidores llevan meses acelerando con menos ruido interno visible. Si estas salidas responden a una reorganizaci&#243;n planificada, el da&#241;o puede ser limitado. Si son s&#237;ntoma de algo m&#225;s profundo, se notar&#225; en la velocidad de ejecuci&#243;n durante los pr&#243;ximos trimestres.</p><p>Para <a href="https://x.com/WesRoth/status/2046046190970839328">&#120143; @WesRoth (Wes Roth)</a> (Wes Roth), lo que convierte esto en una se&#241;al seria no es ninguna de las tres dimisiones por separado, sino que las tres cayeran en la misma semana: eso no suena a rotaci&#243;n normal en una empresa que va lanzada.</p><div><hr></div><h3>Doomers vs optimistas: el debate que no cierra</h3><p>El debate sobre los riesgos de la IA lleva meses sin resolverse, pero esta semana ha dado un giro: ya no se discute solo si la IA es peligrosa, sino si quienes predicen cat&#225;strofe tienen credibilidad intelectual o intereses econ&#243;micos detr&#225;s. El caso m&#225;s citado es el de Geoffrey Hinton, premio Nobel y figura central del alarmismo actual, quien hace seis a&#241;os afirm&#243; que hab&#237;a que dejar de formar radi&#243;logos porque la IA los reemplazar&#237;a en pocos a&#241;os. Los radi&#243;logos siguen trabajando. Ese historial concreto importa porque Hinton es hoy una de las voces m&#225;s influyentes en el debate sobre riesgo existencial, y sus predicciones anteriores sobre impacto laboral fallaron no por poco sino por completo. Hay adem&#225;s un problema de din&#225;mica: las advertencias apocal&#237;pticas sobre tecnolog&#237;a tienden a sonar m&#225;s convincentes cuanto menos la usa el p&#250;blico en su vida diaria. A medida que millones de personas interact&#250;an con modelos de lenguaje, la brecha entre lo que el modelo hace realmente y lo que se le atribuye se vuelve m&#225;s dif&#237;cil de ignorar. Lo que queda sin responder es si ese escepticismo creciente hacia el doomerismo lleva a ignorar riesgos m&#225;s graduales pero igual de reales: concentraci&#243;n de poder en pocas empresas, dependencia de infraestructura cr&#237;tica, o sesgos que se amplifican a escala. Esos riesgos no tienen la espectacularidad de un apocalipsis, pero tampoco necesitan una profec&#237;a para materializarse.</p><p><a href="https://x.com/Dan_Jeffries1/status/2046124907881177418">&#120143; @Dan_Jeffries1 (Daniel Jeffries)</a> usa el caso Hinton como argumento central: el mismo investigador que acert&#243; en el desarrollo t&#233;cnico de la IA err&#243; por completo al predecir su impacto sobre el mercado laboral, lo que para &#233;l deber&#237;a pesar bastante antes de tomar en serio sus advertencias actuales sobre riesgo existencial.</p><p>Lo que m&#225;s le preocupa a <a href="https://x.com/pmddomingos/status/2045978813121839469">&#120143; @pmddomingos (Pedro Domingos)</a> no es el debate en s&#237; sino su mec&#225;nica: cuanto m&#225;s contacto directo tiene la gente con la IA, m&#225;s inveros&#237;miles le parecen los escenarios que plantean los doomers, lo que sugiere que buena parte del alarmismo depende de mantener al p&#250;blico alejado de la tecnolog&#237;a real.</p><p>Desde fuera del debate t&#233;cnico, <a href="https://x.com/i/status/2046014100342473144">&#120143; @DaddyRist (Daddyrist_Wsb)</a> lo resume con m&#225;s cinismo que an&#225;lisis: Berkeley lleva desde los sesenta reciclando el mismo esquema de activismo con nueva est&#233;tica cada d&#233;cada, y el doomerismo de IA ser&#237;a simplemente la versi&#243;n actual de ese patr&#243;n.</p><div><hr></div><h3>Tim Cook deja Apple; Ternus toma el mando</h3><p>Tim Cook abandona la direcci&#243;n ejecutiva de Apple en septiembre tras casi quince a&#241;os en el cargo, el periodo en el que la compa&#241;&#237;a pas&#243; de valer unos 300.000 millones de d&#243;lares a convertirse en la empresa m&#225;s valiosa del mundo, con una capitalizaci&#243;n que ha superado los tres billones. Su sucesor, John Ternus, lleva toda su carrera dentro de Apple y ha sido la cara p&#250;blica de los productos de hardware m&#225;s importantes de la &#250;ltima d&#233;cada. Cook se queda como presidente ejecutivo, un rol que le da asiento en el consejo y voz en la estrategia, pero sin el control operativo. El cambio de perfil entre ambos es real: Cook era ante todo un hombre de cadena de suministro y m&#225;rgenes; Ternus viene del producto. Eso importa ahora mismo porque Apple lleva varios trimestres intentando convencer al mercado de que su apuesta por la inteligencia artificial es seria, con resultados desiguales frente a lo que Google y Microsoft han mostrado p&#250;blicamente. La pregunta concreta es si Ternus, con su historial en hardware, tiene el peso y la visi&#243;n para tomar decisiones estructurales sobre software e IA, o si esa agenda la seguir&#225; marcando alguien m&#225;s desde la sombra.</p><p><a href="https://x.com/sama/status/2046330825265086712">&#120143; @sama (Sam Altman)</a> escribi&#243; la despedida m&#225;s corta y m&#225;s cargada del d&#237;a: llamar a Cook una leyenda y agradecer lo que ha hecho por Apple, sin m&#225;s. Pocas palabras, pero viniendo del CEO de OpenAI dicen bastante sobre el peso que tiene este relevo m&#225;s all&#225; del mundo Apple.</p><div><hr></div><h3>Theker entra en almacenes de Paack</h3><p>Los robots de Theker ya est&#225;n clasificando, recogiendo y manipulando paquetes de comercio electr&#243;nico en el centro log&#237;stico que Paack tiene en San Fernando de Henares, y no como piloto controlado sino en producci&#243;n real. El acuerdo contempla m&#225;s unidades en Madrid y una posible extensi&#243;n a Barcelona, lo que convierte esto en el primer despliegue a escala de un sistema aut&#243;nomo con inteligencia artificial en log&#237;stica de &#250;ltima milla en Espa&#241;a. El problema t&#233;cnico que Theker dice haber resuelto no es menor: en un almac&#233;n de &#250;ltima milla los paquetes llegan con formas, pesos, texturas y orientaciones completamente distintas, y la mayor&#237;a de sistemas de automatizaci&#243;n exigen estandarizar el producto antes de tocarlo, lo que en la pr&#225;ctica los hace in&#250;tiles para este tipo de operaci&#243;n. Si Theker ha conseguido que sus robots gestionen esa variabilidad sin intervenci&#243;n humana constante, eso tiene valor real para cualquier operador de &#250;ltima milla que trabaje con vol&#250;menes altos y m&#225;rgenes ajustados. Para Paack, que compite en un segmento donde el coste por entrega lo decide todo, automatizar la fase de clasificaci&#243;n puede marcar la diferencia entre escalar o no. Lo que todav&#237;a no est&#225; sobre la mesa son los datos que importan: tasa de error, velocidad de procesamiento y qu&#233; pasa con el rendimiento cuando el volumen se dispara en picos como el Black Friday.</p><p><a href="https://x.com/Aquilino/status/2046167991767662659">&#120143; @Aquilino (Aquilino Pe&#241;a)</a> (Aquilino Pe&#241;a) lo celebra desde el &#225;ngulo del inversor que ve tecnolog&#237;a funcionando de verdad: dos compa&#241;&#237;as de su cartera en Kibo Ventures con robots ya operativos en San Fernando, no una demo en un stand.</p><div><hr></div><h3>Los transformers no son el destino final de la IA</h3><p>Sanja Fidler, vicepresidenta de investigaci&#243;n en IA de NVIDIA y responsable del Spatial Intelligence Lab de la compa&#241;&#237;a, ha dicho en una entrevista a The Turing Post lo que muchos en el sector piensan pero evitan decir: los transformers son una herramienta potente, no la arquitectura definitiva. El argumento de fondo es que la IA necesita un salto cualitativo, no solo m&#225;s par&#225;metros o m&#225;s datos. Llevamos varios a&#241;os en los que escalar transformers ha producido mejoras reales y medibles, pero hay se&#241;ales de que esa curva se aplana: los modelos actuales siguen fallando en razonamiento espacial, integraci&#243;n de informaci&#243;n a largo plazo y generalizaci&#243;n fuera de distribuci&#243;n, y ninguna de esas limitaciones se resuelve a&#241;adiendo m&#225;s c&#243;mputo. Que esta se&#241;al venga de alguien dentro de NVIDIA &#8212;una empresa con intereses directos en que se sigan comprando GPUs para entrenar modelos cada vez m&#225;s grandes&#8212; le da un peso particular. La pregunta que queda abierta es en qu&#233; direcci&#243;n vendr&#237;a el siguiente avance: arquitecturas h&#237;bridas, modelos de mundo m&#225;s expl&#237;citos, algo inspirado en neurociencia computacional, o algo que todav&#237;a no tiene nombre.</p><p>La entrevista con Fidler que public&#243; <a href="https://x.com/TheTuringPost/status/2046016440529248431">&#120143; @TheTuringPost (Ksenia_Turingpost)</a> no se queda en el titular: la conversaci&#243;n completa entra en por qu&#233; la inteligencia espacial es uno de los frentes donde los transformers muestran sus costuras con m&#225;s claridad, y por qu&#233; NVIDIA est&#225; apostando por esa l&#237;nea de investigaci&#243;n desde dentro.</p><p>La lectura de <a href="https://x.com/fchollet/status/2046019725449458135">&#120143; @fchollet (Fran&#231;ois Chollet)</a> incomoda a los que creen que m&#225;s c&#243;mputo lo resuelve todo: los l&#237;mites biol&#243;gicos de la memoria de trabajo y la profundidad de c&#225;lculo humanos no son un defecto, sino la presi&#243;n evolutiva que forz&#243; a desarrollar abstracci&#243;n e intuici&#243;n &#8212;algo que un modelo con recursos ilimitados nunca habr&#237;a necesitado construir.</p><div><hr></div><h3>Webinar sobre LLMs y producto</h3><p>El Instituto de Inteligencia Artificial organiza un webinar el 22 de abril a las 13:00 CET en Zoom donde Juan Antonio Casado, antiguo alumno del M&#225;ster IIA, explicar&#225; c&#243;mo los modelos de lenguaje grandes han reducido la fricci&#243;n t&#233;cnica para construir productos. El caso concreto que usar&#225; como hilo conductor es Popcasting, descrito como un proyecto que pas&#243; de idea aparcada a producto escalable en poco tiempo. El fondo del asunto es real: hace dos a&#241;os, montar ciertos productos requer&#237;a equipos de ingenier&#237;a considerables, ciclos de desarrollo largos y presupuestos que la mayor&#237;a de fundadores no ten&#237;an. Hoy, una parte significativa de esa complejidad se puede externalizar a un modelo. Eso no significa que construir sobre LLMs sea trivial, pero s&#237; que el cuello de botella ha cambiado de sitio: ya no est&#225; tanto en si puedes construirlo t&#233;cnicamente, sino en si encuentras un caso de uso que aguante cuando pase el entusiasmo inicial y en c&#243;mo gestionas costes, latencia y fiabilidad en producci&#243;n. La sesi&#243;n apunta a fundadores y equipos de producto que tienen ideas en el caj&#243;n, y su valor real depender&#225; de si Casado entra en esa parte inc&#243;moda o se queda en la narrativa de velocidad e inspiraci&#243;n.</p><p><a href="https://x.com/iia_es/status/2045170968293720229">&#120143; @iia_es (Instituto De Inteligencia Artificial)</a> (Instituto de Inteligencia Artificial) resume la propuesta con una frase que cualquiera que haya intentado montar algo en los &#250;ltimos dos a&#241;os reconocer&#225; de inmediato: la tecnolog&#237;a ya no es el freno, y el atasco se ha desplazado a decidir bien qu&#233; construir y con qu&#233; criterio.</p><div><hr></div><p><em><strong>Gracias por leer 1 Minuto de IA.</strong> Si te ha gustado esta edici&#243;n, no te olvides de dar al &#9825; y de compartirla por redes sociales o por email con otras personas a las que creas que les pueda interesar.</em></p><div class="subscription-widget-wrap-editor" data-attrs="{&quot;url&quot;:&quot;https://explicable.iia.es/subscribe?&quot;,&quot;text&quot;:&quot;Suscribirse&quot;,&quot;language&quot;:&quot;es&quot;}" data-component-name="SubscribeWidgetToDOM"><div class="subscription-widget show-subscribe"><div class="preamble"><p class="cta-caption">Suscr&#237;bete gratis para recibir nuevos posts y apoyar este proyecto.</p></div><form class="subscription-widget-subscribe"><input type="email" class="email-input" name="email" placeholder="Escribe tu correo electr&#243;nico..." tabindex="-1"><input type="submit" class="button primary" value="Suscribirse"><div class="fake-input-wrapper"><div class="fake-input"></div><div class="fake-button"></div></div></form></div></div>]]></content:encoded></item><item><title><![CDATA[Futuro del Trabajo: ¿a quién escuchamos?]]></title><description><![CDATA[Lo esencial de la IA, cada d&#237;a, para no quedarte atr&#225;s.]]></description><link>https://explicable.iia.es/p/futuro-del-trabajo-a-quien-escuchamos-50e</link><guid isPermaLink="false">https://explicable.iia.es/p/futuro-del-trabajo-a-quien-escuchamos-50e</guid><dc:creator><![CDATA[Miguel A. Román]]></dc:creator><pubDate>Mon, 20 Apr 2026 15:14:36 GMT</pubDate><enclosure url="https://substackcdn.com/image/fetch/$s_!2J4-!,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fd1328037-ba73-4138-9fb7-e018794ec7bd_576x383.webp" length="0" type="image/jpeg"/><content:encoded><![CDATA[<div class="captioned-image-container"><figure><a class="image-link image2 is-viewable-img" target="_blank" href="https://substackcdn.com/image/fetch/$s_!2J4-!,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fd1328037-ba73-4138-9fb7-e018794ec7bd_576x383.webp" data-component-name="Image2ToDOM"><div class="image2-inset"><picture><source type="image/webp" srcset="https://substackcdn.com/image/fetch/$s_!2J4-!,w_424,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fd1328037-ba73-4138-9fb7-e018794ec7bd_576x383.webp 424w, https://substackcdn.com/image/fetch/$s_!2J4-!,w_848,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fd1328037-ba73-4138-9fb7-e018794ec7bd_576x383.webp 848w, https://substackcdn.com/image/fetch/$s_!2J4-!,w_1272,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fd1328037-ba73-4138-9fb7-e018794ec7bd_576x383.webp 1272w, https://substackcdn.com/image/fetch/$s_!2J4-!,w_1456,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fd1328037-ba73-4138-9fb7-e018794ec7bd_576x383.webp 1456w" sizes="100vw"><img src="https://substackcdn.com/image/fetch/$s_!2J4-!,w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fd1328037-ba73-4138-9fb7-e018794ec7bd_576x383.webp" width="720" height="478.75" data-attrs="{&quot;src&quot;:&quot;https://substack-post-media.s3.amazonaws.com/public/images/d1328037-ba73-4138-9fb7-e018794ec7bd_576x383.webp&quot;,&quot;srcNoWatermark&quot;:null,&quot;fullscreen&quot;:null,&quot;imageSize&quot;:null,&quot;height&quot;:383,&quot;width&quot;:576,&quot;resizeWidth&quot;:720,&quot;bytes&quot;:17604,&quot;alt&quot;:null,&quot;title&quot;:null,&quot;type&quot;:&quot;image/webp&quot;,&quot;href&quot;:null,&quot;belowTheFold&quot;:false,&quot;topImage&quot;:true,&quot;internalRedirect&quot;:&quot;https://explicable.iia.es/i/194706395?img=https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fd1328037-ba73-4138-9fb7-e018794ec7bd_576x383.webp&quot;,&quot;isProcessing&quot;:false,&quot;align&quot;:null,&quot;offset&quot;:false}" class="sizing-normal" alt="" srcset="https://substackcdn.com/image/fetch/$s_!2J4-!,w_424,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fd1328037-ba73-4138-9fb7-e018794ec7bd_576x383.webp 424w, https://substackcdn.com/image/fetch/$s_!2J4-!,w_848,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fd1328037-ba73-4138-9fb7-e018794ec7bd_576x383.webp 848w, https://substackcdn.com/image/fetch/$s_!2J4-!,w_1272,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fd1328037-ba73-4138-9fb7-e018794ec7bd_576x383.webp 1272w, https://substackcdn.com/image/fetch/$s_!2J4-!,w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fd1328037-ba73-4138-9fb7-e018794ec7bd_576x383.webp 1456w" sizes="100vw" fetchpriority="high"></picture><div class="image-link-expand"><div class="pencraft pc-display-flex pc-gap-8 pc-reset"><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container restack-image"><svg role="img" width="20" height="20" viewBox="0 0 20 20" fill="none" stroke-width="1.5" stroke="var(--color-fg-primary)" stroke-linecap="round" stroke-linejoin="round" xmlns="http://www.w3.org/2000/svg"><g><title></title><path d="M2.53001 7.81595C3.49179 4.73911 6.43281 2.5 9.91173 2.5C13.1684 2.5 15.9537 4.46214 17.0852 7.23684L17.6179 8.67647M17.6179 8.67647L18.5002 4.26471M17.6179 8.67647L13.6473 6.91176M17.4995 12.1841C16.5378 15.2609 13.5967 17.5 10.1178 17.5C6.86118 17.5 4.07589 15.5379 2.94432 12.7632L2.41165 11.3235M2.41165 11.3235L1.5293 15.7353M2.41165 11.3235L6.38224 13.0882"></path></g></svg></button><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container view-image"><svg xmlns="http://www.w3.org/2000/svg" width="20" height="20" viewBox="0 0 24 24" fill="none" stroke="currentColor" stroke-width="2" stroke-linecap="round" stroke-linejoin="round" class="lucide lucide-maximize2 lucide-maximize-2"><polyline points="15 3 21 3 21 9"></polyline><polyline points="9 21 3 21 3 15"></polyline><line x1="21" x2="14" y1="3" y2="10"></line><line x1="3" x2="10" y1="21" y2="14"></line></svg></button></div></div></div></a></figure></div><p>Bienvenidos a &#8220;1 Minuto de IA&#8221;. Desde hoy recibir&#225;s esta newsletter de lunes a viernes con las noticias m&#225;s relevantes sobre inteligencia artificial y negocios. Est&#225; escrita con ayuda de IA, pero revisada y curada con criterio editorial para aportar contexto y claridad. En un momento de cambios acelerados, la idea es sencilla: que todo el mundo pueda estar al d&#237;a, sin perderse entre el ruido, y con una visi&#243;n clara de c&#243;mo la IA est&#225; transformando la econom&#237;a y la sociedad.</p><p><strong>&#191;Qu&#233; pas&#243; el fin de semana? En un minuto:</strong></p><p>Uno de los temas que m&#225;s miedo genera alrededor de la IA es su impacto en el empleo. Dario Amodei lleva tiempo advirtiendo de que muchos trabajos podr&#237;an desaparecer, pero no est&#225; claro que los tecn&#243;logos sean quienes mejor puedan anticipar ese efecto. Mientras tanto, Anthropic sigue ganando terreno: tras el &#233;xito de Claude Code entre programadores, ahora lanza Claude Design para entrar en el mercado del dise&#241;o. Falta ver si logra la misma adopci&#243;n.</p><p>xAI se est&#225; consolidando como un rival de peso frente a Anthropic, Google y OpenAI, con la publicaci&#243;n de APIs de transcripci&#243;n y s&#237;ntesis de voz, y con un nuevo modelo en fase de pruebas que promete mejoras importantes. Adem&#225;s, se rumorea que tambi&#233;n quiere conquistar el escritorio de los ordenadores con agentes de IA, otro frente que merece atenci&#243;n, como ya apuntaron Anthropic y OpenAI en sus lanzamientos recientes.</p><p>Los robotaxis siguen expandi&#233;ndose ciudad a ciudad y, en este caso, la noticia es Tesla, que empieza su servicio en Dallas y Houston, aunque, como ocurre tambi&#233;n con otras empresas, solo estar&#225; disponible en &#225;reas bien delimitadas. En rob&#243;tica, la noticia est&#225; en un r&#233;cord mundial de velocidad logrado por un robot humanoide en una carrera de 1,9 km. Aunque no tiene aplicaciones pr&#225;cticas inmediatas, es una muestra m&#225;s de que China ha apostado por liderar el sector de la rob&#243;tica y, por ahora, lo est&#225; consiguiendo.</p><p><strong>Y si tienes m&#225;s de un minuto&#8230;</strong></p><div><hr></div><h3>IA y empleo: escucha a los economistas, no a nosotros</h3><p>Dario Amodei lleva semanas haciendo declaraciones p&#250;blicas sobre el impacto de la IA en el empleo, y la respuesta m&#225;s llamativa no ha venido de economistas critic&#225;ndole desde fuera, sino de ingenieros e investigadores del propio campo reconociendo que ellos tampoco deber&#237;an opinar sobre esto. Es una postura inusual: los arquitectos de la tecnolog&#237;a admitiendo p&#250;blicamente los l&#237;mites de su autoridad intelectual. El argumento tiene l&#243;gica: construir modelos de lenguaje y estudiar c&#243;mo las disrupciones tecnol&#243;gicas afectan hist&#243;ricamente al mercado laboral son oficios completamente distintos. Economistas como Philippe Aghion o Erik Brynjolfsson llevan d&#233;cadas acumulando evidencia emp&#237;rica sobre automatizaci&#243;n y empleo; los ingenieros, no. La historia ofrece un patr&#243;n consistente: desde la mecanizaci&#243;n agr&#237;cola hasta la rob&#243;tica industrial, los efectos sobre el trabajo han sido m&#225;s lentos, m&#225;s complejos y m&#225;s distintos a las predicciones de lo que nadie esperaba. La pregunta que nadie ha resuelto todav&#237;a es si la IA cognitiva rompe ese patr&#243;n &#8212;porque por primera vez la automatizaci&#243;n compite con trabajo no manual y no rutinario&#8212; o si la adaptaci&#243;n laboral volver&#225; a ocurrir como siempre, solo que con d&#233;cadas de retraso y costes desiguales. Esa pregunta no tiene respuesta consensuada ni entre los economistas que supuestamente deber&#237;amos escuchar.</p><p>Seg&#250;n <a href="https://x.com/ylecun/status/2045610129119117574">&#120143; @ylecun</a>, Yann LeCun fue directo al grano: Amodei est&#225; equivocado, y &#233;l mismo &#8212;junto a Sam Altman, Yoshua Bengio y Geoffrey Hinton&#8212; no deber&#237;a ser escuchado en este tema. Los que construyen los modelos no son quienes tienen la autoridad para predecir sus efectos sobre el mercado laboral; eso es trabajo de economistas especializados.</p><p>Seg&#250;n <a href="https://x.com/pmddomingos/status/2045640681499316347">&#120143; @pmddomingos</a>, Pedro Domingos propone un criterio sencillo para decidir a qui&#233;n escuchar: si Garry Kasparov &#8212;alguien que vivi&#243; en carne propia lo que es perder ante una m&#225;quina&#8212; dice que no hay que preocuparse por lo que la IA har&#225; al empleo, eso merece m&#225;s peso que las declaraciones de CEOs con intereses directos en el asunto.</p><p>Kasparov <a href="https://x.com/kasparov63">&#120143; @Kasparov63</a>, citado en el hilo, no niega la incertidumbre: reconoce que el impacto de la tecnolog&#237;a en el trabajo es impredecible, pero se&#241;ala que la historia documentada apunta en una direcci&#243;n generalmente positiva &#8212;con el matiz de que 'generalmente' no significa 'siempre ni para todos'.</p><div><hr></div><h3>Claude Design: Anthropic lanza herramienta de dise&#241;o generativo</h3><p>Anthropic present&#243; Claude Design, una vista previa integrada directamente en la interfaz de Claude y alimentada por Claude Opus 4.7. El funcionamiento es directo: describes lo que necesitas en lenguaje natural y la herramienta genera prototipos funcionales, presentaciones o documentos de una p&#225;gina, sin plugins externos ni integraciones de terceros. El hueco que intenta cubrir es real: equipos t&#233;cnicos que tienen la idea y el c&#243;digo pero no a un dise&#241;ador disponible para hacer que el resultado visual sea presentable. Lo interesante no es solo la funcionalidad, sino la direcci&#243;n estrat&#233;gica que se&#241;ala: Anthropic est&#225; empujando a Claude hacia herramienta de producci&#243;n, lo que lo pone a competir con Figma o Canva m&#225;s que con otros modelos de lenguaje. Que en pocas horas ya circulen colecciones de plantillas de sistemas de dise&#241;o basadas en marcas conocidas indica que hay tracci&#243;n real, aunque la herramienta sigue en fase de vista previa y con limitaciones de cr&#233;ditos que algunos usuarios ya han notado de forma bastante dolorosa. La pregunta que queda abierta es si aguanta en casos complejos, porque el dise&#241;o tiene muchos bordes donde los modelos suelen flaquear aunque funcionen bien en los casos est&#225;ndar. Adem&#225;s, una herramienta de prototipado potente en manos de alguien sin criterio visual no acelera el buen dise&#241;o, sino la producci&#243;n de interfaces que parecen correctas pero no lo son. </p><p>Seg&#250;n <a href="https://x.com/DotCSV/status/2045870646761029880">&#120143; @DotCSV</a>, Carlos Santana lo describe como el anuncio m&#225;s interesante de Anthropic en la &#250;ltima semana y afirma que cambia por completo su forma de trabajar y de crear animaciones &#8212; una reacci&#243;n que dice bastante viniendo de alguien que vive del contenido visual.</p><p>Seg&#250;n <a href="https://x.com/MLStreetTalk/status/2045398448254644433">&#120143; @MLStreetTalk</a>, la valoraci&#243;n de ML Street Talk es entusiasta pero con los pies en el suelo: el dise&#241;o es un dominio bien definido y especificable, lo que lo hace adecuado para un enfoque basado en agentes con c&#243;digo, pero cualquier experto real ver&#225; r&#225;pido las abstracciones con fugas y los casos l&#237;mite que la herramienta no resuelve. A&#241;ade, adem&#225;s, que se qued&#243; sin cr&#233;ditos tras dos horas de trabajo generando un banner y una miniatura, y que la velocidad es desesperantemente lenta.</p><p>Seg&#250;n <a href="https://x.com/andrewchen/status/2045667827735306745">&#120143; @andrewchen</a>, la IA act&#250;a como multiplicador, no como igualador: los que ya saben dise&#241;ar bien van a sacar mucho m&#225;s partido de Claude Design que alguien que nunca ha pensado en jerarqu&#237;a visual o consistencia de componentes.</p><div><hr></div><h3>xAI expande Grok con voz, escritorio y m&#225;s usuarios</h3><p>xAI ha tenido una semana densa en movimientos. El m&#225;s concreto: el lanzamiento de dos APIs nuevas para desarrolladores, una de transcripci&#243;n de audio a texto con soporte para identificar m&#250;ltiples hablantes en una misma grabaci&#243;n y cobertura de 25 idiomas, y otra de s&#237;ntesis de voz. Son las piezas que cualquier empresa necesita para construir asistentes de voz propios sin depender de Google o OpenAI, y xAI acaba de ponerlas sobre la mesa. A eso se suma la informaci&#243;n, con bastante credibilidad seg&#250;n quienes la han adelantado, de que &#8216;Grok Build&#8217; y &#8216;Grok Computer&#8217; llegar&#225;n juntos como aplicaciones nativas para macOS y Windows. La pregunta real es si esas apps traer&#225;n algo que no pueda hacerse desde el navegador, o si son solo un acceso directo con icono en el dock. En el frente de modelos, versiones beta de Grok 4.x ya est&#225;n en manos de usuarios con acceso anticipado, con las versiones 4.3 y 4.4 en la hoja de ruta pr&#243;xima. Y Grok acaba de marcar su m&#225;ximo hist&#243;rico de usuarios activos mensuales en la App Store. El crecimiento de usuarios es real, pero xAI todav&#237;a tiene que demostrar que se convierte en ingresos recurrentes y no solo en tracci&#243;n de producto.</p><p>Seg&#250;n <a href="https://x.com/WesRoth/status/2045819698504229315">&#120143; @WesRoth</a>, Wes Roth adelant&#243; el lanzamiento conjunto de &#8216;Grok Build&#8217; y &#8216;Grok Computer&#8217; como aplicaciones de escritorio unificadas para macOS y Windows, calific&#225;ndolo de &#8216;muy probable&#8217; &#8212;lo que apunta a fuentes cercanas a xAI, no a especulaci&#243;n en el vac&#237;o.</p><p>Con acceso anticipado a Grok 4.3, <a href="https://x.com/ns123abc/status/2045772621376086142">&#120143; @ns123abc</a> lo someti&#243; directamente a las tareas m&#225;s exigentes que normalmente corre en Claude. Es la forma m&#225;s honesta de comparar modelos: sin benchmarks de laboratorio, con los problemas reales que uno usa a diario.</p><p>El m&#225;ximo hist&#243;rico de usuarios activos mensuales en la App Store que reporta <a href="https://x.com/cb_doge/status/2045594097466196334">&#120143; @cb_doge</a> es un dato real, pero el contexto importa: crecer en descargas no es lo mismo que crecer en uso recurrente, y ninguna de las dos cosas es lo mismo que crecer en ingresos.</p><div><hr></div><h3>Tesla lanza su servicio Robotaxi sin conductor en Dallas y Houston</h3><p>Tesla ha comenzado a operar viajes comerciales sin conductor humano a bordo en Dallas y Houston, lo que convierte a Texas en el primer mercado donde el servicio Robotaxi llega a clientes reales sin supervisi&#243;n. El salto desde pruebas internas hasta pasajeros pagando &#8212;o al menos usando el servicio&#8212; es operativamente distinto a todo lo que Tesla hab&#237;a hecho antes: hasta ahora, sus veh&#237;culos aut&#243;nomos siempre llevaban un operador de seguridad. Waymo, el referente del sector, tard&#243; a&#241;os en llegar a ese punto en San Francisco y Phoenix, y aun as&#237; opera con restricciones geogr&#225;ficas y horarias estrictas. Lo que no est&#225; claro todav&#237;a es la escala real del despliegue en Texas: cu&#225;ntos veh&#237;culos est&#225;n activos, en qu&#233; zonas concretas circulan y qu&#233; condiciones &#8212;meteorol&#243;gicas, de tr&#225;fico, de hora&#8212; los sacan de servicio. Tampoco est&#225; claro c&#243;mo van a reaccionar los reguladores texanos a medida que el volumen de viajes crezca. Texas tiene una regulaci&#243;n m&#225;s permisiva que California para veh&#237;culos aut&#243;nomos, lo que explica en parte por qu&#233; Tesla eligi&#243; estas ciudades para el arranque. El entusiasmo inicial de los primeros usuarios es real, pero el verdadero indicador ser&#225; la fiabilidad del servicio en las pr&#243;ximas semanas, cuando la novedad pase y los problemas cotidianos &#8212;si los hay&#8212; empiecen a salir a la luz.</p><p>Seg&#250;n <a href="https://x.com/i/status/2045572944420901265">&#120143; @quiet8302</a>, un usuario que lo prob&#243; en Dallas lo describi&#243; como algo fluido y sin conductor, con sensaci&#243;n de estar viviendo algo del futuro. Ese entusiasmo es comprensible viniendo de alguien que acaba de subirse por primera vez, pero es exactamente el tipo de reacci&#243;n que Tesla necesita que circule.</p><p>Seg&#250;n <a href="https://x.com/i/status/2045572944420901265">&#120143; @jdp078492</a>, quien hace habitualmente el trayecto entre las dos ciudades en coche propio &#8212;entre cuatro y cuatro horas y media cada vez&#8212; ve el Robotaxi como una forma de recuperar ese tiempo para trabajar o descansar en lugar de conducir.</p><p>Seg&#250;n <a href="https://x.com/JCChristopher/status/2045880024067182709">&#120143; @JCChristopher</a>, document&#243; su primer viaje en Houston el segundo d&#237;a de operaciones, desde el centro de entregas de Tesla en Cypress hasta una cafeter&#237;a en West Road, acompa&#241;ado de dos personas. El tipo de testimonio cotidiano y verificable que ayuda a separar el hype del funcionamiento real.</p><div><hr></div><h3>Codex de OpenAI ya controla tu Mac solo&#8230; pero no en la &#127466;&#127482;</h3><p>OpenAI ha a&#241;adido a Codex la capacidad de usar el ordenador de forma nativa en macOS: el agente puede interactuar directamente con aplicaciones del sistema sin que el usuario tenga que guiarlo paso a paso. Hasta ahora Codex operaba principalmente en terminales y entornos de texto; moverse por la interfaz gr&#225;fica del sistema operativo es un salto cualitativamente distinto, porque implica que el agente puede ver lo que ve el usuario y actuar en consecuencia. La pregunta que nadie ha respondido todav&#237;a es c&#243;mo gestiona errores sin supervisi&#243;n humana y qu&#233; pasa cuando una tarea compleja se tuerce a mitad. En paralelo, OpenAI tuvo que restablecer los l&#237;mites de uso en todos los planes tras una demanda que desbord&#243; la capacidad disponible &#8212;lo que indica adopci&#243;n real, no solo curiosidad puntual&#8212;. El contexto competitivo es relevante: Anthropic lleva meses con su propia funci&#243;n de uso del ordenador en Claude, y Google ha movido fichas similares con sus agentes. Que OpenAI llegue ahora con integraci&#243;n nativa en macOS, en lugar de emulaci&#243;n, es una apuesta t&#233;cnica concreta. Lo que queda pendiente es si esta integraci&#243;n llega a Windows y en qu&#233; plazo, y si la autonom&#237;a del agente aguanta en flujos de trabajo reales m&#225;s all&#225; de las demos.</p><p>Seg&#250;n <a href="https://x.com/gdb/status/2045440270188364117">&#120143; @gdb</a>, Greg Brockman dice que construir aplicaciones web y juegos con Codex usando solo lenguaje natural es 'incre&#237;blemente divertido' y que el trabajo con Codex se ha vuelto 'simplemente divertido' &#8212;una se&#241;al de que la experiencia ya no se siente como programar, sino como describir lo que quieres y ver c&#243;mo aparece&#8212;.<br><br>Todo muy bien, excepto si est&#225;s en la Uni&#243;n econ&#243;mica Europea &#127466;&#127482; y alg&#250;n otro pais:</p><div class="captioned-image-container"><figure><a class="image-link image2" target="_blank" href="https://substackcdn.com/image/fetch/$s_!wiZX!,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F0917a771-c19d-4919-a73f-ca134eeab9e5_1788x216.png" data-component-name="Image2ToDOM"><div class="image2-inset"><picture><source type="image/webp" srcset="https://substackcdn.com/image/fetch/$s_!wiZX!,w_424,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F0917a771-c19d-4919-a73f-ca134eeab9e5_1788x216.png 424w, https://substackcdn.com/image/fetch/$s_!wiZX!,w_848,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F0917a771-c19d-4919-a73f-ca134eeab9e5_1788x216.png 848w, https://substackcdn.com/image/fetch/$s_!wiZX!,w_1272,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F0917a771-c19d-4919-a73f-ca134eeab9e5_1788x216.png 1272w, https://substackcdn.com/image/fetch/$s_!wiZX!,w_1456,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F0917a771-c19d-4919-a73f-ca134eeab9e5_1788x216.png 1456w" sizes="100vw"><img src="https://substackcdn.com/image/fetch/$s_!wiZX!,w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F0917a771-c19d-4919-a73f-ca134eeab9e5_1788x216.png" width="1456" height="176" data-attrs="{&quot;src&quot;:&quot;https://substack-post-media.s3.amazonaws.com/public/images/0917a771-c19d-4919-a73f-ca134eeab9e5_1788x216.png&quot;,&quot;srcNoWatermark&quot;:null,&quot;fullscreen&quot;:null,&quot;imageSize&quot;:null,&quot;height&quot;:176,&quot;width&quot;:1456,&quot;resizeWidth&quot;:null,&quot;bytes&quot;:55907,&quot;alt&quot;:null,&quot;title&quot;:null,&quot;type&quot;:&quot;image/png&quot;,&quot;href&quot;:null,&quot;belowTheFold&quot;:true,&quot;topImage&quot;:false,&quot;internalRedirect&quot;:&quot;https://explicable.iia.es/i/194706395?img=https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F0917a771-c19d-4919-a73f-ca134eeab9e5_1788x216.png&quot;,&quot;isProcessing&quot;:false,&quot;align&quot;:null,&quot;offset&quot;:false}" class="sizing-normal" alt="" srcset="https://substackcdn.com/image/fetch/$s_!wiZX!,w_424,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F0917a771-c19d-4919-a73f-ca134eeab9e5_1788x216.png 424w, https://substackcdn.com/image/fetch/$s_!wiZX!,w_848,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F0917a771-c19d-4919-a73f-ca134eeab9e5_1788x216.png 848w, https://substackcdn.com/image/fetch/$s_!wiZX!,w_1272,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F0917a771-c19d-4919-a73f-ca134eeab9e5_1788x216.png 1272w, https://substackcdn.com/image/fetch/$s_!wiZX!,w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F0917a771-c19d-4919-a73f-ca134eeab9e5_1788x216.png 1456w" sizes="100vw" loading="lazy"></picture><div></div></div></a></figure></div><p>&#191;Alguien se imagina por qu&#233;? &#129300;</p><div><hr></div><h3>Rob&#243;tica con IA: carreras, almacenes y cerebros unificados</h3><p>Tres noticias de rob&#243;tica esta semana que, le&#237;das juntas, cuentan algo m&#225;s que cada una por separado. La m&#225;s fotog&#233;nica: el humanoide H1 de Unitree &#8212;versi&#243;n modificada de 2023&#8212; complet&#243; de forma aut&#243;noma 1,9 km con m&#250;ltiples curvas en 4 minutos y 13 segundos en las clasificatorias del Marat&#243;n de Robots Humanoides de Pek&#237;n el 16 de abril. La comparaci&#243;n con el r&#233;cord mundial humano en 1500 metros es proporcional y tiene sus l&#237;mites &#8212;circuito distinto, robot modificado, condiciones controladas&#8212;, pero la estabilidad din&#225;mica que implica correr as&#237; durante casi cuatro minutos es t&#233;cnicamente relevante. En paralelo, Physical Intelligence present&#243; &#960;0.7, su nuevo modelo base para rob&#243;tica con capacidades emergentes en manipulaci&#243;n. Y la operaci&#243;n con m&#225;s peso estructural: Skild AI adquiri&#243; la divisi&#243;n rob&#243;tica de Zebra Technologies, antes Fetch Robotics, que incluye una plataforma de orquestaci&#243;n humano-robot ya desplegada en almacenes reales. Lo que Skild compra no es solo hardware: es infraestructura log&#237;stica funcionando y, con ella, datos de operaciones reales que un modelo generalista necesita para mejorar. Combinar orquestaci&#243;n probada con un cerebro de control unificado sobre flotas heterog&#233;neas es la apuesta, aunque integrar ambas capas en producci&#243;n a escala es un problema de ingenier&#237;a que los comunicados de prensa no resuelven.</p><p>Seg&#250;n <a href="https://x.com/UnitreeRobotics/status/2045640177159414158">&#120143; @UnitreeRobotics</a>, Unitree present&#243; el resultado del H1 poniendo el foco en la autonom&#237;a: el robot complet&#243; el recorrido sin intervenci&#243;n humana, y ese es el dato que les importa &#8212;la comparaci&#243;n con r&#233;cords humanos es secundaria para ellos.</p><p>Seg&#250;n <a href="https://x.com/pathak2206/status/2044561935497342980">&#120143; @pathak2206</a>, Deepak Pathak, cofundador de Skild, enmarc&#243; la adquisici&#243;n como la uni&#243;n de la plataforma de orquestaci&#243;n de Zebra con el Skild Brain para convertir almacenes en entornos de alta productividad aut&#243;noma &#8212;dejando claro que el objetivo no es acumular robots, sino coordinarlos con inteligencia.</p><div><hr></div><h3>Dudas sobre la econom&#237;a del token en IA</h3><p>Jeff Dean, cient&#237;fico jefe de Google, tiene una teor&#237;a sobre las alucinaciones que merece tomarse en serio: los datos de entrenamiento son 'borrosos', informaci&#243;n comprimida que pierde precisi&#243;n al almacenarse, mientras que el contexto inmediato &#8212;el texto exacto o el fotograma concreto delante del modelo&#8212; es n&#237;tido. La compresi&#243;n produce algo parecido a la intuici&#243;n; el contexto produce precisi&#243;n verificable. La consecuencia pr&#225;ctica de esta distinci&#243;n es que Google est&#225; apostando por meter m&#225;s mundo dentro de la ventana de contexto: m&#225;s documentos, m&#225;s v&#237;deo, m&#225;s se&#241;al en tiempo real. No es una apuesta menor: los &#250;ltimos meses han visto a todos los grandes laboratorios competir por ventanas de contexto m&#225;s largas, y Google ha lanzado un modo de IA integrado en Chrome que divide la pantalla para consultar modelos mientras navegas, convirtiendo el navegador en el canal por el que entra informaci&#243;n al modelo en tiempo real. El problema que nadie ha resuelto todav&#237;a es econ&#243;mico: ampliar el contexto tiene un coste computacional que escala mal, y la pregunta de si el beneficio marginal de cada token adicional justifica ese gasto a escala industrial sigue sin respuesta clara. Google tiene la infraestructura para intentarlo, pero tener la infraestructura y ejecutar con urgencia son cosas distintas.</p><p>Seg&#250;n <a href="https://x.com/vitrupo/status/2045546203769905230">&#120143; @vitrupo</a>, la distinci&#243;n entre compresi&#243;n e intuici&#243;n es la parte m&#225;s interesante de lo que dice Jeff Dean: no lo plantea como un fallo a corregir, sino como una caracter&#237;stica de dise&#241;o. El entrenamiento te da intuici&#243;n; el contexto te da precisi&#243;n. Son capas distintas haciendo trabajos distintos.</p><p>Seg&#250;n <a href="https://x.com/WesRoth/status/2045702104741003720">&#120143; @WesRoth</a>, el modo IA en Chrome es la pieza que conecta la teor&#237;a con el producto: si el navegador se convierte en la ventana de contexto universal, Google tiene una ventaja estructural que ning&#250;n competidor puede replicar f&#225;cilmente desde cero.</p><div><hr></div><p><em><strong>Gracias por leer 1 Minuto de IA.</strong> Si te ha gustado esta edici&#243;n, no te olvides de dar al <strong>&#9825; </strong>y de compartirla por redes sociales o por email con otras personas a las que creas que les pueda interesar.</em></p><div class="subscription-widget-wrap-editor" data-attrs="{&quot;url&quot;:&quot;https://explicable.iia.es/subscribe?&quot;,&quot;text&quot;:&quot;Suscribirse&quot;,&quot;language&quot;:&quot;es&quot;}" data-component-name="SubscribeWidgetToDOM"><div class="subscription-widget show-subscribe"><div class="preamble"><p class="cta-caption">Suscr&#237;bete gratis para recibir nuevos posts y apoyar este proyecto.</p></div><form class="subscription-widget-subscribe"><input type="email" class="email-input" name="email" placeholder="Escribe tu correo electr&#243;nico..." tabindex="-1"><input type="submit" class="button primary" value="Suscribirse"><div class="fake-input-wrapper"><div class="fake-input"></div><div class="fake-button"></div></div></form></div></div>]]></content:encoded></item></channel></rss>