OpenAI le quita la exclusividad a Microsoft
Las acciones de Microsoft bajan ante la noticia y después se recuperan.
¿Qué pasó el lunes? En un minuto:
OpenAI y Microsoft han renegociado los términos de una alianza que mantienen desde 2019 y que ha ido cambiando con el tiempo. El punto más importante es que Microsoft pierde la exclusividad cloud: OpenAI ya no queda limitada a Azure y podrá ofrecer sus modelos y productos también a través de otros proveedores. Aun así, no estamos ante una ruptura. Microsoft sigue siendo su socio principal y conserva acceso preferente a la tecnología más avanzada de OpenAI, al menos hasta 2032.
En paralelo, toda la industria se está moviendo hacia los flujos de trabajo agénticos: sistemas de IA capaces de programar, revisar código, usar herramientas y ejecutar tareas completas dentro de entornos digitales. Pero el caso de PocketOS, donde un agente habría borrado una base de datos de producción, recuerda el gran riesgo de esta nueva etapa: los agentes todavía fallan, improvisan y pueden causar daños reales si operan con permisos excesivos o sin supervisión suficiente.
Como plantea Satya Nadella, el cuello de botella ya no está solo en la capacidad de los modelos. Esa capacidad ya existe en gran medida. El reto ahora es que las empresas aprendan a adoptarla de forma segura. La comparación con la conducción autónoma es clara: la tecnología puede estar preparada para muchas tareas, pero su despliegue masivo exige confianza, controles, supervisión y una capa de seguridad antes de dejar que tome decisiones o ejecute acciones críticas. El ‘harness’ de los agentes es el tema de moda en la industria.
Y si tienes más de un minuto…
OpenAI y Microsoft actualizan su acuerdo hasta 2032
Sam Altman ha anunciado que OpenAI ha actualizado su acuerdo con Microsoft. Según Altman, Microsoft seguirá siendo su socio principal en la nube, pero OpenAI podrá ofrecer sus productos y servicios en cualquier proveedor cloud, no solo en Azure. También ha dicho que OpenAI seguirá proporcionando a Microsoft modelos y productos hasta 2032, dentro de un acuerdo que incluye reparto de ingresos. Los términos exactos de ese reparto no se han detallado públicamente. Microsoft entró con fuerza en 2019, invirtiendo en OpenAI y convirtiendo Azure en la infraestructura clave para entrenar y desplegar sus modelos; tras el éxito de ChatGPT, reforzó la relación en 2023 con una inversión multianual y multimillonaria que permitió integrar la tecnología de OpenAI en productos como Bing, Copilot, Office y Azure AI. A cambio, OpenAI obtuvo capital, computación y distribución global; Microsoft, acceso preferente a los modelos más avanzados del mercado.
Tras este anuncio, la relación ha evolucionado hacia una fórmula menos exclusiva: Microsoft sigue siendo un socio central y conserva licencia sobre la tecnología de OpenAI, pero OpenAI ha ganado margen para trabajar con otros proveedores y operar con mayor independencia.
El propio 𝕏 @sama (Sam Altman) anuncia el acuerdo subrayando que Microsoft sigue como socio principal, pero sin exclusividad, lo que convierte el comunicado en algo inusual: una declaración de apertura sin ruptura formal.
Para 𝕏 @Pirat_Nation (Pirat_Nation), el cambio tiene dos caras: Microsoft deja de cobrar su parte en la reventa de productos de IA y pierde la exclusividad sobre Azure, dos concesiones que no son menores en la economía del acuerdo original.
𝕏 @CHItrader (Chitrader) resalta que OpenAI podrá licenciar sus modelos a competidores de Azure, lo que convierte a Google Cloud y AWS en posibles beneficiarios directos de esta renegociación.
La batalla por liderar los agentes de programación
Los agentes de programación son los primeros agentes de IA que están poniendo patas arriba el sector del desarrollo de software. Estos agentes no solo sugieren líneas de código, sino que ya pueden revisar errores, entender proyectos grandes y encargarse de tareas completas. Según el informe de SemiAnalysis, OpenAI ha vuelto a ganar terreno con su herramienta Codex, impulsada por GPT-5.5. El texto sostiene que algunos desarrolladores que antes usaban casi siempre Claude, de Anthropic, ahora combinan Claude y Codex según el tipo de trabajo.
Según su propia experiencia, Codex parece mejor cuando hay que analizar código ya existente, encontrar fallos o revisar cambios, mientras que Claude sigue siendo muy útil para empezar proyectos desde cero, proponer ideas y ofrecer una experiencia más cómoda al usuario. El informe también advierte de que no conviene fijarse solo en los benchmarks oficiales. Muchas pruebas comparativas no reflejan bien cómo funcionan estas herramientas en el trabajo diario. Lo importante ya no es solo cuál responde mejor en un examen, sino cuál ayuda a terminar una tarea real de forma más rápida, fiable y barata. Esto convierte el gasto en tokens de cada modelo para una misma tarea en una medida de desempeño cada vez más relevante.
El informe también destaca DeepSeek, una alternativa abierta que ha mejorado mucho y puede manejar textos y proyectos muy largos, aunque todavía no alcanza del todo a los sistemas más avanzados de empresas como OpenAI o Anthropic.
Un agente de IA borró la base de datos de producción de PocketOS
Un agente de IA integrado en Cursor y ejecutando Claude Opus 4.6 habría eliminado, según el fundador de PocketOS, la base de datos de producción de la compañía y sus copias asociadas en una única llamada a la API de Railway. La empresa, que proporciona software crítico a negocios de alquiler de vehículos, perdió registros de reservas, clientes y operaciones de los últimos tres meses, obligando a sus clientes a reconstruir manualmente información desde Stripe, calendarios y correos electrónicos. El incidente no se produjo durante una intervención deliberada sobre producción, sino en el contexto de una tarea rutinaria en un entorno de pruebas: ante un problema de credenciales, el agente decidió actuar por su cuenta, localizó un token con permisos amplios y ejecutó una operación destructiva sin confirmación humana.
El caso expone una vulnerabilidad estructural en la adopción empresarial de agentes de IA: la automatización está llegando a sistemas críticos antes de que existan controles suficientemente robustos. La lección para los equipos directivos es clara: los agentes no pueden depender solo de instrucciones en lenguaje natural ni de promesas de seguridad del proveedor. Deben operar con permisos mínimos, separación estricta entre entornos, confirmaciones externas para acciones irreversibles y copias de seguridad fuera del mismo radio de fallo. La productividad de los agentes será relevante, pero su despliegue en producción exige una nueva disciplina de gobierno: tratar a la IA no como un asistente inocuo, sino como un operador con capacidad real de modificar o destruir activos críticos de la empresa.
Para Wes Roth (𝕏 @WesRoth (Wes Roth)), la combinación de velocidad y alcance total del daño convierte este caso en un ejemplo directo de por qué los agentes con acceso a infraestructura crítica necesitan controles que vayan más allá de la configuración por defecto del entorno de desarrollo.
Nadella: el cuello de botella pasa de los modelos a la adopción
Satya Nadella, consejero delegado de Microsoft, ha afirmado que la IA ha entrado en una fase de “model overhang”: las capacidades de los modelos ya existentes superan lo que el mercado y las organizaciones están absorbiendo y aplicando. Según ese planteamiento, la frontera competitiva se desplaza desde construir modelos más potentes hacia desplegar, integrar y monetizar la IA disponible. La declaración se atribuye a una entrevista con Trevor Long en Australia.
Para 𝕏 @vitrupo (Vitrupo), la lectura es directa: Nadella sitúa la frontera competitiva fuera de los laboratorios de investigación y dentro de lo que el mundo sea capaz de hacer con los modelos que ya están disponibles.
Anthropic contra OpenClaw y Hermes
Un usuario de Claude Code ha denunciado un fallo de facturación que le habría costado alrededor de 200 dólares por una anomalía ligada a la cadena HERMES.md en el historial de commits de Git. Según el reporte, Claude Code incorporaba esa referencia al contexto y la interpretaba como señal de uso bajo un entorno externo o “third-party harness”. El resultado fue que algunas peticiones dejaron de computar contra la cuota incluida en su plan Max y pasaron a cargarse como consumo adicional, pese a que el usuario aún tenía capacidad disponible en su suscripción.
El incidente apunta a un riesgo igualmente relevante para la adopción empresarial: la opacidad de los sistemas de clasificación, permisos y facturación cuando los agentes operan con contexto amplio. Una simple coincidencia textual no debería alterar el modelo de cobro ni activar rutas de consumo económico sin una explicación clara y una confirmación explícita. Recordemos que Anthropic ya cerró la vía que permitía usar suscripciones de Claude Pro y Max para alimentar agentes externos derivados o inspirados en OpenClaw y Hermes. La compañía justificó el cambio por la presión que estos agentes imponían sobre su infraestructura y porque esos patrones de uso no encajaban con el diseño económico de las suscripciones.
𝕏 @giffmana (Lucas Beyer (Bl16)) argumenta que el debate generado en torno al incidente HERMES.md comete un error de diagnóstico: atribuir el fallo al entorno de ejecución segura de un agente es quedarse en la superficie y desvía la atención del problema real en el sistema subyacente.
Musk intensifica su disputa pública y legal con OpenAI
Elon Musk ha vuelto a cargar públicamente contra OpenAI y Sam Altman en X mientras mantiene su disputa legal con la organización. OpenAI se fundó en 2015 como entidad sin ánimo de lucro; Musk fue cofundador, abandonó su consejo en 2018 y después ha litigado contra la compañía. Musk sostiene que OpenAI se ha desviado de su misión original al avanzar hacia una estructura con ánimo de lucro vinculada a Microsoft. OpenAI responde que Musk conocía y apoyó en su momento la necesidad de una estructura con ánimo de lucro para atraer capital y talento, y que ahora utiliza la demanda para perjudicar a un competidor, dado que Musk controla xAI.
En el momento de la fundación Musk anunció un compromiso de financiación de 1.000 millones de dólares para OpenAI, pero esa no fue la cantidad que él desembolsó personalmente. OpenAI afirma que, en realidad, la organización sin ánimo de lucro recibió de Musk menos de 45 millones de dólares. La clave es que sus aportaciones fueron tratadas como donaciones a una organización sin ánimo de lucro, no como una inversión con acciones o participación económica. El juicio dará comienzo esta semana una vez se ha completado la selección del jurado en el tribunal federal de Oakland, California.
𝕏 @elonmusk (Elon Musk) resume su posición en dos registros: uno moral, afirmando que «robaron una organización sin ánimo de lucro» y que «no está bien», y uno personal, llamando a Sam Altman «Scam Altman», apodo que lleva usando en sus comunicaciones públicas desde hace meses.
Xiaomi publica MiMo-V2.5 en código abierto con licencia MIT
Xiaomi ha presentado MiMo-V2.5 y MiMo-V2.5-Pro, dos nuevos modelos enfocados en el uso de agentes de IA. MiMo-V2.5 está diseñado para combinar comprensión multimodal con uso práctico en flujos de trabajo complejos; la versión Pro sube la apuesta con una arquitectura mucho mayor y con ejemplos orientados a tareas prolongadas, como desarrollar software o interactuar con herramientas externas durante muchas etapas. Xiaomi apuesta por que sus modelos no sean solo una demo de laboratorio, sino piezas reutilizables para construir productos y sistemas de IA reales.
La parte más relevante del anuncio no está solo en la capacidad técnica que está por ver, sino en la licencia. Ambos modelos aparecen publicados en Hugging Face con licencia MIT, una de las licencias abiertas más permisivas. La licencia permite uso comercial, entrenamiento continuo y ajuste fino sin autorizaciones adicionales. Xiaomi está enviando un mensaje claro: competir también significa reducir las barreras legales y comerciales para que terceros construyan sobre su tecnología.
Para Wes Roth (𝕏 @WesRoth (Wes Roth)), la combinación de licencia MIT irrestricta y escala de parámetros comparable a modelos de frontera convierte el lanzamiento en una opción directamente utilizable en producción comercial, sin negociaciones de licencia.
Adina Yakup (𝕏 @AdinaYakup (Adina Yakup)) destaca la naturaleza omnimodal nativa del modelo y su diseño específico para agentes como el rasgo que lo diferencia de otras apuestas recientes de código abierto.
Ahmad Osman (𝕏 @TheAhmadOsman (Ahmad)) sitúa MiMo-V2.5 Pro entre los mejores modelos de código abierto disponibles, una valoración que apoya en las especificaciones publicadas pero sin benchmarks verificados de forma independiente.
Robotaxis: Waymo destaca en cobertura operativa, según Car and Driver
La conducción autónoma empieza a abandonar el territorio de la promesa tecnológica para entrar en una nueva etapa de despliegue comercial. Según Car and Driver, Waymo, filial de Alphabet, opera ya más de 800 vehículos autónomos en una zona de 260 millas cuadradas en el área de San Francisco, además de ofrecer servicio en mercados como Phoenix, Los Ángeles, Miami, Atlanta y Austin. La compañía se consolida así como el actor más avanzado del robotaxi en Estados Unidos, mientras Zoox, respaldada por Amazon, avanza con una propuesta más radical: un vehículo diseñado desde cero para circular sin volante, pedales ni conductor humano.
El gran interrogante sigue siendo la seguridad. Waymo asegura haber superado los 200 millones de millas conducidas de forma autónoma y sostiene que sus datos muestran un desempeño más seguro que el de los humanos, aunque Car and Driver advierte de la dificultad de verificar estas afirmaciones sin corroboración independiente. En paralelo, Tesla mantiene una estrategia distinta, basada solo en cámaras y sin radar ni lidar, lo que reduce costes pero abre un debate todavía no resuelto sobre robustez y seguridad. La movilidad autónoma ya no es ciencia ficción; es una industria en construcción. Pero su adopción masiva dependerá de si puede demostrar, de forma transparente y sostenida, que es más segura, más eficiente y más fiable que el conductor humano.
David Silver defiende el aprendizaje por refuerzo para el próximo salto
David Silver, conocido por su trabajo en AlphaGo y AlphaZero en Google DeepMind, comparó los datos humanos con un “combustible fósil” para la IA en una conversación de abril de 2025: un recurso finito que, según su planteamiento, limita la escala de los modelos entrenados sobre texto humano. Como alternativa, defendió el aprendizaje por refuerzo, en el que los sistemas mejoran a partir de las consecuencias de sus propias acciones. Silver ha fundado Ineffable Intelligence. La empresa ha anunciado una ronda seed de 1.100 millones de dólares y la creación de un “superlearner” que aprenda desde su propia experiencia.
La metáfora del combustible fósil no es decorativa: para 𝕏 @vitrupo (Vitrupo), Silver ve el aprendizaje por refuerzo no como una mejora incremental sobre los LLM actuales, sino como la alternativa estructural a su dependencia de datos humanos.
𝕏 @AndrewCurran_ (Andrew Curran) conecta la misión de Ineffable Intelligence con la dirección que lleva tiempo explorando Demis Hassabis, lo que sugiere que Silver y el fundador de DeepMind comparten una misma apuesta de fondo sobre el siguiente paso de la IA.
Gracias por leer 1 Minuto de IA. Si te ha gustado esta edición, no te olvides de dar al ♡ y de compartirla por redes sociales o por email con otras personas a las que creas que les pueda interesar.


