OpenAI crea filial para desplegar agentes de IA directamente en las empresas
Anthropic ya lanzó en marzo un programa de partners con el mismo objetivo.
¿Qué pasó ayer? En un minuto:
OpenAI da el salto a los servicios con una filial dotada de 4.000 millones de dólares y 19 socios corporativos desde el primer día para entrar en las organizaciones y hacer funcionar los agentes de IA.
Thinking Machines presenta una categoría de modelo interactivo entrenado desde cero para conversar en tiempo real, sin turnos de palabra y con una latencia menor al no tener que llamar secuencialmente a varios modelos.
OpenAI sigue apostando por el mercado de la ciberseguridad empresarial con Daybreak, una plataforma que combina sus modelos más capaces con un flujo agéntico para automatizar la ciberdefensa en tiempo real.
Hermes Agent, el modelo de código abierto de Nous Research, lidera el ranking global de volumen de tokens de OpenRouter, y OpenAI publica Codex Hooks para que las empresas personalicen el agente que opera Codex.
El debate sobre si la IA repite el crash del 2000 tiene dos puntos de vista que conviene analizar: cómo crece la demanda de tokens ante los nuevos usos de la IA y si la inversión en centros de datos responde a esa demanda.
Los modelos de IA tienden a la homogenización del contenido , y un nuevo estudio demuestra que eso no es inevitable: la creatividad puede entrenarse. Mientras tanto, ingenieros y creativos reaccionan a esta tecnología de formas radicalmente opuestas.
Y si tienes más de un minuto…
1. OpenAI crea filial para desplegar IA en empresas
OpenAI ha lanzado la OpenAI Deployment Company, una entidad mayoritariamente controlada por la compañía y respaldada con 4.000 millones de dólares de inversión inicial repartida entre 19 socios: firmas de inversión, consultoras e integradores de sistemas. Para arrancar con músculo técnico real, ha acordado adquirir Tomoro, una consultora de IA aplicada que aporta cerca de 150 ingenieros y especialistas en despliegue desde el primer día. Hasta ahora, OpenAI operaba como proveedor de modelos y APIs. Este paso hacia la capa de implementación lo pone en competencia directa con Accenture, Deloitte y otros integradores que llevan años construyendo práctica de IA dentro de las grandes organizaciones. El modelo recuerda al de Palantir: ingenieros propios embebidos en el cliente para garantizar que la tecnología funcione en entornos productivos reales, con sistemas heredados y estructuras organizativas que no se transforman solas. La lógica comercial es sólida. Los grandes contratos empresariales no se ganan solo con el mejor modelo, sino con la capacidad de hacerlo operar dentro de procesos complejos. Entre los socios confirmados figura BBVA como única entidad española. Lo que los datos disponibles no permiten determinar aún es si esos 19 socios actúan como distribuidores, coinversores o clientes preferentes, y qué margen cede OpenAI a cambio de ese respaldo.
La propia 𝕏 @OpenAI (Openai) enmarca el lanzamiento como un proyecto de ecosistema: 19 socios de primer nivel integrados desde el origen, lo que apunta a que la Deployment Company nace con vocación de canal, no solo de unidad de servicio propio.
Para 𝕏 @gdb (Greg Brockman), el dato central no es la cifra de inversión sino los 150 ingenieros de despliegue disponibles desde el arranque: una señal de que OpenAI entiende la fricción de adopción empresarial como un problema de ejecución, no solo de tecnología.
𝕏 @MTSlive (Mts) precisa que Tomoro era una firma de consultoría de IA aplicada antes de la adquisición, un detalle que importa: OpenAI no ha comprado solo ingenieros, sino un modelo de negocio y, previsiblemente, una cartera de relaciones con clientes empresariales ya activos.
2. Thinking Machines apuesta por IA de interacción nativa
Thinking Machines Lab, la startup fundada por la exdirectiva de OpenAI Mira Murati, presentó una vista previa de sus “modelos de interacción”: sistemas de IA diseñados para escuchar, ver, hablar y actuar en tiempo real, sin esperar a que el usuario termine cada frase o instrucción. La promesa es sencilla: pasar del chatbot que responde por turnos a un asistente que colabora como una persona en una reunión. Según la compañía, el modelo puede seguir una conversación por voz, interpretar vídeo, interrumpir cuando sea útil, traducir en directo y usar herramientas mientras mantiene el diálogo.
Para las empresas, el cambio puede ser relevante. Este tipo de interfaz apunta a atención al cliente más fluida, formación en tiempo real, soporte a equipos comerciales, asistencia en tareas operativas y colaboración interna con menos fricción. Pero aún no es un producto disponible: Thinking Machines abrirá una prueba limitada en los próximos meses y prevé un lanzamiento más amplio a finales de año. El movimiento llega con fuerte respaldo financiero. Reuters informó que Thinking Machines levantó unos 2.000 millones de dólares en 2025 con una valoración de 12.000 millones, y que este año cerró una alianza multianual con Nvidia para acceder a gran capacidad de cómputo.
Este enfoque puede ser un diferenciador real o una ventaja temporal: los grandes laboratorios llevan meses iterando sus modos de voz en tiempo real, y la distancia técnica entre ambos enfoques dependerá de pruebas comparativas que aún no tenemos.
Para 𝕏 @miramurati (Mira Murati), la novedad no es incremental: el modelo no reduce la latencia de un sistema por turnos, sino que ha sido concebido desde cero para que la interacción en tiempo real sea una propiedad nativa de la arquitectura, no un añadido.
La hoja de ruta que articula 𝕏 @soumithchintala (Soumith Chintala) es deliberadamente secuencial: primero mayor fluidez en la comunicación humano-IA, después inteligencia combinada más alta, y solo en una tercera fase abordar el papel del humano en ese nuevo equilibrio.
𝕏 @WesRoth (Wes Roth) sitúa el salto en el paralelismo: un sistema que habla, escucha, observa y razona al mismo tiempo rompe con el modelo de módulos separados que ha definido a los chatbots comerciales desde sus primeras versiones.
Desde el ángulo de producto, 𝕏 @PaulYacoubian (Paul Yacoubian) sugiere que Thinking Machines debería adquirir un activo de consumo ya establecido para acelerar su entrada en ese mercado, una lectura que apunta a una tecnología percibida como sólida pero con tracción de usuario aún por demostrar.
3. OpenAI entra en ciberseguridad con Daybreak
OpenAI ha presentado Daybreak, una iniciativa para que empresas y equipos de seguridad usen sus modelos más avanzados, junto con Codex Security, para detectar riesgos en el software, validar fallos y acelerar la corrección de vulnerabilidades antes de que sean explotadas. La compañía lo define como una forma de incorporar la defensa desde el inicio del desarrollo, no solo como una reacción posterior a los incidentes.
Para los negocios, el movimiento es relevante porque apunta a uno de los cuellos de botella más costosos de la ciberseguridad: pasar de encontrar un problema a solucionarlo con garantías. OpenAI asegura que Daybreak puede ayudar a priorizar amenazas importantes, generar y probar parches dentro de los repositorios, y devolver evidencias listas para auditoría, lo que puede reducir tiempos de análisis y mejorar el control interno.
El acceso no será uniforme. OpenAI plantea tres niveles: GPT-5.5 para uso general, GPT-5.5 con Trusted Access for Cyber para defensores verificados, y GPT-5.5-Cyber para trabajos especializados como pruebas autorizadas y validaciones controladas. Esta segmentación busca equilibrar utilidad y riesgo, ya que las mismas capacidades que ayudan a defender sistemas también podrían utilizarse de forma maliciosa.
Tras el anuncio de Mythos como el modelo más potente en ciberseguridad, Daybreak posiciona a OpenAI en una carrera creciente por convertir la IA en infraestructura crítica de seguridad corporativa, con socios como Cloudflare, Cisco, CrowdStrike, Palo Alto Networks, Oracle, Zscaler, Akamai y Fortinet.
Para 𝕏 @sama (Sam Altman), la apuesta no es exploratoria: afirma que la IA ya es competente en ciberseguridad y que OpenAI quiere trabajar con el mayor número posible de empresas desde ahora, lo que indica que Daybreak no es un piloto sino un despliegue con voluntad de escala inmediata.
𝕏 @gdb (Greg Brockman) lo denomina explícitamente «aceleración defensiva», un término que sitúa Daybreak en la lógica de una carrera donde mejorar la velocidad de respuesta del defensor es la prioridad antes que cualquier otra consideración.
4. Codex, Hermes y la guerra de agentes de código
En pocos días, el mercado de agentes de codificación ha acumulado varios movimientos que conviene leer juntos. OpenAI ha añadido soporte de Hooks a Codex: un framework que permite a los desarrolladores inyectar scripts deterministas directamente en el bucle de ejecución del agente. Hasta ahora, herramientas como Codex, Claude Code o Gemini CLI ofrecían control limitado sobre su lógica interna. Los Hooks cambian esa ecuación, sobre todo en entornos empresariales donde la auditabilidad y la previsibilidad del comportamiento del agente tienen peso real. Además, una referencia a un modo Ultrafast, descrito como las respuestas más rápidas disponibles para trabajo sensible a la latencia, apareció brevemente en el repositorio oficial de Codex en GitHub antes de ser retirada. Es una señal habitual de lanzamiento en preparación. Si se confirma, reforzaría a Codex en flujos como autocompletado en tiempo real o pipelines de integración continua. Mientras tanto, Hermes Agent de Nous Research ha alcanzado el primer puesto en el ranking de volumen de tokens de OpenRouter, plataforma que agrega acceso a múltiples modelos y funciona como termómetro real de adopción. Desplazar a modelos respaldados por OpenAI, Anthropic o Google en ese ranking no es un dato menor para un proyecto de código abierto especializado en tareas agénticas. En paralelo, OpenRouter ha lanzado Pareto Code, un endpoint experimental y gratuito que enruta cada petición al modelo de codificación más barato capaz de superar el umbral de calidad que define el usuario. Ese tipo de abstracción debilita la ventaja de marca de los grandes proveedores: si el enrutador elige por ti, la fidelidad al modelo se vuelve irrelevante. El poder se desplaza hacia los agregadores.
Para 𝕏 @WesRoth (Wes Roth), los Hooks no son una mejora incremental: convertir Codex en una plataforma extensible con lógica determinista inyectable lo acerca a un modelo de agente programable, precisamente donde la competencia todavía no ha llegado.
Desde el ángulo de seguridad, 𝕏 @AISecHub (Aisechub) señala que Cisco DefenseClaw ya cubre simultáneamente a Claude Code, Codex, Cursor, Windsurf, Gemini CLI y Hermes, entre otros. Que una solución de gobernanza centralizada necesite dar soporte a tantos agentes a la vez ilustra la velocidad a la que se ha fragmentado el ecosistema.
5. ¿Burbuja de IA o demanda mal calculada?
Valoraciones elevadas, gasto de capital sin precedentes y retornos difíciles de demostrar a corto plazo: el parecido superficial con la burbuja puntocom es real, y el debate ha ganado volumen en los últimos meses. Cuando una tecnología abarata de forma radical un recurso, no solo multiplica usos existentes: crea otros nuevos. Internet no solo hizo más barata la comunicación; abrió categorías enteras que entonces eran difíciles de anticipar. La tesis es que algo parecido ocurrirá con la “inteligencia” barata y ampliamente disponible. La gran diferencia es que la IA no parte de un mundo analógico. Incorporarse a una economía basada en tokens puede ser mucho más sencillo que lo fue, en el año 2000, conectar empresas a Internet y transformar sus procesos desde la base.
La analogía con la burbuja puntocom exige separar tecnología y financiación. El golpe más destructivo de 2000 fue menos la euforia por las startups que el endeudamiento de las telecos para construir redes antes de que la demanda madurara. Brookings estimó en 2002 que el sector invirtió más de 500.000 millones de dólares en fibra, switches y redes inalámbricas, con mucha capacidad aún sin uso. Las grandes tecnológicas prevén gastar más de 700.000 millones de dólares en infraestructura de IA solo en 2026. A la vez, acuerdos entre Nvidia, OpenAI, Anthropic, Oracle y CoreWeave alimentan dudas sobre ventas cruzadas y financiación circular. La conclusión para empresas e inversores es clara: la IA puede no ser una burbuja de demanda; sí puede convertirse en una burbuja de financiación.
Para 𝕏 @RichardSocher (Richard Socher), el error de los años 90 no fue invertir demasiado en internet, sino no imaginar los usos que nacerían cuando comunicarse se volvió casi gratis. La misma lógica, aplicada a la inteligencia, sugiere que la demanda futura de IA superará con creces lo que los modelos actuales de negocio pueden anticipar.
La distinción que traza 𝕏 @pmarca (Marc Andreessen) entre los tres factores del crash del 2000 importa porque no todos pesan igual: la deuda acumulada para construir infraestructura de telecomunicaciones fue más destructiva que la sobreestimación de crecimiento, y ese matiz es el que habría que aplicar hoy al gasto en centros de datos financiado con deuda corporativa.
6. IA y creatividad: límites reales y vías de mejora
Los modelos de lenguaje tienen un problema estructural: cuando generan ideas, hipótesis o textos, tienden a converger hacia soluciones parecidas entre sí. La homogeneidad es especialmente costosa en los contextos donde más se esperaría variación diferencial: investigación científica, escritura creativa, publicidad, diseño conceptual. Un estudio reciente demuestra que esta limitación no es inherente a la arquitectura: es posible optimizar modelos específicamente para aumentar su variación creativa, lo que convierte la creatividad en una dimensión de entrenamiento, no en un accidente emergente. Esto también afecta a una de las apuestas más extendidas entre empresas que usan IA: la ingeniería de prompts. Las técnicas avanzadas, como el razonamiento encadenado o las instrucciones estructuradas, mejoran el rendimiento de forma medible, pero el techo lo fija el modelo subyacente. Optimizar prompts sobre un modelo homogéneo sigue produciendo outputs homogéneos. El segundo ángulo de este tema es menos técnico y más revelador. El impacto psicológico de la IA generativa no es uniforme entre perfiles profesionales: los ingenieros de software, que han construido estos sistemas, describen una crisis de identidad que les lleva a fantasear con desconectarse por completo; los creativos, en cambio, responden produciendo de forma compulsiva. Dos reacciones opuestas ante una misma presión, con consecuencias distintas para la retención de talento en tecnología y en industrias de contenidos.
La incapacidad de los modelos para producir variación creativa es, según 𝕏 @emollick (Ethan Mollick), una brecha de fondo que limita su utilidad tanto en ciencia como en escritura. Un paper reciente demuestra que puede corregirse optimizando el entrenamiento directamente hacia ese objetivo, aunque las técnicas de prompting avanzadas también ayudan de forma medible.
Lo que 𝕏 @c_valenzuelab (Cristóbal Valenzuela) observa va más allá de la productividad: los ingenieros sueñan con irse al bosque a leer poesía, mientras los creativos no pueden dejar de producir hasta las cuatro de la madrugada. Dos respuestas opuestas que dicen más sobre la identidad profesional en juego que sobre la tecnología.
Gracias por leer 1 Minuto de IA. Si te ha gustado esta edición, no te olvides de dar al ♡ y de compartirla por redes sociales o por email con otras personas a las que creas que les pueda interesar.



