La guerra de la IA entra en la oficina
Lo esencial de la IA, cada día, para no quedarte atrás.
¿Qué pasó ayer? En un minuto:
La actualidad confirma lo que ya apunté en la edición de ayer: la carrera de la inteligencia artificial no se decidirá solo por la calidad de los modelos, sino por quién logre controlar el flujo de trabajo real dentro de las empresas. OpenAI y Google ya se han movido en esa dirección con plataformas de agentes corporativos que van a por el mercado que desde años trata de acaparar Microsoft Copilot. El foco ha dejado de estar en asistentes para la productividad individual y se desplaza hacia sistemas capaces de interpretar el contexto empresarial, utilizar sus herramientas y ejecutar tareas complejas y prolongadas en los procesos de negocio existentes. Ese es, hoy, el verdadero campo de batalla, convertirse en la capa operativa sobre la que circula el conocimiento corporativo.
Sin embargo, esta expansión choca con dos límites muy concretos. El primero es físico: la IA depende cada vez más de la infraestructura de centros de datos, no solo por la disponibilidad de hardware para su construcción, sino por un factor que gana peso rápidamente y del que todavía se habla poco: la capacidad de asegurar suministro eléctrico para los próximos años. La energía se perfila como uno de los recursos más escasos y estratégicos de esta industria. El segundo límite es económico: Anthropic ha dejado caer, con su rectificación en torno a la disponibilidad de Claude Code para su suscripción, que ofrecer agentes avanzados bajo esquemas de precio fijo somete los márgenes a una presión creciente.
En la guerra por liderar el mercado de la IA, no ganará quien tenga la mejor demo, sino quien pueda sostener el negocio cuando llegue la factura real.
Y si tienes más de un minuto…
OpenAI lanza agentes de trabajo colaborativo para empresas
OpenAI ha presentado los workspace agents, agentes compartidos dentro de ChatGPT diseñados para ejecutar tareas complejas y flujos de trabajo prolongados. Pueden extraer contexto de documentos, correos, chats y código, y realizar acciones aprobadas: actualizar tickets en Linear, crear documentos o enviar mensajes en Slack. De momento están disponibles en preview para los planes Business, Enterprise, Edu y Teachers. Técnicamente se apoyan en un entorno Codex alojado en la nube, lo que los sitúa un escalón por encima de los GPT personalizados de 2023: aquellos respondían preguntas, estos ejecutan tareas de forma autónoma y persistente. El salto convierte a ChatGPT en una capa de orquestación del trabajo de oficina y lo enfrenta directamente a Microsoft Copilot y a los agentes que muchas empresas ya construyen sobre infraestructura propia. La integración con Box estaba operativa en el momento del lanzamiento, lo que apunta a una estrategia de ecosistema de aplicaciones desde el primer día. La limitación estructural es clara: los agentes solo operan con las integraciones que OpenAI habilite. Para empresas con arquitecturas heterogéneas o requisitos estrictos de soberanía de datos, ese perímetro cerrado puede ser un freno suficiente para buscar alternativas.
𝕏 @OpenAI (Openai) describe la capacidad de los agentes para saltar a un hilo de Slack, entender qué se necesita y actuar sin que nadie lo pida explícitamente, lo que ilustra hasta dónde llega la ambición de integración del producto.
Para 𝕏 @gdb (Greg Brockman), la clave está en la accesibilidad: construir sobre un entorno Codex en la nube y conectar herramientas recurrentes baja el umbral técnico lo suficiente para que equipos no especializados desplieguen sus propios agentes.
𝕏 @trey_smith (Trey Smith) señala la grieta del modelo: los equipos que construyen agentes sobre infraestructura propia con enrutamiento multi-modelo tendrán más margen de maniobra que los que queden atados al ecosistema cerrado de OpenAI.
Google lanza plataforma empresarial de agentes con Gemini
Google ha presentado en Cloud Next la Gemini Enterprise Agent Platform, una evolución de Vertex AI que añade orquestación, integración con sistemas corporativos y controles de seguridad para que las empresas construyan y escalen agentes de IA. Los agentes llegan a los empleados a través de la aplicación Gemini Enterprise, cerrando el ciclo entre desarrollo técnico y uso cotidiano. La plataforma da acceso a más de 200 modelos mediante el Model Garden, entre ellos Gemini 3.1 Pro, Gemini 3.1 Flash Image, Lyria 3 y la familia Gemma 4. El lanzamiento llega acompañado de una alianza con Oracle para consultar bases de datos en lenguaje natural sin SQL, y de acuerdos de despliegue con Accenture, Bain, BCG, Deloitte y McKinsey. Google justifica el momento con un dato propio: solo el 25% de las organizaciones ha llevado la IA a producción a escala. La arquitectura es coherente sobre el papel, pero el historial de Google en productos empresariales obliga a cierto escepticismo. La prueba real no es la adopción inicial, sino si Gemini Enterprise consigue retención en grandes cuentas o acaba siendo una capa técnica prescindible cuando los clientes evalúen alternativas más integradas con sus sistemas existentes.
El lanzamiento no es solo producto: Google Cloud ya procesa más de 16.000 millones de tokens por minuto vía API directa, frente a los 10.000 millones del trimestre anterior. Para 𝕏 @sundarpichai (Sundar Pichai), esa aceleración convierte la apuesta en una cuestión de infraestructura anunciando también la 8a generación de TPUs.
𝕏 @googlecloud (Google Cloud) enmarca la plataforma como respuesta a un problema de gobernanza concreto: los agentes actuales operan en entornos multi-sistema sin los controles de seguridad adecuados, y Gemini Enterprise Agent Platform se presenta como la capa que cierra esa brecha.
La integración anunciada por 𝕏 @OracleDatabase (Oracle Ai Database) permite hacer preguntas en lenguaje natural sobre datos Oracle sin conocimientos de SQL ni del modelo de datos subyacente, un caso de uso concreto que ilustra cómo Google está construyendo el ecosistema de conectores desde el primer día.
ChatGPT gratuito para clínicos verificados en EE. UU.
OpenAI ha lanzado ChatGPT for Clinicians, una versión gratuita basada en GPT-5.4 dirigida a médicos, enfermeros, farmacéuticos y otros profesionales sanitarios acreditados en Estados Unidos. El acceso requiere verificación de credenciales; la expansión global está anunciada, pero sin fecha. El lanzamiento incluye HealthBench Professional, un benchmark abierto para medir el rendimiento de modelos de lenguaje en tareas clínicas reales. GPT-5.4 supera en ese benchmark a médicos especialistas con tiempo ilimitado y acceso a internet, aunque el instrumento de medición lo diseñó la propia OpenAI, un matiz que los titulares tienden a enterrar. El producto no llega a un vacío: millones de clínicos ya usaban ChatGPT cada semana y el uso médico se duplicó en el último año, según datos de la compañía. Este lanzamiento formaliza ese comportamiento y le añade una capa de legitimidad institucional. En el plano competitivo, sitúa a OpenAI frente a herramientas especializadas como OpenEvidence, que opera en el mismo segmento. Lo que ningún comunicado resuelve es la cadena de responsabilidad: una herramienta gratuita, sin licencia médica propia, desplegada en entornos clínicos de alta exigencia deja sin respuesta concreta quién asume las consecuencias cuando el modelo falla.
Para 𝕏 @EricTopol (Eric Topol), cardiólogo y referencia habitual en IA médica, el lanzamiento combina dos piezas complementarias: el acceso gratuito para profesionales acreditados y HealthBench Professional como instrumento de medición del rendimiento en tareas clínicas reales.
𝕏 @emollick (Ethan Mollick) apunta directo al método: el benchmark que posiciona a GPT-5.4 por encima de especialistas fue diseñado por OpenAI y, aunque es abierto, ese detalle merece más peso del que suele recibir en los titulares.
𝕏 @frxiaobei (Frxiaobei) subraya un dato que el comunicado oficial apenas destaca: el uso de ChatGPT entre médicos ya se había más que duplicado en un año, lo que convierte este lanzamiento menos en una apuesta arriesgada y más en la formalización de un comportamiento consolidado.
El mercado de cómputo para IA, bajo presión extrema
El gran cuello de botella de la IA ya no está solo en los chips, sino también en la energía. El auge de los centros de datos está disparando la demanda de turbinas, equipos eléctricos y capacidad industrial para poner nueva generación en marcha. Por eso GE Vernova comunicó que su negocio de gas ya suma 100 GW entre cartera y reservas de capacidad, y que espera cerrar 2026 con al menos 110 GW. Los precios suben a doble dígito y al menos un competidor ha dejado de aceptar pedidos. El flujo de caja libre generado en un solo trimestre superó al de los doce meses anteriores, lo que indica que la demanda ya se está pagando, no proyectando. La escasez no es cíclica: está anclada en la capacidad física de construir y conectar infraestructura a escala, un proceso que se mide en años. La carrera por la IA se está convirtiendo también en una carrera por asegurar infraestructura física antes que los demás. Para los grandes laboratorios de IA, la conclusión es clara: competir en IA no dependerá solo de acceder a buenos modelos, sino también de tener acceso fiable a electricidad, capacidad de cómputo y socios industriales capaces de escalar a tiempo.
Para 𝕏 @SemiAnalysis_ (Semianalysis), los datos del mercado de energía para centros de datos no admiten lectura moderada: 100 gigavatios bajo contrato, un competidor que ha cerrado el grifo y más flujo de caja libre en 90 días que en los 365 anteriores describen un bloqueo estructural, no un ciclo alcista ordinario.
Claude Code vuelve al plan Pro de Anthropic
Anthropic retiró Claude Code, su herramienta de programación agéntica, del plan Pro de 20 dólares al mes. Esta medida solo afectaba a un 2% de potenciales nuevos usuarios, lo que generó una reacción negativa inmediata y visible. En pocas horas, la empresa dio marcha atrás: Claude Code volvió a aparecer en la página de precios del plan Pro, sin comunicado oficial de por medio. El episodio tiene una lectura clara: el coste computacional de ejecutar un agente de código es sensiblemente mayor que el de una conversación estándar, y mantenerlo en un plan de precio fijo presiona los márgenes. Que Anthropic haya revertido el cambio tan rápido indica que la presión de los usuarios superó, al menos de momento, ese cálculo. En términos de percepción, recortar un beneficio ya activo es peor que no haberlo ofrecido: los usuarios lo interpretan como una quita, no como un ajuste de producto. El contraste con OpenAI añade otro ángulo incómodo: mientras Anthropic gestiona restricciones de capacidad, su principal competidor está expandiendo agentes y exhibiendo disponibilidad de infraestructura. Lo que no se ha resuelto es el problema de fondo. Si la demanda de Claude Code sigue creciendo, Anthropic tendrá que decidir si separa el uso agéntico del conversacional en su estructura de precios, o si asume el coste como inversión en retención de usuarios.
Para 𝕏 @DotCSV (Carlos Santana), el problema es estructural: Anthropic retiró el acceso «ahogada por falta de computación», y OpenAI aprovechó el momento para exhibir músculo de infraestructura, un contraste que no beneficia a Anthropic en ningún frente.
Mientras se produce el debate sobre acceso y precios, 𝕏 @adxtyahq (Aditya) señala que el propio responsable de Claude Code en Anthropic lleva meses sin escribir código a mano, y atribuye 49 funcionalidades desarrolladas en dos días al flujo de trabajo agéntico que él mismo emplea.
OpenAI publica su primer modelo abierto de 2026
OpenAI ha publicado Privacy Filter, un modelo de clasificación de tokens orientado a detectar y filtrar información de identificación personal (PII) en texto a escala. No genera texto: identifica datos sensibles dentro de flujos existentes. Su arquitectura es una mezcla de expertos (MoE) con 1.500 millones de parámetros en total y solo 50 millones activos por inferencia, lo que lo hace sustancialmente más eficiente que un modelo denso de tamaño comparable. La licencia es Apache 2.0, sin restricciones para uso comercial. Es el primer modelo que OpenAI publica en abierto en 2026, y el contraste con su trayectoria reciente es evidente. Más allá del gesto, la utilidad es concreta: cualquier organización que procese texto a escala y necesite limpiar datos personales antes de enviarlos a un modelo tiene ahora una herramienta especializada, liviana y de uso libre. El modelo bidireccional puede operar sobre volúmenes masivos sin el coste computacional de un LLM completo. Lo que no revelan los detalles del lanzamiento es si OpenAI desarrolló Privacy Filter para cubrir sus propias necesidades internas de preprocesamiento y decidió publicarlo, o si existe una intención más sostenida de construir una familia de modelos utilitarios en abierto haciendo gala de su nombre y sus orígenes.
Anthropic mide el impacto económico de la IA
Anthropic ha publicado un análisis económico basado en las respuestas abiertas de 81.000 usuarios de Claude recogidas en diciembre, y ha anunciado el Anthropic Economic Index Survey, una encuesta mensual para rastrear cómo la IA transforma el trabajo en tiempo real. Los resultados iniciales apuntan tres patrones: los trabajadores en ocupaciones con mayor exposición a la IA, como la ingeniería de software, expresan más preocupación por el desplazamiento laboral; quienes están al inicio de su carrera son los más inquietos; y los mayores beneficios de productividad se concentran en los extremos salariales, donde el impacto habitual no es acelerar tareas existentes sino ampliar el alcance de lo que cada persona puede hacer. Hay una paradoja que los datos dejan a la vista: los usuarios que reportan mayores ganancias de velocidad son también los que más temen perder su empleo. Anthropic sostiene que los indicadores tradicionales de mercado laboral llegan tarde y no capturan cómo vive la gente estos cambios mientras suceden. La encuesta mensual intenta cubrir ese hueco. El problema de fondo es de representatividad: 81.000 respuestas de usuarios activos de Claude definen un perfil sesgado hacia adoptantes tempranos, y los patrones observados podrían atenuarse considerablemente con una muestra más amplia y heterogénea.
El argumento central de 𝕏 @AnthropicAI (Anthropic) no es que la IA destruye empleo ni que lo crea, sino que los datos cualitativos sobre cómo lo perciben los trabajadores son imprescindibles para entender una transición que todavía está en curso.
Chollet redefine el criterio para medir la inteligencia general
François Chollet, conocido por diseñar el benchmark ARC, ha publicado una tesis breve que ataca el criterio dominante para evaluar la AGI: medir cuánto imita un sistema el comportamiento humano. Su posición es que la imitación no es inteligencia y, en particular, no es generalización. El criterio válido, según Chollet, es otro: hasta qué punto un sistema aprende a resolver problemas para los que no fue entrenado, incluyendo problemas que los propios humanos no sabemos abordar. La distinción tiene consecuencias directas sobre los benchmarks actuales. La mayoría mide rendimiento en tareas conocidas, con datos de entrenamiento que frecuentemente se solapan con esas mismas tareas. Bajo ese rasero, los resultados dicen poco sobre capacidad de generalización real. Chollet lleva años defendiendo esta postura, pero el momento le da más peso: varios laboratorios han declarado públicamente su proximidad a la AGI, y si se aplica su definición, ningún modelo actual califica. El debate de fondo no es semántico. Afecta a cómo se diseñan los sistemas, cómo se financian y cómo se regulan. Mientras los laboratorios usen benchmarks convencionales para justificar sus afirmaciones sobre AGI, la distancia entre lo que se mide y lo que se reivindica seguirá creciendo.
Para 𝕏 @fchollet (François Chollet), juzgar una AGI por su capacidad de imitación es un error de categoría: reproducir patrones aprendidos no demuestra comprensión ni capacidad de generalizar hacia lo desconocido. El criterio que propone es más exigente y, por ahora, ningún sistema lo supera.
USVC abre la inversión en IA a cualquiera
AngelList ha lanzado USVC, un fondo de capital riesgo registrado ante la SEC que permite invertir en empresas privadas de IA sin acreditación y con un mínimo de 500 dólares. La cartera inicial incluye OpenAI, Anthropic, xAI, Sierra, Crusoe, Legora y Vercel. A medida que el fondo incorpore nuevas posiciones, los inversores existentes participarán automáticamente en ellas. Hasta ahora, entrar en el capital de estos laboratorios antes de una salida a bolsa estaba reservado a institucionales o a particulares con patrimonio suficiente para cumplir los requisitos de acreditación. USVC elimina esa barrera formal. El argumento de sus impulsores es explícitamente temporal: quieren posicionarse antes de que OpenAI, xAI o Anthropic suban más de valoración. La propuesta descansa en el arbitraje de momento, no solo en la diversificación. El riesgo estructural no desaparece con el ticket bajo: los vehículos de este tipo añaden una capa de comisiones sobre activos ilíquidos, y la ventana de salida depende de decisiones corporativas, como una OPI o una adquisición, que el inversor minorista no puede anticipar ni influir. Que el mínimo sea de 500 dólares amplía el acceso; la naturaleza del activo subyacente es la misma.
El argumento de 𝕏 @naval (Naval) para estructurar el fondo no es técnico sino de posicionamiento: capturar la apreciación pendiente de los grandes laboratorios antes de que los mercados públicos lo hagan, con USVC como vehículo para eso.
Gracias por leer 1 Minuto de IA. Si te ha gustado esta edición, no te olvides de dar al ♡ y de compartirla por redes sociales o por email con otras personas a las que creas que les pueda interesar.


