Anthropic adelanta a OpenAI en adopción empresarial
El éxito de Claude Code de nuevo ha situado a Anthropic en la lucha por el liderazgo en IA.
¿Qué pasó ayer? En un minuto:
Anthropic ha desbancado a OpenAI en adopción empresarial: 34,4% frente a 32,3% según el índice de Ramp, que mide gasto corporativo efectivo. La cuota de Anthropic se ha cuadruplicado en tan solo un año mientras que la de OpenAI apenas ha crecido un 0,3%.
Rumores apuntan que Google presentará Gemini Spark, un agente de IA personal operativo las 24 horas que aprende del comportamiento del usuario y gestiona tareas de forma autónoma; entraría de lleno en el terreno que OpenAI lleva meses intentando ocupar tras la adquisición de OpenClaw.
OpenAI lanza Codex en la app móvil de ChatGPT: el teléfono actúa como panel de control remoto mientras el agente sigue ejecutando tareas en el ordenador, un mecanismo de gestión de agentes que está siendo tendencia.
Anthropic firma una alianza de 200 millones con la Fundación Gates, y lanza nuevos productos verticales para pymes y despachos de abogados.
Un experimento en redes publicó un Monet real presentándolo como obra de IA recibiendo un fuerte rechazo del público, demostrando que el juicio estético depende tanto de la etiqueta como de la obra, con implicaciones directas para el mercado del arte y la autenticidad verificable.
Un estudio del MIT citado por The Economist cuantifica la atrofia cognitiva que produce el uso habitual de IA: menos creatividad y menos capacidad de síntesis cuando se delega el pensar por uno mismo.
El volumen de código generado con IA se ha multiplicado por diez, pero la productividad neta de los desarrolladores no ha mejorado en proporción, algo que recuerda a la informatización de los 80: más trabajo intermedio, no necesariamente más valor final.
Y si tienes más de un minuto…
1. Anthropic supera a OpenAI en adopción empresarial
El índice de IA de Ramp, plataforma de gestión de gastos corporativos con datos de pago real de más de 50.000 empresas estadounidenses, registró en abril el primer cruce histórico: Claude alcanzó una cuota del 34,4% frente al 32,3% de OpenAI. La distancia entre ambas cifras es modesta, pero la trayectoria no lo es: Anthropic ha cuadruplicado su presencia empresarial en doce meses mientras OpenAI crecía apenas un 0,3%. Ramp no mide intenciones ni encuestas, sino transacciones, lo que da al dato una solidez metodológica que es difícil de ignorar.
El ascenso de Claude en entornos corporativos probablemente responde a su reputación de mayor fiabilidad y consistencia en el funcionamiento de agentes, atributos que en ese contexto pesan más que el reconocimiento de marca. OpenAI mantiene posiciones sólidas en otras métricas: Codex ha superado los tres millones de desarrolladores semanales activos, un segmento con lógica propia que no compite directamente con el mercado de adopción empresarial generalista.
Hay un dato adicional que merece atención: la plataforma Text Arena registró este mismo cruce de liderazgo seis meses antes de que apareciera en los datos de Ramp, lo que sugiere que los rankings de uso real en benchmarks abiertos pueden funcionar como indicador adelantado de la adopción corporativa. Para los equipos que gestionan el stack de IA de sus organizaciones, el dato transforma lo que parecía una tendencia emergente en un argumento concreto para revisar contratos vigentes.
Para 𝕏 @WesRoth (Wes Roth), el dato más revelador no es el cruce de cuotas sino la asimetría de velocidad: Anthropic cuadruplicó su presencia empresarial en un año mientras OpenAI prácticamente se quedó donde estaba.
𝕏 @arena (Arena.Ai) apunta que este mismo cruce de liderazgo se produjo en su plataforma de uso real seis meses antes de reflejarse en los datos de Ramp, un desfase que convierte los rankings de arena en posible indicador adelantado de la adopción corporativa.
𝕏 @Ric_RTP (Ricardo) añade un matiz competitivo al asunto: según su lectura, OpenAI habría cuestionado la validez de los datos de Ramp, una reacción que interpreta como señal de que la compañía acusa el golpe más de lo que reconoce públicamente.
𝕏 @weplash (Weplash) apunta a la paradoja de fondo: OpenAI sigue siendo la marca más reconocida en IA, pero eso ya no se traduce automáticamente en liderazgo de pago en el segmento empresarial, que es donde se decide la rentabilidad del sector.
2. Google anunciará Gemini Spark Agent en Google I/O
Google tiene previsto presentar Gemini Spark Agent en Google I/O, su conferencia anual de desarrolladores. Las filtraciones, respaldadas por una pantalla de bienvenida de Gemini Spark BETA ya visible en la versión web de Gemini, describen un agente diseñado para operar de forma continua: aprende del comportamiento del usuario, se conecta con aplicaciones externas mediante habilidades configurables y ejecuta tareas como la gestión del correo o la navegación web sin que el usuario inicie cada interacción.
¿A qué suena todo esto? Efectivamente, no es una evolución del chatbot, sino un paso hacia la automatización personal con contexto persistente replicando el modelo de OpenClaw.
La cuenta 𝕏 @testingcatalog (Ai News | Testingcatalog), especializada en rastrear novedades de producto antes de su anuncio oficial, fue la primera en detallar las características de Gemini Spark: operativa continua, aprendizaje de comportamiento y conexión con habilidades externas, un perfil que va bastante más allá del asistente conversacional habitual.
La reacción de 𝕏 @giffmana (Lucas Beyer (Bl16)) al nombre, preguntándose por qué le suena familiar, apunta a que ‘Gemini Spark’ había circulado antes en algún contexto interno no público, lo que refuerza que la filtración tiene base documental y no es especulación de última hora.
3. Codex llega a la app móvil de ChatGPT
OpenAI ha publicado en fase de vista previa la integración de Codex, su agente de programación autónoma, en la app móvil de ChatGPT para iOS y Android, disponible desde hoy en todas las regiones compatibles. El modelo de uso es lo que distingue este lanzamiento: el proceso pesado sigue ejecutándose en el ordenador del usuario (portátil, Mac mini o servidor de desarrollo), mientras el teléfono funciona como panel de control remoto para arrancar tareas, revisar resultados, redirigir la ejecución y aprobar los siguientes pasos. No es acceso móvil a un asistente de código, sino supervisión asíncrona de un agente que trabaja de forma continua sin que el desarrollador esté frente a la pantalla.
Codex incorpora además un navegador integrado que le permite probar aplicaciones web en distintos tamaños de pantalla, detectar errores de maquetación, iterar sobre ellos y generar capturas para revisión posterior, cerrando el ciclo de desarrollo y prueba sin intervención humana en cada paso. Extender Codex al móvil refuerza ChatGPT como plataforma de productividad distribuida, el sueño de Sam Altman de construir una “super app” al estilo de WeChat. La integración con la app de escritorio para Windows está anunciada como próxima, lo que indica que el ecosistema multiplataforma aún no está completo.
Para 𝕏 @WesRoth (Wes Roth), la capacidad de Codex de probar aplicaciones en distintos tamaños de pantalla de forma autónoma es el detalle técnico más relevante del ciclo: un agente que no solo escribe código sino que también lo valida visualmente acorta el camino entre idea y producto funcionando.
𝕏 @DotCSV (Carlos Santana) traza el paralelismo con lo que Anthropic ya permite con Claude: control remoto de un ordenador mediante instrucciones desde el móvil, una arquitectura hacia la que varias empresas están convergiendo de forma independiente.
4. Anthropic: alianzas, verticales y geopolítica
Anthropic ha acumulado en muy poco tiempo movimientos que, por separado, serían noticias ordinarias. La alianza con la Fundación Gates compromete 200 millones de dólares en subvenciones, créditos de uso de Claude y asistencia técnica durante cuatro años, aplicados a salud global, ciencias de la vida, educación, agricultura y movilidad económica. Son dominios donde los datos son difíciles de obtener y los errores tienen consecuencias directas sobre personas. El acuerdo también le da a Anthropic acceso a contextos de aplicación que ningún contrato corporativo estándar proporciona.
En paralelo, ha lanzado Claude for Small Business, con conectores preconfigurados para QuickBooks, HubSpot, PayPal, Canva, DocuSign y Google Workspace, y Claude for Legal, una suite de flujos de trabajo publicada en código abierto que replica funcionalidades que plataformas especializadas (e.g. Harvey) vendían por hasta 20.000 dólares anuales. Ambos apuntan al mismo objetivo: reducir la fricción de adopción en segmentos con disposición a pagar pero sin capacidad técnica propia.
A esto se añade la publicación de un documento de posicionamiento geopolítico en el que Anthropic advierte que el liderazgo de EE. UU. en modelos frontera no está garantizado para 2028, y el rechazo documentado a una solicitud de acceso al modelo Mythos formulada por un representante de un think tank chino en Singapur. Que una empresa privada tome posición pública sobre seguridad nacional y control de exportaciones dibuja una compañía con una agenda más amplia que la de conseguir tener el mejor modelo.
𝕏 @AnthropicAI (Anthropic) enmarca el acuerdo con Gates como un esfuerzo por extender los beneficios de la IA allí donde los mercados no llegan solos, una formulación que distingue explícitamente esta apuesta del negocio comercial habitual.
𝕏 @MaxJunestrand (Max Junestrand) interpreta Claude for Legal como una señal de que el encaje entre IA y trabajo jurídico es total. No oculta que su empresa ya trabaja con Anthropic, lo que convierte su valoración en un indicador de adopción real más que en una opinión neutral.
𝕏 @RoundtableSpace (0Xmarionawfal) describe la propuesta de Claude for Small Business en términos operativos concretos: facturas, contenido, ventas, documentos y correo. Una lectura que subraya que Anthropic no está vendiendo acceso a un modelo, sino sustitución de flujos de trabajo completos.
5. IA, arte y el ojo que juzga
Alguien publicó un Monet auténtico presentándolo como imagen generada por IA. El público lo rechazó. El experimento invierte el sentido habitual del debate: no se pregunta si la IA engaña al ojo humano, sino si el ojo humano rechaza lo auténtico cuando cree que es artificial. El resultado revela que el juicio estético está mediado por la etiqueta tanto como por la obra en sí. El precedente histórico más citado es el de Baudelaire, que en 1859 calificó la fotografía de «enemigo mortal del arte», convencido de que una herramienta mecánica no podía producir expresión genuina. La fotografía no destruyó el arte: lo reorganizó y acabó siendo reconocida como medio propio.
El paralelismo con la IA generativa tiene diferencias claras, sin embargo. La fotografía no producía imágenes indistinguibles de la pintura al óleo; modelos como Midjourney, Nano Banana o GPT-Image sí pueden competir visualmente con obra humana en ciertos registros. La analogía histórica sirve para relativizar el rechazo inicial, pero no resuelve lo que ocurre con la atribución de autoría, los derechos y el mercado cuando la indistinguibilidad técnica es real. Para galeristas y coleccionistas, el problema práctico ya está sobre la mesa: si el valor de una obra depende más de la narrativa que la rodea que de sus propiedades visuales, la autenticidad verificable se convierte en el activo más escaso, y probablemente el más rentable.
La recuperación de Baudelaire por parte de 𝕏 @c_valenzuelab (Cristóbal Valenzuela) no es nostalgia histórica: es un recordatorio de que el rechazo de élites creativas a nuevas herramientas tiene un historial de fracasos documentados, y que ese historial debería pesar en cualquier argumento sobre lo que la IA puede o no puede ser.
Al sugerir “ahora diles que es un Monet real”, 𝕏 @pmarca (Marc Andreessen) apunta a algo que el mercado del arte conoce bien y el mercado de IA empieza a aprender: el valor no lo fija la obra, lo fija la atribución, y eso tiene consecuencias directas para cualquier sistema de certificación de autenticidad digital.
6. Atrofia del pensamiento crítico humano por la IA
Un estudio del MIT citado por The Economist ha medido lo que muchos intuían: delegar tareas cognitivas a la IA produce una atrofia cuantificable en habilidades como la creatividad y la síntesis. El mecanismo tiene base teórica anterior. En 2004, Kruger et al. publicaron en el Journal of Experimental Social Psychology la llamada “heurística del esfuerzo”: las personas valoran más los trabajos que perciben como resultado de mayor esfuerzo, aunque el resultado sea idéntico al de otros. La IA generativa rompe esa heurística a escala masiva, porque produce contenido de apariencia elaborada en segundos y desvincula el resultado visible del esfuerzo real.
La lectura de 𝕏 @WesRoth (Wes Roth) es directa: el uso de IA pasivo y acrítico puede atrofiarnos si dejamos de pensar por nosotros mismos en lugar de usarla como herramienta para pensar mejor.
𝕏 @c_valenzuelab (Cristóbal Valenzuela) señala que el fenómeno no necesita nueva investigación para explicarse: la «effort heuristic» lleva dos décadas documentada, y la IA la amplifica a una escala para la que los criterios de valoración del trabajo intelectual no estaban diseñados.
7. Productividad real de desarrolladores de software
Los datos de François Chollet apuntan a una paradoja incómoda: la asistencia por IA ha disparado el output de código sin producir una ganancia equivalente en valor creado por unidad de tiempo. El código adicional tiende a resolver problemas cada vez más periféricos y acumula deuda técnica que absorbe parte del beneficio aparente. El paralelo con la informatización de los años ochenta es útil: aquel ciclo también expandió el volumen de trabajo ejecutable sin trasladarlo a resultados finales en la misma proporción, un fenómeno que los economistas atribuyeron al crecimiento de la demanda de trabajo intermedio. La IA generativa parece replicar esa dinámica.
Para empresas que han apostado por la IA como palanca de eficiencia, el riesgo concreto es que sus métricas de output, líneas de código, volumen de contenido, velocidad de entrega, estén midiendo actividad y no resultado.
Para 𝕏 @fchollet (François Chollet), el dato más incómodo: diez veces más código producido con una mejora marginal en productividad real indica que las herramientas de IA están inflando el output sin mejorar el resultado. Lo compara con la informatización de los ochenta, cuando más capacidad de procesamiento se tradujo en más trabajo intermedio, no proporcionalmente en más valor.
𝕏 @levie (Aaron Levie) observa que los agentes de IA están difuminando los perímetros competenciales clásicos entre roles. Para él, eso obliga a redefinir no solo herramientas, sino estructuras de contratación y modelos de especialización, un proceso que describe como colectivo y todavía sin respuesta establecida.
Gracias por leer 1 Minuto de IA. Si te ha gustado esta edición, no te olvides de dar al ♡ y de compartirla por redes sociales o por email con otras personas a las que creas que les pueda interesar.



