Los agentes chocan con la realidad de las empresas
El despliegue de agentes en las organizaciones es más lento de lo esperado
¿Qué pasó ayer? En un minuto:
Lo más relevante ya no es que OpenAI y Anthropic quieran vender agentes de IA a las empresas, sino que están identificando el verdadero cuello de botella: desplegarlos en el contexto real de las organizaciones. Los agentes no se están implantando de forma masiva, sobre todo en grandes empresas, porque chocan con décadas de sistemas heredados, permisos complejos, datos fragmentados y procesos que nunca fueron diseñados para que una IA tomara decisiones encadenadas. Esa última milla, pasar de una demo brillante a una operación fiable en condiciones reales, sigue siendo la parte más costosa.
También cabe destacar el crecimiento de Anthropic, impulsado por el éxito de Claude Code. Sus ingresos y sus alianzas con grandes firmas financieras muestran que la IA empresarial ya se está convirtiendo en una infraestructura clave. Al mismo tiempo, el cambio de paradigma que plantea la tesis de Software 3.0 y la predicción de Jack Clark sobre cuándo la IA será capaz de mejorarse a sí misma aumentan la presión: los modelos evolucionan rápido, pero las organizaciones siguen avanzando al ritmo de sus sistemas antiguos. La oportunidad de negocio para quien sepa aprovecharla es enorme.
Y si tienes más de un minuto…
Antes de continuar, si te gusta este contenido no te olvides de dar al ♡ y de compartirlo por redes sociales. Gracias por leer “1 Minuto de IA”.
Agentes de IA en empresas: despliegue sin mapa
OpenAI y Anthropic han puesto en marcha iniciativas para ayudar a empresas a desplegar agentes de IA en sus operaciones internas. El anuncio era esperable: ambas llevan meses cortejando al cliente corporativo, y los agentes son el paso lógico tras los copilotos individuales. Lo que importa ahora es la escala del trabajo que implica: modernizar infraestructuras de IT, rediseñar flujos y gestionar permisos en entornos donde los agentes toman decisiones encadenadas, no solo responden preguntas. La expansión va más allá del código, donde herramientas como GitHub Copilot tienen cierto arraigo, hacia análisis, gestión documental y atención al cliente. Ahí los riesgos son distintos y peor comprendidos. El concepto de 'jagged frontier', el rendimiento extraordinariamente desigual de la IA según la tarea, está razonablemente detectado y solucionado para el uso individual. En arquitecturas multiagente, ese mapa de lo que funciona bien no existe: los sistemas interactúan, se delegan tareas y acumulan errores silenciosos que nadie ha categorizado aún. El vocabulario disponible para diseñar y gobernar estos sistemas procede casi en exclusiva de la ingeniería de software, un enfoque que describe bien la mecánica pero mal la coordinación. Mientras las plataformas de orquestación proliferan y las consultoras de implantación captan inversión directa de las propias OpenAI y Anthropic, las organizaciones que adoptan estas arquitecturas operan con una comprensión parcial de sus propios riesgos.
Para 𝕏 @levie (Aaron Levie), el foco de OpenAI y Anthropic en la expansión de los agentes hacia el trabajo del conocimiento general es una tendencia que se acelerará y exigirá actualizaciones reales de infraestructura, no solo nuevas suscripciones de software.
La brecha más urgente, según 𝕏 @emollick (Ethan Mollick), no es técnica sino conceptual: los flujos multiagente en organizaciones fallan y funcionan de formas que todavía carecen de vocabulario propio, lo que dificulta tanto el diagnóstico como la gobernanza. Su propuesta es que la teoría de gestión de organizaciones, con conceptos como objetos de frontera o tramos de control, puede ofrecer más que la jerga de ingeniería de software.
𝕏 @rburhum (Ragi Yaser Burhum) señala que OpenAI y Anthropic están invirtiendo activamente en nuevas consultoras de implantación de IA, lo que sugiere que ninguna de las dos confía en que el mercado adopte sus herramientas de forma autónoma: están construyendo el canal de distribución ellas mismas.
Jack Clark estima 60% de probabilidad de automejora IA en 2028
Jack Clark, cofundador de Anthropic, ha publicado una estimación personal: 60% de probabilidad de que la mejora recursiva ocurra antes de finales de 2028. La mejora recursiva es el escenario en que un sistema de IA modifica y optimiza su propio proceso de desarrollo sin supervisión humana directa, generando ciclos que se autoalimentan. Su estimación anterior era del 30% para 2027, lo que convierte esta revisión en un salto considerable. La base empírica que cita son curvas de progreso sostenido en múltiples benchmarks públicos: desde SWE-Bench, que mide resolución de incidencias reales de software, hasta MLE-Bench, cuyos problemas proceden de competiciones reales de Kaggle. Clark describe el patrón como fractal: la misma tendencia ascendente aparece a cualquier escala de análisis, tanto en indicadores conocidos como en métricas de nicho. Hay un dato que complica la lectura: según algunas estimaciones, MLE-Bench podría estar ya entre el 75% y el 85% de saturación. Si los benchmarks más exigentes se agotan justo cuando el progreso acelera, el campo perdería sus principales instrumentos de medición en el momento en que más falta hacen.
Tras revisar cientos de fuentes públicas, 𝕏 @jackclarkSF (Jack Clark) describe encontrar en todos los indicadores la misma curva ascendente, tanto en benchmarks conocidos como en métricas de nicho. Usa la metáfora del fractal para señalar que el patrón no depende de la escala: es estructural.
Para 𝕏 @emollick (Ethan Mollick), lo más revelador no es la cifra sino el método: que Clark apoye su estimación en fuentes abiertas, pese a tener acceso a información interna de Anthropic, sugiere que los indicadores públicos reflejan con bastante fidelidad lo que ocurre dentro de los laboratorios más avanzados.
Anthropic alcanza 44.000 millones de dólares de ARR
Anthropic ha registrado una tasa de ingresos anualizados (ARR) de 44.000 millones de dólares en mayo de 2026, según Semi Analysis. Eso supone un crecimiento del 389% respecto a los 9.000 millones de finales de 2024, casi cinco veces más en poco más de un año. Tan relevante como el volumen es la mejora de márgenes: la rentabilidad bruta en infraestructura de inferencia ha pasado del 38% a más del 70% en el mismo periodo. El crecimiento, por tanto, no se apoya solo en inyecciones de capital, sino en una operación que gana eficiencia a medida que escala. A esto se suma la formalización de una joint venture de 1.500 millones de dólares con Blackstone, Hellman & Friedman y Goldman Sachs para crear una firma de servicios empresariales nativa de IA. Blackstone y Hellman & Friedman aportarían unos 300 millones cada uno; Goldman Sachs participa como inversor confirmado. Que estas instituciones cofunden una compañía junto a Anthropic, en lugar de limitarse a financiarla, refleja un cambio de postura del capital institucional: la IA ya no se trata como apuesta especulativa, sino como infraestructura de negocio con retorno predecible. Paralelamente, circulan rumores sobre una ronda de financiación de 50.000 millones de dólares que, de cerrarse, situaría a Anthropic entre las empresas privadas mejor valoradas del sector tecnológico global. Esa ronda aún no está confirmada.
𝕏 @WesRoth (Wes Roth) recoge el dato de ARR directamente del informe de Semi Analysis y señala que pasar de 9.000 a 44.000 millones en ese margen de tiempo convierte a Anthropic en uno de los negocios de software con mayor crecimiento registrado.
La voz será la interfaz de la IA por defecto
Dos movimientos en la misma semana apuntan a un mismo territorio: la voz como capa de control entre el usuario y la IA. Google ha desplegado integraciones nativas de Gemini con Amazon Music, Apple Music, Pandora e iHeartRadio. El detalle significativo es que Amazon Music y Apple Music compiten directamente con YouTube Music, propiedad de Google: conectar Gemini a servicios rivales indica que la prioridad es ganar presencia como interfaz universal, no proteger el ecosistema propio. Es una lógica parecida a la que llevó a Android a funcionar en hardware de terceros. OpenAI lleva desde 2024 operando un modo de voz avanzado para ChatGPT con conversación en tiempo real, y hay señales de que ese lanzamiento fue un punto de partida, no un techo. Esto refleja que la interfaz de voz ha dejado de ser una función secundaria para convertirse en el frente principal de diferenciación. Quien controla el punto de entrada auditivo al usuario tiene una ventaja estructural que ningún benchmark de texto puede compensar.
La expectación de 𝕏 @sama (Sam Altman) no apunta a un lanzamiento concreto, sino a una tendencia ya visible: los usuarios están cambiando su forma de relacionarse con la IA antes de que los modelos de voz hayan madurado, lo que sugiere que la curva de adopción no esperará a que el producto sea perfecto.
Lo que 𝕏 @WesRoth (Wes Roth) subraya de las integraciones de Gemini es precisamente la lista de plataformas elegidas: incluir Apple Music y Amazon Music, rivales directos de YouTube Music, revela que Google está dispuesto a sacrificar coherencia de ecosistema con tal de posicionarse como capa de IA universal antes que sus competidores.
Software 3.0: los modelos absorben la capa de apps
Andrej Karpathy, cofundador de OpenAI y ex director de IA en Tesla, presentó en el evento AI Ascent 2026 de Sequoia Capital la tesis que ha llamado 'Software 3.0': a medida que los modelos ganan capacidad multimodal y de razonamiento, absorben funcionalidades que antes requerían productos construidos sobre pipelines discretos. El caso concreto es MenuGen, una aplicación que encadenaba OCR, parseo de platos y generación de imágenes para recrear menús desde fotografías. Ese pipeline de varios pasos es exactamente el tipo de arquitectura que Gemini, el modelo multimodal de Google, puede reemplazar procesando directamente la foto original, sin infraestructura adicional. Las implicaciones para el mercado son directas. Las startups construidas sobre la orquestación de herramientas de IA de propósito específico quedan expuestas cada vez que un modelo fundacional amplía su radio de acción. El valor se desplaza desde quien orquesta hacia quien controla el modelo base, lo que beneficia a los laboratorios grandes y erosiona la propuesta diferencial de cualquier capa intermedia. Lo que modera ese escenario es el ritmo de adopción: dominios con requisitos de precisión, auditoría o integración con sistemas heredados todavía no están al alcance de los modelos generalistas. Cuánto tarda Software 3.0 en llegar a esos entornos es, en la práctica, el margen de supervivencia de quienes construyen sobre la capa de aplicación.
La conclusión de 𝕏 @vitrupo (Vitrupo) a partir de la tesis de Karpathy es directa: cuanto más trabajo asume la red neuronal, menos código, capas y productos intermedios son necesarios. MenuGen no sería un caso aislado, sino un arquetipo de lo que viene.
Para 𝕏 @polydao (Mr. Buzzoni), recuerda una conferencia de Karpathy sobre LLMs como sistemas operativos refuerza la misma tesis: el problema no es técnico sino de modelo mental. La mayoría de usuarios y equipos de producto todavía no han actualizado su forma de concebir qué hace realmente un modelo de lenguaje.
La lectura de 𝕏 @FurkanGozukara (Furkan Gözükara), que declara el código tradicional 'completamente obsoleto', es la versión más maximalista de la tesis. No obstante, el salto desde código a texto no elimina la complejidad, la desplaza.
Humanoides domésticos: leves señales de progreso
1X Technologies, empresa noruega respaldada por OpenAI, ha confirmado que comenzará a enviar su robot humanoide doméstico NEO a los primeros compradores antes de que acabe 2026, respetando el calendario anunciado al abrir preventas hace aproximadamente seis meses. En un sector donde los retrasos son casi una convención, cumplir un compromiso de entrega tiene peso propio: refuerza la credibilidad ante inversores y, sobre todo, ante los primeros usuarios que asumen el riesgo de introducir hardware experimental en su hogar. La semana ha traído más movimientos en el mismo sector. Unitree Robotics ha presentado una plataforma de brazo dual con precio de entrada de 4.290 dólares, una cifra diseñada para reducir la barrera de acceso al mercado profesional y de desarrollo. Meta, por su parte, adquirió Assured Robot Intelligence, startup especializada en modelos de IA para robótica, señal de que las grandes plataformas tecnológicas han dejado de observar el sector desde fuera. NEO compite en el segmento más exigente: el hogar, un entorno no estructurado donde las variables son impredecibles y el margen de error es bajo. Que llegue a manos de usuarios reales este año convierte a 1X en una referencia de ejecución dentro del sector. Los datos que realmente importarán llegarán después: cómo se comporta el robot fuera del laboratorio y qué porcentaje de esos primeros compradores renueva o recomienda.
Para 𝕏 @WesRoth (Wes Roth), el cumplimiento del calendario de preventas por parte de 1X es una señal de madurez operativa relevante en un sector acostumbrado a ver cómo las fechas se desplazan sin consecuencias.
IA y biología: cómo acelerar la ciencia
Dos voces del ámbito científico-tecnológico convergen esta semana en un punto de partida común: la IA puede transformar cómo se produce conocimiento científico. A partir de ahí, el diagnóstico se bifurca. Emma Lundberg, investigadora afiliada a Stanford HAI, trabaja desde la academia con un principio explícito: que los datos científicos sean abiertos y accesibles para toda la comunidad investigadora. No es una postura retórica. En un sector donde empresas tecnológicas y farmacéuticas compiten por retener talento y datos propietarios en biología computacional, defender la ciencia abierta desde una institución con el peso de Stanford tiene consecuencias concretas para quién controla la infraestructura del descubrimiento. Richard Socher, cofundador de you.com y referencia en procesamiento del lenguaje natural, señala un problema distinto: los enfoques actuales operan por capas separadas y esa fragmentación limita su impacto real. Su propuesta es entrenar conjuntamente el sistema completo del proceso de investigación, una arquitectura unificada en lugar de herramientas puntuales. La viabilidad a corto plazo es discutible, pero la tensión que identifica es concreta: usar la IA como copiloto de tareas específicas es muy distinto a usarla como infraestructura de descubrimiento. Qué modelo, abierto o propietario, modular o integrado, produce más ciencia útil en los próximos años es una pregunta que aún no sabemos responder.
La decisión de 𝕏 @StanfordHAI (Stanford Hai) de publicar y respaldar las palabras de Lundberg no es neutral: un instituto con ese peso académico posicionándose a favor de la ciencia abierta, frente a la privatización de datos biológicos, es una toma de postura con implicaciones directas para el debate sobre quién controla la infraestructura del descubrimiento científico.
La tesis de 𝕏 @RichardSocher (Richard Socher) va más allá de una preferencia arquitectónica: al criticar los enfoques fragmentados, argumenta que la mayor parte del trabajo actual de IA aplicada a la ciencia resuelve subproblemas en lugar de modelar cómo funciona realmente la investigación, lo que convierte esas herramientas en asistentes de proceso y no en aceleradores de descubrimiento.
Gracias por leer 1 Minuto de IA. Si te ha gustado esta edición, no te olvides de dar al ♡ y de compartirla por redes sociales o por email con otras personas a las que creas que les pueda interesar.



