Anthropic alquila un centro de datos a SpaceX para dar servicio a sus clientes
Anthropic y SpaceX compiten directamente en el campo de modelos frontera con Claude y Grok respectivamente
¿Qué pasó ayer? En un minuto:
Anthropic se consolida como la empresa del año en IA: su ARR creció de $9B a finales de 2025 a $44B en tan solo 4 meses, la demanda de Claude se acelera y el problema ya no es encontrar clientes, sino tener suficiente capacidad para servirlos. El alquiler en exclusiva de Colossus 1, el superclúster de SpaceX en Memphis, confirma que su cuello de botella es la capacidad de cómputo disponible. Que ese acuerdo permita duplicar límites de uso en Claude Code de manera inmediata muestra una señal clara: más infraestructura significa más producto.
La segunda lectura es incómoda para Elon Musk. Colossus nació para que xAI compitiera contra OpenAI con Grok, un modelo que sigue claramente por detrás de sus competidores en prestaciones y uso. Mientrastanto, Claude sigue acaparando infraestructura crítica tras haber llegado previamente a acuerdos con Amazon, Google, Microsoft y NVIDIA.
Otra noticia relevante viene de DeepMind. Demis Hassabis vuelve a apostar por los juegos como laboratorio hacia la AGI, esta vez con EVE Online: un entorno persistente, social y estratégico donde podrá probar agentes con memoria, planificación y aprendizaje continuo, limitaciones del paradigma actual de agentes.
Y si tienes más de un minuto…
Antes de continuar: si te gusta este contenido no te olvides de dar al ♡ y de compartirlo por redes sociales. Gracias por leer “1 Minuto de IA”.
Anthropic alquila Colossus 1 a SpaceX
Anthropic ha cerrado un acuerdo con SpaceX para arrendar en exclusiva el superclúster Colossus 1, en Memphis, con acceso a más de 220.000 GPU de NVIDIA y una capacidad que supera los 300 megavatios. El efecto en producto es inmediato: los límites de uso por hora de Claude Code se han duplicado en los planes Pro y Max. Lo que hace notable la operación no es solo la escala, sino la velocidad: incorporar ese volumen de cómputo en una jornada refleja hasta qué punto la infraestructura se ha convertido en variable competitiva de primer orden. El acuerdo tiene además una capa difícil de ignorar: Colossus 1 pertenece al ecosistema de xAI, que desde su integración operativa en SpaceX compite directamente con Anthropic en modelos de lenguaje. Que ambas partes hayan encontrado razones para colaborar revela la presión que la escasez de cómputo ejerce sobre todo el sector, por encima de rivalidades de mercado. Más allá del acuerdo terrestre, las dos compañías han expresado interés en desarrollar capacidad de cómputo orbital de varios gigavatios, una ambición que, de concretarse algún día, alteraría la arquitectura de la computación de IA a una escala sin precedentes.
Para 𝕏 @DotCSV (Carlos Santana), lo más revelador no es el tamaño del acuerdo sino su lógica: que xAI opere ahora bajo SpaceX y aun así ambas partes encuentren beneficios complementarios suficientes para cerrar el trato dice mucho sobre hasta dónde llega la escasez de infraestructura en el sector.
La tesis de 𝕏 @levie (Aaron Levie) va más allá de este acuerdo: SpaceX, con cohetes, satélites Starlink y fabricación integrada verticalmente, tiene exactamente los activos que requiere la computación de IA a escala, algo que ningún proveedor de nube tradicional puede replicar desde cero.
𝕏 @emollick (Ethan Mollick), que raramente comenta movimientos corporativos, hace una excepción para señalar que el acuerdo cuestiona directamente la capacidad de Grok para mantenerse entre los modelos de frontera: el cómputo que ahora alimenta a Claude procede del ecosistema de su rival directo.
𝕏 @WesRoth (Wes Roth) apunta a la traducción más inmediata para los usuarios: duplicar los límites de Claude Code en los planes de pago es la señal más directa de que más infraestructura se convierte, casi de forma automática, en más producto disponible.
DeepMind usará EVE Online para impulsar la investigación de agentes de IA
Google DeepMind ha anunciado una colaboración de investigación con Fenris Creations, la empresa detrás de EVE Online, el popular juego online multijugador. El acuerdo convierte el universo de EVE en un entorno de pruebas para tres capacidades concretas: memoria, aprendizaje continuo y planificación a largo plazo, que son precisamente las áreas donde los agentes de IA actuales muestran más limitaciones en escenarios reales. La elección no es arbitraria. EVE lleva más de dos décadas generando una economía emergente, conflictos diplomáticos entre jugadores y decisiones estratégicas con horizontes de semanas o meses: una complejidad sistémica que tableros clásicos como Go o StarCraft II no pueden replicar. DeepMind construyó buena parte de su reputación sobre esos entornos, con AlphaGo y AlphaStar como hitos reconocibles, pero ambos son juegos de suma cero con reglas fijas. EVE es otra categoría: mundo abierto, información incompleta y consecuencias persistentes. La investigación se desarrollará en un entorno aislado del juego en producción.
Para 𝕏 @GoogleDeepMind (Google Deepmind), el atractivo de EVE es técnico antes que comercial: el universo dirigido por jugadores ofrece un entorno seguro y aislado donde probar agentes en condiciones que ningún benchmark estándar puede simular.
𝕏 @demishassabis (Demis Hassabis) enmarca el anuncio en la historia propia de DeepMind: los videojuegos no son un escaparate para la empresa, sino el laboratorio donde se ha construido su programa de investigación desde el principio.
𝕏 @testingcatalog (Testingcatalog News) apunta a que la investigación transcurrirá dentro de un entorno aislado de EVE Online, separado del juego en producción.
OpenAI publica MRC, protocolo de red abierto para clústeres de IA a gran escala
OpenAI ha publicado Multipath Reliable Connection (MRC), un protocolo de red de código abierto para clústeres de entrenamiento de IA a gran escala, desarrollado junto a AMD, Broadcom, Intel, Microsoft y NVIDIA. Ya está en producción en dos infraestructuras concretas: la instalación con Oracle Cloud Infrastructure en Abilene, Texas, y los superordenadores Fairwater de Microsoft. El problema de partida es directo: cuando un clúster opera con decenas o cientos de miles de aceleradores en paralelo, los protocolos convencionales generan cuellos de botella que se traducen en tiempo de GPU desperdiciado y, por tanto, en coste real. MRC lo aborda distribuyendo el tráfico entre múltiples rutas simultáneas para mejorar fiabilidad y rendimiento entre nodos. La decisión de publicarlo como estándar abierto es la que tiene mayor peso estratégico. OpenAI no solo optimiza su propia infraestructura, sino que busca que el sector adopte su protocolo, con un precedente claro: lo que Meta hizo con PyTorch en la capa de software. Si MRC se consolida como referencia, OpenAI gana influencia en la capa de red, históricamente controlada por fabricantes de hardware.
𝕏 @gdb (Greg Brockman) presentó el lanzamiento subrayando que MRC ya corre en producción en los clústeres de entrenamiento más grandes de OpenAI, no como experimento piloto, sino como infraestructura activa.
𝕏 @NVIDIADC (Nvidia Data Center) confirmó que Spectrum-X Ethernet, su tejido Ethernet nativo para IA, ya soporta MRC, lo que convierte a NVIDIA en el primer gran fabricante de hardware de red en respaldar el protocolo con integración real.
𝕏 @intel (Intel) enmarca MRC dentro de la agenda del Open Compute Project y destaca que el protocolo permite construir tejidos Ethernet de múltiples planos que escalan a magnitudes masivas, una arquitectura que encaja directamente con sus propias soluciones de red.
Anthropic amplía las capacidades agénticas de Claude
Anthropic ha actualizado Claude Managed Agents con tres novedades relevantes. La primera es la orquestación multi-agente: un agente principal puede delegar tareas a sub-agentes especializados, cada uno con su propia ventana de contexto aislada, coordinándose a través de un recurso compartido. La segunda es la función outcomes permite definir qué significa “bien hecho” mediante una rúbrica. Un agente evaluador separado revisa el resultado en su propio contexto y devuelve feedback para que el sistema itere sin intervención humana constante. Anthropic afirma que este enfoque mejoró el éxito de tareas hasta 10 puntos frente a un bucle de prompting estándar. Y también anunció 'Dreaming', aún en vista previa, una funcionalidad que permite a los agentes revisar sesiones anteriores durante periodos de inactividad para extraer aprendizajes y consolidar contexto sin intervención humana. Anthropic está empaquetando en infraestructura gestionada tres piezas que hasta ahora muchas empresas intentaban construir internamente: división del trabajo, control de calidad y mejora continua.
Karpathy: los agentes no sustituyen la comprensión humana
En el evento AI Ascent 2026, Andrej Karpathy, cofundador de OpenAI y ex director de IA en Tesla, formuló una distinción que se está volviendo central en los debates sobre automatización: los agentes pueden procesar información, construir bases de conocimiento y generar nuevas síntesis, pero no pueden saber por qué ese trabajo importa, qué dirección debe tomar ni cuándo el resultado es erróneo. El riesgo que señala no es solo técnico. Si los equipos que supervisan sistemas agénticos dejan de entender lo que están construyendo, pierden la capacidad de corregirlos y orientarlos. La automatización no elimina el criterio humano; lo desplaza hacia un nivel más estratégico, donde los errores son más costosos porque ocurren más arriba en la cadena de decisiones. La metáfora que Karpathy usa para fijar esta idea, construir trajes de Iron Man en lugar de robots Iron Man autónomos, sitúa al operador como quien lleva el control, no como quien lo delega. Para organizaciones que están desplegando agentes en producción, eso obliga a una auditoría concreta: cuánto del juicio operativo real ha quedado ya fuera del circuito de supervisión humana.
La síntesis de 𝕏 @vitrupo (Vitrupo) condensa la tesis con precisión: los agentes pueden procesar y generar, pero el humano sigue siendo quien sabe qué se está construyendo y por qué, una distinción que no se puede ignorar en el despliegue de agentes.
Desde una perspectiva más operativa, 𝕏 @rohit4verse (Rohit) observa que los equipos que siguen programando y dirigiendo activamente a sus agentes son los que entregan producto, mientras que los que cedieron el control se han estancado, lo que convierte la tesis de Karpathy en un diagnóstico observable, no solo teórico.
El riesgo de ser intermediario entre pymes y modelos frontera
Cerca del 90% de los proyectos de startups de IA que llegan a inversores siguen el mismo esquema: una capa que simplifica el acceso de pymes a los grandes modelos de OpenAI, Anthropic o Google. El problema es que los propios laboratorios tienen todos los incentivos para ir directos al cliente final, y ya lo hacen: ChatGPT Enterprise, Claude for Teams y Gemini for Workspace compiten con exactamente lo que muchas de esas startups venden. El horizonte de 12 a 24 meses que manejan algunos inversores coincide con el ritmo al que los labs lanzan interfaces nativas, reducen fricción y mejoran sus APIs para usuarios no técnicos. Una startup cuyo único valor es envolver una API no tiene datos propietarios, ni efectos de red, ni costes de cambio reales para el cliente. Hay además un segundo problema, distinto al de la desintermediación. Las empresas que sobrevivan y desplieguen agentes de IA corren el riesgo de converger a la misma solución: si dos competidores usan el mismo modelo para tomar las mismas decisiones, los resultados se parecen. La ventaja competitiva no vendrá del modelo elegido, sino de cómo se diseñen los flujos de trabajo: qué decisiones se reservan a personas, cuándo y con qué criterio. Ese diseño es bastante más difícil de replicar que una integración de API, pero también exige una madurez operativa que la mayoría de fundadores todavía no tiene.
La advertencia de 𝕏 @antor (Andrés Miguel Torrubia Sáez) es directa: cualquier startup que se posicione como capa intermedia entre pymes y los labs frontier tiene que responder, antes que nadie, por qué no será eliminada en 12 o 24 meses. Una pregunta que la mayoría de fundadores no está contestando con el rigor necesario.
Para 𝕏 @emollick (Ethan Mollick), automatizar flujos enteros probará ser un moat menos sostenible que rediseñarlos para incluir a personas en los momentos clave, donde IA y humanos se complementan.
IA e investigación científica
Dos trabajos presentados en la conferencia AI+Science de Stanford HAI muestran frentes distintos de la misma tendencia: la IA está empezando a operar dentro del método científico, no solo a su alrededor. Por un lado, Evo 2 es un modelo generativo entrenado con datos genéticos de todas las especies vivas conocidas y algunas extintas. Puede predecir la forma y función de proteínas a partir del ADN de cualquier dominio de la vida y producir secuencias genéticas nuevas. Experimentos que antes llevaban años de laboratorio se ejecutan ahora en horas. El código es abierto, lo que pone la herramienta al alcance de centros con menos recursos. El segundo trabajo, sobre revisión científica por pares, llega con conclusiones más matizadas: los modelos de lenguaje detectan inconsistencias técnicas y vacíos metodológicos con eficacia, pero fallan cuando el juicio exige valorar relevancia o impacto. Ambos casos señalan el mismo patrón: la IA elimina cuellos de botella concretos, el tiempo de laboratorio en un caso, la sobrecarga de revisores en el otro, sin sustituir al científico.
Para 𝕏 @StanfordHAI (Stanford Hai), Evo 2 no es solo una herramienta de investigación básica: su cobertura sobre la totalidad de especies conocidas lo sitúa como un recurso directo para el diseño de fármacos y la ingeniería de proteínas.
Gracias por leer 1 Minuto de IA. Si te ha gustado esta edición, no te olvides de dar al ♡ y de compartirla por redes sociales o por email con otras personas a las que creas que les pueda interesar.



