Amazon invierte $25B en Anthropic sin poner el dinero
Lo esencial de la IA, cada día, para no quedarte atrás.
¿Qué pasó ayer? En un minuto:
Amazon confirmó una nueva inversión de hasta 25.000 millones de dólares en Anthropic, una de las mayores apuestas corporativas vistas hasta ahora en IA generativa. El movimiento refuerza a AWS como socio estratégico de Claude y deja claro dónde está hoy el verdadero cuello de botella del sector: el acceso garantizado a infraestructura de primer nivel. Para Amazon, además, la estructura del acuerdo es especialmente favorable: a la inyección de fondos se suma el compromiso de Anthropic de multiplicar su gasto en AWS durante la próxima década, blindando demanda para su nube. Solo un frenazo severo del sector pondría realmente en cuestión un pacto diseñado para proteger especialmente bien los intereses de Amazon.
Otras inversiones de Nvidia recientes siguen el mismo patrón. El capital se está concentrando a gran velocidad en un puñado de modelos fundacionales, mientras el resto del ecosistema empieza a orbitar a su alrededor. Las cifras con las que se mueve hoy la IA en Estados Unidos juegan ya en otra liga, muy por encima de la escala que puede movilizar la mayor parte del ecosistema europeo.
En paralelo, OpenAI vuelve a ocupar titulares por la salida de varios perfiles senior, una señal que reabre el debate sobre su cultura interna y su capacidad para retener talento en un mercado ferozmente competitivo. A eso se suman el lanzamiento del modelo chino Kimi 2.6, los rumores sobre Spud, el próximo gran modelo de OpenAI, y la noticia de que la NSA estaría utilizando Mythos, de Anthropic. Estas noticias apuntan en una dirección clara. Los grandes laboratorios no solo están mejorando sus modelos, también están acortando sus ciclos de desarrollo a una velocidad vertiginosa.
Y si tienes más de un minuto…
Amazon invierte 25.000 millones en Anthropic
Amazon amplía su apuesta por Anthropic con 5.000 millones de dólares inmediatos y una vía a otros 20.000 millones atados a hitos comerciales, lo que eleva el compromiso total potencial por encima de los 30.000 millones desde que arrancó la relación en 2023. La contrapartida es igual de llamativa: Anthropic se compromete a gastar más de 100.000 millones en AWS durante la próxima década y recibe a cambio hasta 5 gigavatios de capacidad de cómputo, incluyendo chips Trainium2 disponibles este trimestre y casi 1 gigavatio combinado de Trainium2 y Trainium3 previsto para finales de 2026. Ya hay más de 100.000 clientes corriendo Claude sobre Amazon Bedrock, y el acuerdo contempla expansión de inferencia en Asia y Europa. La estructura del trato importa tanto como las cifras: Anthropic no recibe capital pasivo sino infraestructura a escala que le llevaría años construir sola, mientras Amazon convierte a Claude en el modelo ancla de su nube. Eso plantea una tensión real: cuando tu principal inversor es también tu único proveedor de infraestructura, la independencia en I+D deja de ser un principio y pasa a ser una negociación permanente. A eso se suma la incógnita técnica de si los chips de Amazon pueden sostener entrenamientos de frontera frente a los de Nvidia, algo que el acuerdo da por resuelto pero que el sector todavía no ha validado.
𝕏 @AnthropicAI (Anthropic) presentó el acuerdo poniendo los gigavatios por delante de los dólares, lo que no es un detalle de comunicación sino una declaración sobre dónde ven el verdadero cuello de botella para escalar Claude: no es el capital, es el cómputo.
Kimi 2.6, Spud y Google en modo pánico
Tres movimientos esta semana que, vistos juntos, dibujan bastante bien dónde está la presión ahora mismo. Moonshot AI ha lanzado Kimi 2.6 con razonamiento paralelo avanzado y capacidades de código extendidas, lo que convierte a la empresa china en un competidor más serio de lo que muchos en Occidente siguen reconociendo. En paralelo, The Information reporta que Google DeepMind ha montado un equipo específico, liderado por Sebastian Borgeaud, que dirigió el preentrenamiento de Gemini, para recuperar terreno en código frente a Anthropic, con Sergey Brin en modo fundador presionando para que los ingenieros usen los propios agentes internos. Que Google necesite una unidad de respuesta rápida para perseguir a Claude en una categoría donde hace un año nadie habría apostado por Anthropic dice bastante sobre cómo se ha movido el liderazgo técnico en pocos meses. El tercer hilo es OpenAI: su próximo modelo, con nombre en clave Spud, ya estaría en pruebas A/B dentro de ChatGPT, lo que sugiere que el ciclo de lanzamientos no va a aflojar pese a las salidas recientes de personal. Y mientras todo esto ocurre, la NSA estaría ejecutando el modelo de Anthropic llamado Mythos pese a una lista negra del Pentágono, lo que añade una capa de complejidad política a una carrera que ya de por sí va rápido.
Que 𝕏 @pmddomingos (Pedro Domingos) anote que Google cedió la carrera de agentes de código a otro competidor —sin nombrarlo, pero el contexto es obvio— es más duro de lo que parece: la empresa con más ingenieros de ML del mundo lleva meses mirando cómo otros se llevan el mercado.
El resumen de 𝕏 @WesRoth (Wes Roth) sobre la semana lo dice sin rodeos: Google está en modo alcance, la NSA corre un modelo de Anthropic que el Pentágono tiene en lista negra, y OpenAI ya está probando Spud en producción —tres señales de que el ritmo no lo marca nadie en concreto, lo marca el miedo a quedarse atrás.
Semana fea en OpenAI
Tres salidas de alto nivel en la misma semana no es lo habitual, ni siquiera en una empresa que crece tan rápido como OpenAI. Bill Peebles, cocreador de Sora y responsable del equipo de vídeo generativo; Kevin Weil, que pasó de director de producto a fundar OpenAI for Science; y Srinivas Narayanan, director de tecnología para aplicaciones empresariales con tres años en la casa, se van en cuestión de días. El equipo de OpenAI for Science queda directamente disuelto y sus funciones repartidas. Encima de eso, The Wall Street Journal publica un reportaje sobre las inversiones personales de Sam Altman y los conflictos de interés que generan con la estrategia de la compañía, un problema que ya estuvo en el centro de su destitución temporal en 2023. El patrón importa: OpenAI lleva meses intentando sostener a la vez producto de consumo, negocio empresarial, vídeo generativo e investigación científica, y los tres perfiles que se van tocaban piezas distintas de esa estructura. No es solo una cuestión de organigramas; es conocimiento operativo acumulado que se marcha en un momento en que Anthropic, Google y otros competidores llevan meses acelerando con menos ruido interno visible. Si estas salidas responden a una reorganización planificada, el daño puede ser limitado. Si son síntoma de algo más profundo, se notará en la velocidad de ejecución durante los próximos trimestres.
Para 𝕏 @WesRoth (Wes Roth) (Wes Roth), lo que convierte esto en una señal seria no es ninguna de las tres dimisiones por separado, sino que las tres cayeran en la misma semana: eso no suena a rotación normal en una empresa que va lanzada.
Doomers vs optimistas: el debate que no cierra
El debate sobre los riesgos de la IA lleva meses sin resolverse, pero esta semana ha dado un giro: ya no se discute solo si la IA es peligrosa, sino si quienes predicen catástrofe tienen credibilidad intelectual o intereses económicos detrás. El caso más citado es el de Geoffrey Hinton, premio Nobel y figura central del alarmismo actual, quien hace seis años afirmó que había que dejar de formar radiólogos porque la IA los reemplazaría en pocos años. Los radiólogos siguen trabajando. Ese historial concreto importa porque Hinton es hoy una de las voces más influyentes en el debate sobre riesgo existencial, y sus predicciones anteriores sobre impacto laboral fallaron no por poco sino por completo. Hay además un problema de dinámica: las advertencias apocalípticas sobre tecnología tienden a sonar más convincentes cuanto menos la usa el público en su vida diaria. A medida que millones de personas interactúan con modelos de lenguaje, la brecha entre lo que el modelo hace realmente y lo que se le atribuye se vuelve más difícil de ignorar. Lo que queda sin responder es si ese escepticismo creciente hacia el doomerismo lleva a ignorar riesgos más graduales pero igual de reales: concentración de poder en pocas empresas, dependencia de infraestructura crítica, o sesgos que se amplifican a escala. Esos riesgos no tienen la espectacularidad de un apocalipsis, pero tampoco necesitan una profecía para materializarse.
𝕏 @Dan_Jeffries1 (Daniel Jeffries) usa el caso Hinton como argumento central: el mismo investigador que acertó en el desarrollo técnico de la IA erró por completo al predecir su impacto sobre el mercado laboral, lo que para él debería pesar bastante antes de tomar en serio sus advertencias actuales sobre riesgo existencial.
Lo que más le preocupa a 𝕏 @pmddomingos (Pedro Domingos) no es el debate en sí sino su mecánica: cuanto más contacto directo tiene la gente con la IA, más inverosímiles le parecen los escenarios que plantean los doomers, lo que sugiere que buena parte del alarmismo depende de mantener al público alejado de la tecnología real.
Desde fuera del debate técnico, 𝕏 @DaddyRist (Daddyrist_Wsb) lo resume con más cinismo que análisis: Berkeley lleva desde los sesenta reciclando el mismo esquema de activismo con nueva estética cada década, y el doomerismo de IA sería simplemente la versión actual de ese patrón.
Tim Cook deja Apple; Ternus toma el mando
Tim Cook abandona la dirección ejecutiva de Apple en septiembre tras casi quince años en el cargo, el periodo en el que la compañía pasó de valer unos 300.000 millones de dólares a convertirse en la empresa más valiosa del mundo, con una capitalización que ha superado los tres billones. Su sucesor, John Ternus, lleva toda su carrera dentro de Apple y ha sido la cara pública de los productos de hardware más importantes de la última década. Cook se queda como presidente ejecutivo, un rol que le da asiento en el consejo y voz en la estrategia, pero sin el control operativo. El cambio de perfil entre ambos es real: Cook era ante todo un hombre de cadena de suministro y márgenes; Ternus viene del producto. Eso importa ahora mismo porque Apple lleva varios trimestres intentando convencer al mercado de que su apuesta por la inteligencia artificial es seria, con resultados desiguales frente a lo que Google y Microsoft han mostrado públicamente. La pregunta concreta es si Ternus, con su historial en hardware, tiene el peso y la visión para tomar decisiones estructurales sobre software e IA, o si esa agenda la seguirá marcando alguien más desde la sombra.
𝕏 @sama (Sam Altman) escribió la despedida más corta y más cargada del día: llamar a Cook una leyenda y agradecer lo que ha hecho por Apple, sin más. Pocas palabras, pero viniendo del CEO de OpenAI dicen bastante sobre el peso que tiene este relevo más allá del mundo Apple.
Theker entra en almacenes de Paack
Los robots de Theker ya están clasificando, recogiendo y manipulando paquetes de comercio electrónico en el centro logístico que Paack tiene en San Fernando de Henares, y no como piloto controlado sino en producción real. El acuerdo contempla más unidades en Madrid y una posible extensión a Barcelona, lo que convierte esto en el primer despliegue a escala de un sistema autónomo con inteligencia artificial en logística de última milla en España. El problema técnico que Theker dice haber resuelto no es menor: en un almacén de última milla los paquetes llegan con formas, pesos, texturas y orientaciones completamente distintas, y la mayoría de sistemas de automatización exigen estandarizar el producto antes de tocarlo, lo que en la práctica los hace inútiles para este tipo de operación. Si Theker ha conseguido que sus robots gestionen esa variabilidad sin intervención humana constante, eso tiene valor real para cualquier operador de última milla que trabaje con volúmenes altos y márgenes ajustados. Para Paack, que compite en un segmento donde el coste por entrega lo decide todo, automatizar la fase de clasificación puede marcar la diferencia entre escalar o no. Lo que todavía no está sobre la mesa son los datos que importan: tasa de error, velocidad de procesamiento y qué pasa con el rendimiento cuando el volumen se dispara en picos como el Black Friday.
𝕏 @Aquilino (Aquilino Peña) (Aquilino Peña) lo celebra desde el ángulo del inversor que ve tecnología funcionando de verdad: dos compañías de su cartera en Kibo Ventures con robots ya operativos en San Fernando, no una demo en un stand.
Los transformers no son el destino final de la IA
Sanja Fidler, vicepresidenta de investigación en IA de NVIDIA y responsable del Spatial Intelligence Lab de la compañía, ha dicho en una entrevista a The Turing Post lo que muchos en el sector piensan pero evitan decir: los transformers son una herramienta potente, no la arquitectura definitiva. El argumento de fondo es que la IA necesita un salto cualitativo, no solo más parámetros o más datos. Llevamos varios años en los que escalar transformers ha producido mejoras reales y medibles, pero hay señales de que esa curva se aplana: los modelos actuales siguen fallando en razonamiento espacial, integración de información a largo plazo y generalización fuera de distribución, y ninguna de esas limitaciones se resuelve añadiendo más cómputo. Que esta señal venga de alguien dentro de NVIDIA —una empresa con intereses directos en que se sigan comprando GPUs para entrenar modelos cada vez más grandes— le da un peso particular. La pregunta que queda abierta es en qué dirección vendría el siguiente avance: arquitecturas híbridas, modelos de mundo más explícitos, algo inspirado en neurociencia computacional, o algo que todavía no tiene nombre.
La entrevista con Fidler que publicó 𝕏 @TheTuringPost (Ksenia_Turingpost) no se queda en el titular: la conversación completa entra en por qué la inteligencia espacial es uno de los frentes donde los transformers muestran sus costuras con más claridad, y por qué NVIDIA está apostando por esa línea de investigación desde dentro.
La lectura de 𝕏 @fchollet (François Chollet) incomoda a los que creen que más cómputo lo resuelve todo: los límites biológicos de la memoria de trabajo y la profundidad de cálculo humanos no son un defecto, sino la presión evolutiva que forzó a desarrollar abstracción e intuición —algo que un modelo con recursos ilimitados nunca habría necesitado construir.
Webinar sobre LLMs y producto
El Instituto de Inteligencia Artificial organiza un webinar el 22 de abril a las 13:00 CET en Zoom donde Juan Antonio Casado, antiguo alumno del Máster IIA, explicará cómo los modelos de lenguaje grandes han reducido la fricción técnica para construir productos. El caso concreto que usará como hilo conductor es Popcasting, descrito como un proyecto que pasó de idea aparcada a producto escalable en poco tiempo. El fondo del asunto es real: hace dos años, montar ciertos productos requería equipos de ingeniería considerables, ciclos de desarrollo largos y presupuestos que la mayoría de fundadores no tenían. Hoy, una parte significativa de esa complejidad se puede externalizar a un modelo. Eso no significa que construir sobre LLMs sea trivial, pero sí que el cuello de botella ha cambiado de sitio: ya no está tanto en si puedes construirlo técnicamente, sino en si encuentras un caso de uso que aguante cuando pase el entusiasmo inicial y en cómo gestionas costes, latencia y fiabilidad en producción. La sesión apunta a fundadores y equipos de producto que tienen ideas en el cajón, y su valor real dependerá de si Casado entra en esa parte incómoda o se queda en la narrativa de velocidad e inspiración.
𝕏 @iia_es (Instituto De Inteligencia Artificial) (Instituto de Inteligencia Artificial) resume la propuesta con una frase que cualquiera que haya intentado montar algo en los últimos dos años reconocerá de inmediato: la tecnología ya no es el freno, y el atasco se ha desplazado a decidir bien qué construir y con qué criterio.
Gracias por leer 1 Minuto de IA. Si te ha gustado esta edición, no te olvides de dar al ♡ y de compartirla por redes sociales o por email con otras personas a las que creas que les pueda interesar.


