Magnific lanzada hacia la élite mundial de la IA
Freepik ahora es Magnific para enfocarse en IA audiovisual
¿Qué pasó ayer? En un minuto:
La noticia más importante es que Freepik deja de ser Freepik y pasa a llamarse Magnific. No es solo un cambio de marca. Es la señal de que una empresa española, nacida en Málaga como plataforma de recursos gráficos, quiere competir de lleno en el mercado global de la creación audiovisual con IA frente a gigantes como Adobe.
Cuando apareció la primera versión de DALL·E en 2021, todavía no era evidente que la IA generativa alcanzaría el nivel de calidad, consistencia y control que vemos hoy. Joaquín Cuenca, CEO de Magnific, entendió antes que muchos que esa tecnología podía amenazar directamente el negocio tradicional de Freepik. En lugar de proteger el modelo anterior, impulsó una reinvención profunda de la compañía. En ese proceso compró Magnific AI, otro proyecto nacido del emprendimiento español, apostó con fuerza por la IA y ahora adopta esa marca para todo el grupo.
El movimiento convierte a Joaquín Cuenca en un caso de estudio sobre cómo liderar una empresa cuando la IA ataca directamente su modelo de negocio. Magnific es un orgullo nacional porque representa lo que muchas compañías no consiguen hacer ante una disrupción tecnológica: detectar la amenaza, reaccionar a tiempo y salir a conquistar el nuevo mercado.
Y si tienes más de un minuto…
Freepik se rebautiza como Magnific
Freepik, la plataforma española de recursos gráficos fundada en 2010, ha pasado a llamarse Magnific. No es un cambio cosmético: la empresa adopta el nombre de una de sus herramientas de IA generativa y señala con ello un reposicionamiento completo, desde directorio de assets hacia plataforma de creación asistida por inteligencia artificial. La nueva identidad cubre dominio, colores y web. Los usuarios de magnific.ai conservan cuentas, suscripciones y tokens intactos, mientras la plataforma principal en magnific.com agrupa herramientas adicionales: transferencia de estilo, relighting y generación de vídeo. Magnific AI fue la adquisición que marcó el cambio de rumbo de Freepik, y es un nombre con suficiente tracción como para eclipsar al nombre original. Además el término «Freepik» arrastraba una connotación de gratuidad difícil de reconciliar con un modelo de suscripción de IA. La empresa entra ahora en competencia directa con Adobe, Midjourney y otras plataformas de generación visual en un mercado que se mueve deprisa. El reto más concreto es la conversión: la base histórica de Freepik buscaba recursos estáticos sin coste, y el nuevo producto exige un cambio de hábito y de disposición a pagar.
El fundador de la compañía, 𝕏 @cuenca (Joaquín Cuenca Abela), describió el anuncio como el mayor en la historia de Freepik y lo resumió en una frase: «lo que hemos construido ha superado ese nombre».
𝕏 @javilopen (Javi Lopez), cofundador de Magnific AI, contó que la herramienta creció sin financiación externa antes de la adquisición, y el nombre es tan potente que Freepik decidió adoptar su marca para toda la compañía.
𝕏 @victorfatanmi (Victor Fatanmi) apunta al problema estructural del nombre anterior: Freepik era utilitario, construido sobre la promesa de lo gratuito y lo accesible, con poco margen para crecer como marca; Magnific no tiene ese techo.
𝕏 @DotCSV (Carlos Santana) subrayó que el cambio abarca identidad visual, colores y web al completo, no una actualización parcial, lo que confirma que la empresa apuesta por una ruptura nítida con su imagen anterior.
NVIDIA lanza Nemotron 3 Nano Omni, modelo multimodal abierto para agentes
NVIDIA ha lanzado Nemotron 3 Nano Omni, un modelo de código abierto con 30B de parámetros y arquitectura híbrida Transformer-Mamba con Mixture-of-Experts (MoE). Solo activa 3B de parámetros por inferencia, lo que reduce el coste computacional sin sacrificar capacidad nominal. La ventana de contexto llega a los 256K tokens, una de las más amplias entre modelos abiertos de ese tamaño. A diferencia del enfoque habitual, que encadena modelos especializados separados para texto, imagen, audio y vídeo, Nemotron 3 Nano Omni integra las cuatro modalidades en un único sistema. Esa multimodalidad tiene ventajas en entornos agénticos por presentar menos latencia y por mantener el contexto entre llamadas. El modelo estuvo disponible desde el primer día en OpenRouter, Fireworks, DeepInfra, Vultr, Baseten y LM Studio, una distribución simultánea que no es habitual en lanzamientos de este tipo. NVIDIA se sitúa así en el espacio de modelos fundacionales abiertos junto a Meta, Google y Mistral, pero con un argumento distinto: infraestructura de inferencia multimodal lista para agentes. Los benchmarks de lanzamiento muestran un rendimiento prometedor, aunque no validan si el modelo mantiene coherencia multimodal real en tareas encadenadas complejas, que es precisamente donde los sistemas de agentes empresariales suelen romperse.
Para 𝕏 @WesRoth (Wes Roth), el valor del modelo no está en sus cifras sino en el problema que ataca: los agentes actuales sufren latencia alta y contexto fragmentado por depender de varios modelos encadenados, y Nemotron 3 Nano Omni trata de resolver eso con un único sistema.
𝕏 @gmi_cloud (Gmi Cloud) lo probó sobre imágenes de drones y el modelo devolvió JSON estructurado con tipo de defecto, severidad y localización fotograma a fotograma, un caso de uso industrial concreto que ilustra dónde puede tener tracción real.
𝕏 @tekwendell (Wendell) ya lo ejecuta localmente en un PC convencional para orquestar scripts de pruebas wifi7 y visualizar resultados, lo que sugiere que el modelo corre con recursos razonables fuera de infraestructura de nube.
Claude se integra en herramientas creativas profesionales
Anthropic ha lanzado nueve conectores que integran Claude directamente en software de uso estándar en sectores creativos: diseño gráfico y vectorial (Adobe Creative Cloud, Affinity by Canva), modelado 3D (Blender, Autodesk Fusion, SketchUp), producción musical (Ableton Live, Splice) y vídeo en directo (Resolume). El giro estratégico pesa más que la lista. Claude deja de operar únicamente como chat o API para desarrolladores y pasa a funcionar como capa de IA embebida en flujos de trabajo ya consolidados. Hasta ahora, usar Claude dentro de un proyecto de Blender o Ableton exigía salir del entorno, copiar contexto y volver. Los conectores nativos eliminan esa fricción. El movimiento presiona a Adobe, cuya apuesta por Firefly como IA integrada en Creative Cloud lleva ventaja en distribución, y a Canva, que desarrolla su propia IA generativa sobre Affinity. Para Anthropic, cuya penetración fuera del perfil técnico era limitada, estos conectores abren una base de usuarios distinta: diseñadores, arquitectos, ingenieros 3D y productores que no necesitan saber qué es una API para beneficiarse del modelo. Lo que el anuncio no resuelve es si la calidad de la integración está a la altura de las herramientas que rodea. Publicar un conector es sencillo; conseguir que un diseñador lo incorpore a su flujo diario, no.
Para 𝕏 @WesRoth (Wes Roth), el lanzamiento representa un cambio de posicionamiento claro: Claude como infraestructura transversal para industrias creativas, no solo como herramienta para perfiles técnicos.
Desde una lectura más maximalista, 𝕏 @cryptopunk7213 (Ejaaz) subraya que la integración con Blender puede automatizar procesos de modelado 3D que a profesionales de arquitectura o ingeniería les llevan semanas, y que la cobertura de más de cincuenta herramientas de Adobe amplía el alcance real más allá de los nueve conectores titulares.
Las CPUs recuperan peso en infraestructura de IA
Durante 2023 y 2024, los centros de datos volcaron el presupuesto en GPUs y redes de interconexión. Las CPUs quedaron al margen: la demanda parecía plana pese al crecimiento masivo de infraestructura. Ese diagnóstico ha cambiado. SemiAnalysis publica un análisis del panorama de CPUs para centros de datos en 2026 y sostiene que la recuperación es estructural, no coyuntural. El motor son dos patrones de uso emergentes: el aprendizaje por refuerzo y los agentes de IA, que generan cargas de cómputo y gestión de memoria que las GPUs no cubren de forma eficiente por sí solas. A medida que el despliegue de IA pasa de la fase experimental a la producción a escala, los servidores necesitan más CPUs de host para orquestar cargas, gestionar almacenamiento y ejecutar inferencia ligera. En ese espacio compiten AMD con las generaciones Venice, Verano y Florence; Intel con Diamond Rapids y Coral Rapids, y el ecosistema Arm, representado por el Graviton 5 de AWS y el Axion de Google. Intel afronta una presión doble: rendimiento inferior a AMD en x86 y pérdida de cuota cloud frente a las soluciones Arm propias de los hiperscalers. La CPU está tomando dos funciones distintas en los centros de datos de IA: unas CPUs actúan como “directores de orquesta”, coordinando y alimentando a las GPUs para que trabajen sin pausas; otras se usan para renovar servidores tradicionales y hacerlos más eficientes, liberando energía para las cargas de IA. La IA no ha matado a la CPU, simplemente la ha reposicionado.
𝕏 @SemiAnalysis_ (Semianalysis) identifica el aprendizaje por refuerzo y el auge del vibe coding como los factores que más han disparado la demanda de CPUs en centros de datos durante los últimos seis meses, un dato que no figuraba en ninguna previsión de mercado hace un año.
Para 𝕏 @bert_gilfoyle (Reasonably Approximating), la explicación del repunte es menos sofisticada de lo que parece: la demanda total de cómputo crece más deprisa que las ganancias reales de eficiencia de las CPUs, así que se necesitan más unidades aunque cada una no mejore sustancialmente respecto a la anterior.
OpenAI lleva sus modelos frontier a AWS Bedrock
OpenAI ha integrado sus modelos de razonamiento más avanzados en Amazon Bedrock, el servicio gestionado de IA generativa de AWS. El paso ha sido posible tras una reestructuración del acuerdo de exclusividad con Microsoft: Azure tenía hasta ahora derechos preferentes sobre la distribución comercial de esos modelos, lo que bloqueaba el acceso de otros proveedores. Con el nuevo acuerdo, los clientes empresariales de AWS pueden usar los modelos de OpenAI desde una plataforma gestionada, sin negociar acceso directo con el laboratorio ni gestionar infraestructura propia. Para Bedrock, que ya aloja modelos de Anthropic, Meta, Mistral y Cohere, la incorporación de OpenAI refuerza su posición como hub multiproveedor y lo pone en competencia directa con Azure OpenAI Service en el segmento corporativo. Para OpenAI, el acuerdo abre un canal de distribución hacia una base de clientes que en muchos casos opera sobre AWS de forma prioritaria.
En la entrevista con 𝕏 @alexeheath (Alex Heath), el CEO de AWS Matt Garman fue inusualmente directo: reconoció que la inversión de Microsoft en OpenAI le ha funcionado bien a Redmond, pero aseguró que AWS será un socio mejor para el laboratorio, una afirmación poco habitual en el protocolo de este tipo de anuncios.
IA resuelve problema matemático de Erdős de 60 años
GPT-5.4 Pro contribuyó este mes a cerrar un problema abierto durante seis décadas vinculado a la obra de Paul Erdős, matemático húngaro conocido por formular cientos de conjeturas sin resolver en combinatoria y teoría de números. El resultado no salió de un laboratorio de élite: Liam Price, un estudiante de 23 años sin formación matemática avanzada, usó el modelo como herramienta de trabajo y completó la demostración. Ese detalle reencuadra el anuncio. No se trata de un sistema autónomo que resuelve matemáticas por su cuenta, sino de un asistente que amplifica a alguien que, sin él, no habría tenido acceso a ese nivel de apoyo técnico. El hito tiene peso porque los modelos de lenguaje fallaban de forma predecible en razonamiento matemático riguroso, sobre todo en problemas que exigen encadenar pasos de demostración no triviales. Si esa barrera empieza a ceder, las implicaciones alcanzan a física teórica, criptografía y bioinformática. OpenAI ha aprovechado el momento para estrenar su podcast oficial, donde los investigadores Sébastien Bubeck y Ernest Ryu analizan qué ha cambiado en la capacidad matemática de los modelos. Lo que nadie ha cuantificado todavía es en qué medida el modelo aportó razonamiento propio frente a búsqueda sofisticada de patrones: una distinción que los propios investigadores del laboratorio tendrán que precisar.
𝕏 @OpenAI (Openai) no presenta el resultado como un logro autónomo del modelo, sino como una colaboración entre GPT-5.4 Pro y un investigador humano, un matiz que el laboratorio subraya deliberadamente para situar el avance en el marco de herramienta, no de agente independiente.
Para 𝕏 @WesRoth (Wes Roth), el dato más llamativo no es el modelo sino quién lo usó: que un joven de 23 años sin formación matemática avanzada haya podido cerrar un problema de sesenta años apunta a que el acceso a razonamiento de frontera ya no está reservado a grupos de investigación establecidos.
AGI: debate sobre capacidades actuales y sus límites
El debate sobre si los modelos actuales han cruzado algún umbral relevante ha ganado intensidad esta semana, impulsado por varias declaraciones públicas que apuntan en direcciones distintas. El punto de partida es concreto: el rendimiento de Claude integrado en Excel ha llevado a un analista de referencia del sector a admitir que la distinción entre AGI y «modelo muy capaz» ha perdido utilidad práctica. Lo que añade peso a esa observación es que ese rendimiento se obtiene con la generación de hardware actual, antes de que las arquitecturas Blackwell y Rubin de NVIDIA estén desplegadas. Si los modelos ya se comportan así con los chips de hoy, la pregunta sobre qué ocurrirá con los de mañana no es retórica. En paralelo, Sam Altman afirma que los modelos actuales generan conocimiento científico nuevo de forma autónoma, un umbral conceptual distinto al de cualquier herramienta anterior. Y Dario Amodei habla de la destrucción del 50% del empleo de cuello blanco en uno a cinco años. Sin embargo, los cuellos de botella en infraestructura eléctrica y semiconductores son una variable que los pronósticos más aceleracionistas ignoran con demasiada frecuencia. Y en el fondo de todo esto opera una tensión más difícil de resolver: si un modelo razona aplicando relaciones causa efecto a partir de un modelo del mundo, o bien aplicando patrones de razonamiento similares a los que ha visto durante el entrenamiento a un nivel inabarcable por nuestro cerebro.
La afirmación de 𝕏 @SemiAnalysis_ (Semianalysis) no describe una línea técnica formal cruzada, sino algo más incómodo: que en aplicaciones cotidianas como Excel, la distinción entre AGI y «modelo muy capaz» ha dejado de ser operativa para muchos usuarios.
Donde Amodei ve destrucción masiva de empleo en cinco años, 𝕏 @pmddomingos (Pedro Domingos) introduce la variable que los pronósticos más alarmistas ignoran: la infraestructura eléctrica y los semiconductores disponibles no dan para ese ritmo, y eso no cambia por decreto.
Vibe coding: ¿quién gana y quién pierde?
El vibe coding, desarrollo de software asistido por IA en el que el usuario describe lo que quiere y el modelo genera el código, lleva meses ganando terreno entre desarrolladores y perfiles no técnicos. Esta semana el debate ha subido un peldaño: ya no se discute solo si funciona, sino qué consecuencias tiene para la inversión y el empleo. La tesis más incómoda es que, si cualquiera puede generar software funcional con un prompt, el código deja de ser ventaja competitiva. El valor se desplaza hacia los datos, la distribución y el diseño, lo que presiona directamente a las startups cuyo único diferencial es la calidad de su ingeniería. Hay, con todo, un límite claro a ese argumento: generar código es solo la primera parte del problema. Mantenerlo, integrarlo con otros sistemas y garantizar su seguridad sigue siendo una carga real, y ahí los productos consolidados con años de desarrollo acumulado mantienen una ventaja difícil de replicar con prompts. El tercer frente es el laboral. Algunos analistas no ven destrucción neta de empleo, sino una reorganización hacia equipos más pequeños que trabajan junto a agentes y se concentran en problemas de mayor abstracción, mientras las capas rutinarias quedan automatizadas. Las tres tesis conviven sin resolverse: cuánto software corporativo migrará a desarrollo interno, a qué ritmo y con qué coste real de mantenimiento son variables que el mercado aún no ha medido con datos suficientes.
En su nuevo podcast, 𝕏 @naval (Naval) sostiene que la IA democratiza la creación de software hasta el punto de hacer ‘no invertible’ el software puro, lo que obliga a repensar dónde reside el valor diferencial de una empresa tecnológica.
𝕏 @Dan_Jeffries1 (Daniel Jeffries) descarta el ‘SaaSpocalypse’ con un argumento de coste operativo: ninguna empresa en su sano juicio va a construir y mantener su propio Figma, su propio Intuit o su propio Adobe, y esa carga de mantenimiento es exactamente lo que el vibe coding no resuelve. También anticipa una oleada de nuevos empleos centrados en la coordinación entre agentes y personas, equipos más ágiles y problemas de mayor abstracción conceptual.
Un material amenaza los chips de IA
Hay un material en película fina sin el que no se fabrica ningún procesador avanzado: ni GPUs, ni TPUs, ni ASICs personalizados. Un único proveedor japonés controla el 98% de la producción global. No existen alternativas listas para fabricación industrial, la capacidad está comprometida hasta 2027 y los plazos de entrega ya se están alargando. El sector ha dedicado mucho análisis a las fundiciones, la energía y el diseño de chips, pero un insumo químico de bajo perfil puede resultar igual de determinante. Si ese proveedor sufre una interrupción o no amplía capacidad a tiempo, el impacto no recaería sobre un fabricante concreto: afectaría a toda la oferta de chips avanzados de forma simultánea. La presión sobre costes ya es visible, con subidas de precio en curso. Lo que está por definir es si algún actor industrial, ya sea un chipmaker, un gobierno o un consorcio, iniciará inversiones para diversificar el suministro antes de que 2027 llegue sin margen de maniobra.
Para 𝕏 @SemiAnalysis_ (Semianalysis), el riesgo no está en el diseño del chip ni en la fundición, sino en un material sin alternativa industrial real. Su lectura es que el cuello de botella ya no es potencial: está afectando a precios y tiempos de entrega ahora mismo.
Gracias por leer 1 Minuto de IA. Si te ha gustado esta edición, no te olvides de dar al ♡ y de compartirla por redes sociales o por email con otras personas a las que creas que les pueda interesar.



