¿Adiós al hype de la IA?
Análisis de noticias de Inteligencia Artificial que importan a los negocios
La irrupción de ChatGPT el 30 de noviembre de 2022, seguida por su evolución a GPT-4 en marzo del año siguiente, cambió por completo la imagen pública de la Inteligencia Artificial. Desde entonces hemos experimentado un intenso ciclo de hype mediático, impulsado especialmente por los predicadores de la AGI (Artificial General Intelligence), quienes anuncian su llegada como algo inminente. El concepto de AGI es ambiguo y difícil de precisar, lo que lleva a que cada persona lo interprete y lo utilice según sus propios intereses. En el ámbito empresarial, ChatGPT también generó una conmoción entre muchos directivos que llegaron a imaginar una rápida sustitución de sus plantillas de empleados por programas inteligentes.
La realidad, no obstante, es que hoy nadie sabe con certeza si los modelos actuales de lenguaje bastarán para alcanzar la supuesta AGI en los próximos años, o si todavía falta algún otro elemento clave por descubrir. Además, la adopción práctica de estas tecnologías en las empresas avanza más lentamente de lo anticipado, debido a desafíos técnicos y operativos que no siempre son evidentes inicialmente y que requieren tiempo y esfuerzo para ser superados.
Así pues, esta euforia, que ha durado más de dos años, comienza ahora a disiparse gradualmente. Aunque OpenAI continúa anunciando novedades con regularidad, ya no consigue sostener el mismo nivel de expectación con cada avance. Este ciclo de entusiasmo, seguido de desilusión, es recurrente en el mundo tecnológico y está causado por el funcionamiento de las emociones humanas: primero surge una ilusión exagerada (sobreestimación del potencial), seguida de expectativas frustradas (subestimación del potencial) y, finalmente, llega una etapa larga de madurez y consolidación. Por eso, lo fundamental para las empresas es no dejarse llevar por este ciclo y prepararse adecuadamente para esta última fase, donde la IA estará presente en todos sus procesos.
🚀 Lanzamiento inminente: 9ª Edición del Máster Ejecutivo en IA🚀
Inscríbete hoy en nuestra lista preferente para tener acceso anticipado a primeros contenidos y novedades. Más info: admisiones@iia.es. Inicio: octubre 2025
No hablamos aquí de robots humanoides, que todavía están en fase embrionaria, pese a que algunos se empeñan en mantener a la IA en los titulares con esta idea. Lo realmente importante hoy son aquellas capacidades cognitivas que ya pueden automatizarse mediante IA, incluso si no son perfectas o equiparables completamente al nivel humano.
Capacidades como predecir, ver, crear, escuchar, entender, hablar y razonar ya están al alcance de las máquinas.
Las empresas que por medio de agentes inteligentes integren estas capacidades de manera temprana y eficaz obtendrán una importante ventaja competitiva.
Además, esta nueva etapa traerá un profundo cambio en nuestra relación con la tecnología: el lenguaje natural se convertirá en el estándar principal para comunicarnos con las máquinas. Para bien o para mal, la IA ya habla y lo hará cada vez mejor. Ha llegado el momento de despedir la exageración mediática y centrarnos en lo realmente importante: aplicar la inteligencia artificial para mejorar y facilitar nuestras vidas y nuestros trabajos.
GPT 4.5, el nombre lo dice todo
Aunque parece que GPT-4 lleva con nosotros desde siempre y que ya no podríamos vivir sin él, en realidad han pasado solo dos años desde su lanzamiento. En su momento, este modelo representaba lo más avanzado en inteligencia artificial generativa, lo que colocó a OpenAI en una posición privilegiada y convirtió a Sam Altman en una de las figuras más influyentes del sector. Esta situación duró aproximadamente un año: el tiempo que tardó la competencia en alcanzar ese nivel. Modelos como Claude 3 de Anthropic o Gemini 2.0 de Google han demostrado estar a la altura de GPT-4.
OpenAI intentó mantener su ventaja con el lanzamiento de sus modelos de razonamiento en septiembre de 2024, supuestamente basados en GPT-4, aunque rápidamente quedó claro que estos avances podían ser replicados sin mayor dificultad. Incluso la comunidad de código abierto, con proyectos como DeepSeek, logró demostrar que OpenAI tampoco tenía un monopolio sobre la innovación en modelos de razonamiento. Por eso, el siguiente paso de la compañía era clave. Se esperaba un gran salto con GPT-5, pero finalmente lo que nos ha llegado ha sido GPT-4.5, un modelo cuyo nombre deja claro que la mejora ha sido mucho menor de lo deseado. No obstante, GPT-4.5 se mantiene en un sólido segundo lugar en el ranking de Chatbot Arena, muy cerca del líder Grok 3, el modelo más reciente de xAI, y a una distancia considerable con el tercer puesto, que ostenta Gemini 2.0 de Google.
Sam Altman ha explicado que el acceso a GPT-4.5 será más limitado que sus predecesores, debido a que es un modelo más grande y requiere más recursos computacionales. Otra posible interpretación es que OpenAI no puede permitirse ofrecerlo de manera masiva, sin asumir pérdidas. Y esto lleva a una cuestión aún más importante: parece que estamos llegando al límite de las leyes de escalado que hasta ahora parecían funcionar tan bien.
En 2022, DeepMind publicó el famoso paper donde presentaba el modelo Chinchilla, y establecía que las capacidades de un modelo crecían de manera predecible en función de la cantidad de datos utilizados en su entrenamiento (tokens) y del tamaño de su arquitectura (parámetros de la red neuronal). Esta idea llevó a una carrera por entrenar modelos cada vez más grandes y con más datos, ya que indirectamente desvelaba que los modelos de entonces estaban entrenados por debajo de su nivel óptimo. Sin embargo, GPT-4.5 sugiere que las leyes de escalado tienen un límite: simplemente aumentar el tamaño del modelo y los datos ya no garantiza la mejora en sus capacidades tal y como predicen estas leyes.
Ante este panorama, OpenAI ya no puede depender solo de haber sido el primero en la carrera de los modelos fundacionales. Ahora debe buscar nuevas estrategias de crecimiento, motivo por el cual está tratando de dejar atrás el lastre de su pasado como empresa sin ánimo de lucro. En el plano de la investigación, los modelos de razonamiento basados en aprendizaje por refuerzo aparecen como una de las vías más prometedoras para seguir estando en la vanguardia. Y en el plano de negocio, OpenAI está evolucionando de ser solo un proveedor de modelos a desarrollar productos completos basados en su tecnología. Esto significa que deberá competir directamente con el ecosistema de startups que, en parte, ayudó a impulsar. Un ejemplo de este cambio es la introducción de Deep Research, una herramienta diseñada para laboratorios y centros de investigación que aprovecha de manera dirigida el potencial de sus propios modelos.
¡Ábrete, sésamo!
Si hay algo que ha limitado el uso de la tecnología a lo largo del tiempo es la manera en que nos comunicamos con las máquinas. A esto se le llama interfaz de usuario. Desde los primeros días de la informática, estas interfaces han evolucionado mucho: pasamos de las tarjetas perforadas a las líneas de comando y, más tarde, a los entornos gráficos como Windows, que hoy en día usamos de forma habitual.
Cada uno de estos avances en interfaz de usuario ha hecho que la tecnología sea más accesible, aunque siempre ha requerido cierto aprendizaje, lo que no siempre es fácil o intuitivo para todos.
Ahora, gracias a la Inteligencia Artificial, estamos al borde de una nueva revolución en la forma en que interactuamos con las máquinas. La clave está en el uso de la voz y el lenguaje natural. Por primera vez, serán las máquinas las que se adapten a nuestra manera de comunicarnos, y no al revés. Un ejemplo de hacia dónde va este futuro lo ofrece la reciente demo que ha lanzado Sesame AI, una startup americana que está impulsando este cambio de paradigma. A diferencia de ChatGPT, cuyo propósito es proporcionar respuestas útiles, este asistente se centra en mantener conversaciones fluidas e interesantes, capaces de entretenernos durante mucho más tiempo.
Para lograrlo, ajusta su entonación, usa pausas naturales y varía su manera de hablar para transmitir emociones y empatía. Además, recuerda interacciones anteriores, lo que hace que la conversación sea mucho más natural. Aunque entiende varios idiomas, por ahora solo responde en inglés. La mejor prueba de que este asistente es especial y novedoso es que, al hablar con él, instintivamente activamos los mismos mecanismos sociales que usamos en nuestras interacciones diarias con otras personas. Y lo mejor de todo: es un interlocutor con un conocimiento amplísimo, capaz de conversar sobre casi cualquier tema de manera incansable.
Como ocurre con todo cambio de paradigma, la transición no será inmediata. Aún pasará un tiempo hasta que podamos simplemente hablarle a nuestra casa para pedirle la lista de la compra, poner una música que nos anime, solicitarle una receta con los ingredientes que tenemos disponibles, o simplemente saber qué plantas deberíamos regar hoy. Aunque estas tecnologías ya estén presentes en móviles y ordenadores, será necesario un periodo de adaptación para que todo el software se ajuste plenamente a esta nueva realidad. Mientras tanto, el coste seguirá disminuyendo gradualmente, como suele suceder con las tecnologías digitales que por naturaleza son deflacionarias. Hasta que finalmente comunicarnos mediante lenguaje natural con cualquier máquina se convierta en algo habitual.
Gracias por leer Explicable. Si te ha gustado esta edición, no te olvides de dar al ♡ y de compartirla por redes sociales o por email con otras personas a las que creas que también les pueda gustar.