Por qué Google domina otra vez
Análisis de noticias de Inteligencia Artificial que importan a los negocios
Contra todo pronóstico, los grandes modelos de lenguaje (LLM, Large Language Model) impulsados por OpenAI, han llevado al campo de la Inteligencia Artificial a cotas inimaginables en un tiempo récord. Resulta especialmente llamativo cómo, a partir de la comprensión parcial del lenguaje humano —nuestra forma natural de describir y actuar sobre el mundo—, estos modelos son capaces de realizar tareas muy diversas con un alto valor económico. Desde la aparición de ChatGPT, la evolución en la capacidad de estos sistemas ha sido muy notable. Si comparáramos los primeros modelos de OpenAI con los actuales, veríamos que incluso los modelos pequeños y gratuitos de hoy superan ampliamente a los que antes nos dejaban boquiabiertos. Problemas que en su momento generaban preocupación, como las llamadas “alucinaciones” o respuestas inventadas, se han reducido de forma muy significativa y, en la mayoría de los casos, pueden detectarse fácilmente. Incluso si la evolución de los LLMs se detuviera hoy, aún nos quedarían años de avances solo aprovechando todo lo que ya pueden automatizar en las empresas.
Llegados a este punto, la gran pregunta es: ¿hasta dónde pueden seguir mejorando los modelos actuales si continúan basándose únicamente en enormes volúmenes de texto? Es decir, ¿queda aún margen para extraer más valor del enfoque actual? Expertos como Yann LeCun señalan que, para alcanzar una inteligencia artificial más cercana a la nuestra, es imprescindible que los sistemas cuenten con un modelo del mundo más robusto y una sólida capacidad de aplicar razonamiento y planificación sobre el mismo. Más que discutir si los LLMs actuales ya poseen un cierto grado de estas capacidades, el foco está en hasta qué punto podemos seguir mejorándolas con el paradigma actual y los datos de los que disponemos.
Por ejemplo, sabemos que cuando se enfrentan a situaciones nuevas o que requieren la aplicación del sentido común o un contexto más amplio, su desempeño es aún deficiente. Mejorar estas capacidades sería un paso clave para que la inteligencia artificial evolucione hasta una autonomía real, donde las máquinas puedan actuar en entornos complejos sin necesidad de una supervisión constante.
Y si eres lector de Explicable, tenemos algo especial para ti: usa el código EXPLICABLE300 y obtén un descuento exclusivo en nuestro Máster Ejecutivo en Inteligencia Artificial
¿Preparado para dar el salto? La 9ª edición te espera.
El Gran Reto de la Autonomía
En su artículo “Bienvenidos a la Era de la Experiencia”, los reconocidos investigadores David Silver y Richard Sutton plantean que estamos entrando en una nueva etapa crucial en el desarrollo de la Inteligencia Artificial: la “Era de la Experiencia”. Hasta ahora, hemos vivido lo que llaman la “Era de los Datos Humanos”, marcada por los impresionantes avances logrados gracias a los enormes conjuntos de datos generados por las personas desde la llegada de Internet. Sin embargo, según los autores, hemos alcanzado un límite: los modelos actuales ya no pueden seguir mejorando solo alimentándose de estos datos. Ha llegado el momento de buscar una nueva fuente de aprendizaje.
Silver y Sutton defienden que los modelos de IA deben comenzar a aprender de forma continua a partir de su propia experiencia. Solo así podrán construir un modelo interno del mundo real o virtual donde actúan, anticipando los resultados de sus acciones antes de ejecutarlas, tal como lo hacemos nosotros desde niños.
Una de las vías más prometedoras para abrir esta nueva etapa es el Aprendizaje por Refuerzo, una técnica donde los modelos no dependen únicamente de bases de datos estáticos, sino que aprenden directamente al interactuar con su entorno. Aunque este enfoque ha atravesado momentos de entusiasmo y desilusión es innegable que ha dado resultados espectaculares en entornos acotados, como los juegos. Ahí están los logros de AlphaGo, que descubrió por sí mismo el famoso movimiento 37 nunca antes hecho por humanos, y más recientemente AlphaProof, que logró una destacada medalla de plata en la Olimpiada Internacional de Matemáticas. Estos hitos dejan claro que el potencial del Aprendizaje por Refuerzo aún está lejos de haberse agotado.
Eso sí, llevar esta técnica al mundo real —mucho más complejo y cambiante— sigue siendo un desafío enorme. La cantidad de posibles acciones y resultados es abrumadora, lo que hace inviable probarlas todas. Además, a diferencia de los entornos simulados, no podemos acelerar el tiempo en el mundo real para aprender más rápido: en el mundo de la tecnología no podemos esperar meses o incluso años antes de lograr avances significativos. Por si fuera poco, definir señales de recompensa claras y útiles para orientar el aprendizaje resulta una tarea nada trivial, ya que depende profundamente del contexto en que se aplique.
A pesar de estas dificultades, el Aprendizaje por Refuerzo sigue siendo, hasta ahora, la única vía conocida para alcanzar una Inteligencia Artificial verdaderamente autónoma, capaz de enfrentarse a situaciones imprevistas sin intervención humana. Solo por eso, dicen Silver y Sutton, vale la pena perseverar en el intento.
Y ahora Google
Tuve la suerte de conocer a Sergey Brin en una cena de startups en Palo Alto, a principios del año 2000. Por aquel entonces, Google ya era el mejor buscador gracias a su revolucionario algoritmo PageRank, que le daba esa ventaja injusta frente a la competencia que es necesaria para ganar un mercado entero. Después de la cena, Brin, que era el invitado estrella, se prestó a responder preguntas. Muchos analistas por entonces dudaban del modelo económico de la compañía, que apenas generaba ingresos. Cuando le preguntaron al respecto, su respuesta fue tajante: “Podemos abrir el grifo de los ingresos cuando queramos; ahora no es el momento.” En octubre de ese mismo año nació Google AdWords y el resto, como dicen, es historia.
Hoy, al igual que entonces, parece haber llegado el momento de Google para liderar otro gran mercado: el de la Inteligencia Artificial. El lanzamiento de Gemini 2.5 Pro ha destrozado prácticamente todos los benchmarks más avanzados como HLE (Humanity’s Last Exam), antes de que apareciera el modelo o3 de OpenAI. Y también encabeza con cierta distancia el ranking del Chatbot Arena, la única medida real de desempeño de un LLM basada en comparaciones ciegas realizadas por humanos.
Es cierto que Google inventó la arquitectura Transformer que está detrás de todos estos avances, pero fue OpenAI quien se atrevió primero a entrenar modelos gigantes para el estándar de la época. Sin embargo, eso por sí solo no bastó. OpenAI necesitó un sofisticado post-entrenamiento —con técnicas que hoy siguen usándose como el Aprendizaje por Refuerzo a partir de feedback humano (RLHF)— para convertir un buen modelo de lenguaje en un asistente conversacional útil y versátil. Ser los primeros le dio a OpenAI una ventaja competitiva que ha durado más de dos años. Google, por su parte, comenzó con Bard, un modelo que fue un fracaso, muy por detrás de las capacidades de ChatGPT. Pero entonces concentró todos sus esfuerzos en el proyecto Gemini. Las primeras versiones no destacaron, y fueron objeto de burla, pero con el tiempo se ha convertido en un líder indiscutible.
La razón es simple: para entrenar modelos de IA hacen falta cuatro ingredientes clave: datos, infraestructura, GPUs y talento. Y la única empresa que posee los cuatro, de manera 100% independiente, es Google. Datos, porque su especialidad siempre ha sido rastrear Internet para alimentar su motor de búsqueda.
Infraestructura, porque sus centros de datos están diseñados para soportar millones de peticiones por segundo a escala mundial. GPUs, porque dio un golpe maestro al crear su propio hardware, las famosas TPUs, que le permiten entrenar sus modelos sin depender del suministro de Nvidia. Y talento, porque desde siempre trabajar en Google ha sido el sueño máximo de cualquier ingeniero, y por tanto siempre han podido contar con los mayores expertos. Si comparamos con empresas como OpenAI o Anthropic, éstas sin duda pueden tener datos y mucho más talento, pero todavía dependen completamente de terceros para el resto de ingredientes. Por eso, era solo cuestión de tiempo que Google diera un golpe en la mesa y se pusiera en cabeza.
Pero Google no solo tiene las piezas del rompecabezas de la IA; además tiene la visión para armarlo entero gracias a Demis Hassabis, reciente premio Nobel de Química y co-fundador de DeepMind, empresa adquirida por Google en 2014. Precisamente, DeepMind fue pionera en el uso del Aprendizaje por Refuerzo, así que si éste acaba siendo la piedra angular en el futuro de la IA, Google no podría estar en mejores manos. Si en el año 2000 Google nos enseñó que manejar los tiempos fue importante para dominar el mercado de Internet, en el año 2025 nos revela algo aún más interesante: el objetivo no es salir primero en una carrera, sino estar siempre preparado para ganarla.
Gracias por leer Explicable. Si te ha gustado esta edición, no te olvides de dar al ♡ y de compartirla por redes sociales o por email con otras personas a las que creas que les pueda gustar.
Me quedo con la posesión de google de los 4 elementos: datos, infraestructura, TPU's, talento... y si, creo que si... que puede dar un buen golpe en la mesa.
Muy interesante MA, parece que el problema que tienen ahora es muy grande ya que sabemos cómo nadar por los libros y experiencias de otros que hemos leído pero no nos hemos lanzado a la piscina...
Parece que es complicado establecer técnicas de refuerzo que permitan a la IA adquirir la visión del mundo que necesita y capturar a la vez la diversidad que implica la experiencia humana.
El lenguaje y el razonamiento orgánico que emerge de el parecen un buen principio para empezar, pero será totalmente insuficiente para lograrlo. Quizás los robots den un paso más al combinar razonamiento y experiencias.
No obstante y si se logra, me preocupa qué visión del mundo aprenderá y qué valores la acompañaran, quién los establece, esto puede llegar a ser más complicado y difícil que el problema de los sesgos.