IA 2023: el año que vivimos peligrosamente 🔥
Qué nos deja 2023 en inteligencia artificial y qué será lo próximo.
Si 2022 fue el año de la IA generativa, con Dall-E 2, Midjourney y Stable Diffusion como protagonistas, 2023 ha sido el año de los grandes modelos de lenguaje (LLMs), comandados por el éxito sin precedentes de ChatGPT. Un LLM es también parte de lo que llamamos IA generativa, pero en vez de generar contenido audiovisual, tan solo genera texto partiendo de un contexto determinado. A pesar de esta aparente sencillez, los LLMs han suscitado un cambio importante en la percepción de la IA en la sociedad, con muchas voces alertando de los peligros de esta tecnología. Incluso algunas personas influyentes han hablado en 2023 del riesgo de extinción de la humanidad debido a la IA, algo que ha llevado a políticos y burócratas a tomar cartas en el asunto.
Lo que demanda 2024 es una mejor asimilación de todas estas tecnologías, para que las veamos como lo que son: herramientas que nos hacen la vida más fácil, pero que a día de hoy todavía requieren supervisión humana. Debemos dejar de ver a los LLMs como entes inteligentes, capaces de sustituir al ser humano en cualquier tarea cognitiva. Solo así lograremos incorporar, con sentido común, los cambios que conllevan; regulando los nuevos usos donde sea necesario y al margen de sensacionalismos. Porque, como nos muestra el proyecto Pessimists Archive, la historia está llena de grandes avances tecnológicos que en su día suscitaron el mismo rechazo de una parte importante de la sociedad.
GPT-4 sigue siendo el rey
Cuando salió GPT-4 en el mes de marzo, las primeras impresiones fueron que hacía lo mismo que su predecesor, pero con una clara mejora en la calidad de las respuestas. Por tanto, suponía un avance gradual y no disruptivo. Sin embargo, como el buen vino, GPT-4 ha ganado credenciales con el tiempo, dando a todos una inesperada lección: ningún modelo, ni open source, ni propietario, le ha hecho sombra - al menos a lo largo de 2023. Aunque OpenAI no ha vivido su momento dulce sin pasar por ciertos sobresaltos. En una semana de infarto a finales de noviembre, el consejo de administración estuvo a punto de echarlo todo por la borda debido a desavenencias que no se han hecho públicas con Sam Altman, el rockstar de la IA y líder aún más reforzado de OpenAI.
El contendiente mejor posicionado en la carrera por superarlo debería ser Google, que recientemente anunció Gemini. Su versión más avanzada, Gemini Ultra, obtiene unos resultados en pruebas estándar ligeramente superiores a GPT-4. A pesar del bombo con el que Google mostró estos resultados, Gemini Ultra todavía no está disponible al público general. La versión de Gemini Pro, la que hoy alimenta a Google Bard, podríamos decir que compite directamente con GPT-3.5: la versión gratuita de ChatGPT disponible desde hace un año.
Y así lo indica el precio que Google ha fijado para su API, muy por debajo de lo que cuesta el API de GPT-3.5. Lo cual sugiere que Google es consciente de que puede competir en precio, pero no en prestaciones con Gemini Pro. El próximo año nos dirá si Gemini Ultra está a la altura de las expectativas generadas y se convierte en el primer LLM que supera a GPT-4.
En el terreno del open source, además de las ya conocidas familias de modelos Llama y Falcon, están empezando a surgir otras iniciativas muy prometedoras. Por un lado, parece que China está despertando en el área de LLMs con una startup como DeepSeek AI, cuyos modelos, con el mismo nombre, ya superan en algunas pruebas a GPT-3.5. De Francia también llega la startup Mistral AI, que en esta recta final del año ha sorprendido a la comunidad publicando Mixtral 8x7B. Este modelo destaca por ser el primer modelo open source basado en la mezcla de expertos (MoE, Mixture of Experts), una técnica que, según los rumores, estaría detrás del gran éxito de GPT-4.
En definitiva, viendo la evolución que los LLMs open source han experimentado este año, y la fuerte inversión que están recibiendo este tipo de iniciativas, parece claro que durante 2024 podrían alcanzar el nivel de GPT-4 sin muchos problemas.
El miedo a la IA se materializa
En una época marcada por los avances tecnológicos de la inteligencia artificial, el año 2023 se ha destacado como un punto de inflexión en la relación de la sociedad con esta tecnología.
Los titulares del año han resonado con debates éticos, como la carta que promovía parar el desarrollo de modelos superiores a GPT-4 durante 6 meses, e incluso señalando la posibilidad de extinción de la humanidad si seguimos avanzando a este ritmo.
Esto ha provocado que la sociedad sea más consciente de los cambios que vienen, pero a su vez ha sido el germen del miedo que ha inundado a todos sus estamentos.
Sobre todo cuando aparecen reconocidos expertos en el campo de la IA adoptando las posiciones más agoreras. Geoffrey Hinton es uno ellos, basado en la creencia de que podríamos estar muy cerca de alcanzar la AGI (Artificial General Intelligence) tras su experiencia con GPT-4. Según él mismo, salió de Google para poder hablar libremente de su visión al respecto.
Pero no todos los expertos están de acuerdo con esta visión, apoyándose en las enormes limitaciones de los LLMs. Andrew Ng opina que estamos lejos de esos escenarios catastrofistas. Por eso, sería más provechoso poner el foco en lo que la IA es capaz de hacer hoy, en vez de entrar en el mundo de lo especulativo, sobre todo cuando hablamos de regulación que nos afecta a todos. Yann Lecun va más allá, y afirma que un mundo con AGI no es necesariamente más peligroso, del mismo modo que las personas más inteligentes no son las más peligrosas.
El ser humano siempre ha tenido el control sobre la tecnología. La IA no decidirá de manera inexorable matarnos a todos porque la diseñaremos nosotros.
La pregunta que debemos hacernos es: ¿queremos un mundo con más o con menos inteligencia? Porque quizá el término “inteligencia artificial” esté detrás de todo este miedo. Sin duda, es la primera vez en la historia de la humanidad que algo amenaza con quitarnos la supremacía de la inteligencia, aquello que la naturaleza nos ha dado para nuestra propia supervivencia. Un miedo solo comparable a la llegada de vida extraterrestre.
Este miedo se traduce en intentos de regular la tecnología de manera genérica, en lugar de ampliar el marco legal existente con aquellas aplicaciones concretas que puedan entrañar riesgos. Por ejemplo, EE.UU. ha lanzado una orden ejecutiva que impone restricciones a los modelos entrenados a partir de una capacidad de cómputo establecida en la propia norma. La historia de la computación nos dice que lo que hoy es una capacidad desorbitada, mañana la tendremos disponible en nuestro ordenador portátil. Así que este umbral fijado podría ser más un freno a la innovación que una protección frente a unos supuestos peligros. Y lo mismo ha ocurrido en la Unión Europea, que saca pecho de lo que podría convertirse en la primera legislación a nivel mundial en regular la inteligencia artificial. El texto final aún no se conoce, pero el último acuerdo alcanzado parece que ha sido más laxo con los modelos de fundación de lo que se preveía, especialmente para aquellos publicados como open source. No obstante, el reglamento sigue considerando muchas aplicaciones de la IA como de alto riesgo, las cuales deberán pasar por certificaciones que tampoco ayudarán sobre todo a PyMEs.
Lo que nos trae 2024
Realizar predicciones de sistemas complejos, como la sociedad, el mercado bursátil o el avance de la tecnología que aquí nos ocupa, casi siempre resulta en un esfuerzo fútil. Además, un pronóstico siempre posee el sesgo de la persona que lo realiza, muchas veces dirigido más por el deseo que por la realidad, el denominado wishful thinking.
A pesar de ser muy consciente de estos impedimentos y de la gran incertidumbre a la que me enfrento, me aventuro a enumerar algunas noticias que podría traernos la inteligencia artificial en el próximo año:
La IA generativa avanza en otros campos de la creación audiovisual, llegando a un nivel profesional en música y en la producción de vídeos cortos de un único plano.
Los LLMs open source son muy competitivos con GPT-4 y quitan cuota de mercado a OpenAI, que también sufre con la entrada de modelos propietarios como Gemini Ultra.
OpenAI anuncia GPT-5, que gracias a una nueva técnica, es capaz de “reflexionar” sobre lo que genera para afinar su respuesta. Esto disminuye los errores y le permite decir “no lo sé” cuando no dispone de información suficiente.
Nvidia pierde su posición dominante en la venta de hardware especializado para entrenar y hacer inferencia de modelos de IA, al entrar con fuerza nuevos actores al mercado como AMD, Google y Amazon.
El precio de la inferencia de grandes modelos cae significativamente, debido a las optimizaciones en el software y el abaratamiento del hardware por el aumento de competencia.
Surgen los primeros agentes autónomos, basados en LMMs (Large Multimodal Models) y especializados en tareas específicas dentro de las empresas, tanto para operativa interna, como para la interacción con sus clientes.
El miedo a la IA se amortigua a medida que las empresas van incorporando la IA a sus procesos y las personas se van habituando a ella. Los tecno-optimistas se imponen a los catastrofistas, y el debate sobre los peligros de la IA se centra en aplicaciones concretas.
El reglamento europeo sobre IA se aprueba sin pena ni gloria: ni protege especialmente a sus ciudadanos, ni es un impedimento para la innovación en Europa como se vaticinaba. Acabando de nuevo en un molesto procedimiento legal al estilo del mensaje de “aceptar cookies” que sufrimos cada día en la web.
Los productores de contenidos tradicionales como los medios de comunicación y los artistas endurecen su batalla legal contra las empresas que están detrás de los grandes modelos de IA generativa por infringir el copyright de sus obras.
La conducción autónoma sigue mejorando pero no alcanza el nivel 5 SAE, por lo que necesita supervisión humana, o bien de un conductor, o de un agente remoto que pueda tomar el control ante imprevistos.
La robótica con inteligencia artificial para sustituir trabajos manuales también da pasos importantes con Optimus a la cabeza; aunque todavía no está lista para su despliegue masivo, debido a los altos costes y la escasa fiabilidad.
Feliz 2024 a todos y muchas gracias por leer Explicable.
Si te ha gustado esta edición, no te olvides de dar al ♡ y de compartirla por redes sociales o por email con otras personas a las que creas que les pueda gustar.
💥Pero atención…💥
Si no recibieses Explicable directamente en tu correo, revisa bien tu correo no deseado. A veces ocurre que nuestros mensajes se van directamente a ese agujero negro denominado “spam”.
Para evitar que esto ocurra, marca nuestra dirección de correo como “no es spam”.
Si eres usuario de Gmail, revisa también la carpeta de “promociones”, porque puede que también nos hayamos escondido allí y mueve el mensaje al inbox principal. GRACIAS.