¡Alerta IA! ¿estamos en peligro?
Análisis de noticias de inteligencia artificial que importan a los negocios
Cuando se puso de moda hablar de la IA desde una perspectiva ética, el número de expertos en IA se multiplicó. Todos podían opinar de los graves perjuicios que estos modelos podían causar a las personas debido, principalmente, a los sesgos y a otro tipo de errores. Por ejemplo, el reconocimiento facial era peligroso porque podía incriminar a una persona inocente. Con el tiempo, los modelos generativos tanto de imágenes como de texto han mejorado sustancialmente, y el miedo ya no se centra tanto en los errores, que por cierto siguen existiendo, sino en las graves consecuencias de sus super poderes extrapolando el nivel de crecimiento actual. Hasta el punto de abrir el debate sobre un potencial riesgo de extinción de la humanidad.
Si algo caracteriza al ser humano es su inhabilidad manifiesta de predecir el futuro. En el año 2016, los mayores expertos en conducción autónoma del mundo afirmaban con rotundidad que en 2020 tendríamos coches sin volantes ni pedales, capaces de conducir sin ninguna supervisión humana. Análogamente, parece que algunos de los principales actores en el campo de la IA, embriagados por el ritmo vertiginoso de progreso, están adelantándose a un futuro que podría estar todavía muy lejos. Un futuro donde la IA se parecerá bien poco a lo que tenemos hoy entre manos. Este inusitado esfuerzo por convertirse en el mesías de la IA no solo resulta inútil hoy, sino que, por desgracia, genera miedo y rechazo por parte de la sociedad.
Veamos algunos ejemplos de cómo estamos afrontando el desafío de la IA como sociedad desde distintos prismas.
Todo lo que está pasando, un marco regulatorio cambiante, una tecnología omnipresente en prácticamente todos los sectores de la economía y un disruptor indiscutible en las estrategias de crecimiento de las organizaciones. La misión del Instituto de Inteligencia Artificial sigue intacta: Ayudamos a profesionales a conocer el potencial de la IA y cómo aplicarla de manera eficaz y rentable. Y ahora con mucho más sentido: apostamos por dotar a perfiles profesionales de conocimientos, inspiración, rigor y herramientas para navegar este tsunami. Consulta todo nuestro portfolio formativo aquí.
¿Qué teme OpenAI?
Tras el lanzamiento de GPT-4, Sam Altman anunció una gira mundial para conocer de primera mano las necesidades y sensibilidades de los desarrolladores de productos basados en su tecnología. Y, todo ello, manteniendo el discurso de que la IA es peligrosa y debe ser regulada, algo que no tiene precedentes en la historia de la innovación, siempre reñida a la regulación. Algo no encaja cuando OpenAI por un lado mantiene que es importante lanzar estos modelos al mercado lo antes posible para estudiar su impacto, y por otro que nos enfrentamos a la extinción de la humanidad. Además cuando los legisladores europeos proponen nuevas medidas para los modelos tipo ChatGPT, Sam Altman amenaza con marcharse de Europa. Parece que OpenAI está a favor de la regulación, pero siempre que sea en sus términos, lo cual no parece muy razonable.
OpenAI tiene una posición dominante en el mercado de los LLMs (Large Language Models), destacando GPT-4 por encima del resto tanto en pruebas objetivas como subjetivas. En estos momentos, para competir con GPT-4 hacen falta tres elementos: un conjunto de datos muy pulido, una infraestructura de hardware muy costosa y un equipo con el know-how específico para entrenar estos grandes modelos. Los dos primeros elementos, se consiguen con dinero. El tercero, es el único que hoy supone un valor diferencial, pues son muy pocas las personas que han estado expuestas y saben afrontar un reto así.
La mala noticia para OpenAI es que su situación privilegiada no durará mucho tiempo, ya que el conocimiento valioso siempre tiende a expandirse, y cada vez más personas tendrán ese know-how necesario.
OpenAI lo sabe, y podría estar detrás de ese sorprendente afán regulatorio que exhibe para poner palos en las ruedas de sus futuros competidores. El mismo Sam Altman afirma que los modelos a partir de ciertas “capacidades” (algo difícil de establecer y medir) deberían requerir una licencia de explotación, lo cual limitaría cualquier iniciativa open source al respecto.
Entre esos potenciales competidores de OpenAI se encuentra Google (que acaba de liberar Bard en España), Meta (que acaba de publicar LLaMA 2), Anthropic (con Claude 2), Stability AI y un puñado de empresas con la capacidad de entrenar modelos de lenguaje que algún día podrían amenazar la supremacía de GPT-4. A este selecto grupo por fin se une una iniciativa europea. Hablamos de Mistral, una startup basada en París, que con tan solo 4 semanas de vida consiguió cerrar una ronda de inversión de 105 millones de euros. El único valor de Mistral por el momento es su propia convicción de tener los ingredientes necesarios (principalmente su equipo fundacional) para romper el monopolio de OpenAI. Veremos si estar en Europa supone para ellos una ventaja (mayor acceso a talento), o un lastre (excesiva regulación) para cumplir con sus objetivos.
El efecto Bruselas se atraganta
El 21 de abril de 2021 poco se hablaba de IA generativa de imágenes, o de aplicaciones universales de lenguaje natural, ni tampoco existía el concepto de modelos de fundación. La mayoría de las veces, los chatbots eran más una molestia que una ayuda y la generación de imágenes era más un pasatiempo que una herramienta profesional. Y ese fue el día elegido para publicar el borrador de la regulación europea que hoy, tras más de dos años de discusiones y enmiendas, está casi listo para ser aprobado en toda Europa. Por aquel entonces, el peligro de la IA estaba centrado en 3 aspectos que podrían perjudicar a las personas: (1) los sesgos indeseados heredados de los datos de entrenamiento, (2) la ausencia de explicabilidad de los modelos basados en redes neuronales y (3) la falta de alineamiento de los objetivos de un sistema basado en IA con nuestros principios éticos. Y en ese contexto aparece la primera propuesta de reglamento para defender los derechos de los ciudadanos europeos, a pesar de que estábamos hablando de una tecnología con poca penetración y en constante evolución.
Europa pretende alimentar el llamado “efecto Bruselas” sentando las bases para todo el mundo, en el momento de más hype de la historia de la IA.
Además, esta regulación es de aplicación directa por los estados miembros sin que tenga que sufrir ninguna adaptación al marco legal particular de cada estado. Europa se lanza a regular una tecnología de propósito general, que se puede utilizar de forma inocua para clasificar la basura de una planta de reciclaje, o de forma perniciosa para hacer seguimiento de los movimientos de los ciudadanos. Y la forma de conciliarlo ha sido categorizando cada aplicación de IA atendiendo a su nivel de riesgo, cuyos criterios están establecidos en la propia ley. Así un sistema para la clasificación de la basura en una planta de reciclaje se considera una aplicación sin riesgo, y, por tanto, se puede desarrollar sin ninguna restricción. Mientras que una aplicación de reconocimiento facial, se considera de alto riesgo y debe cumplir con una serie de obligaciones que garanticen su buen uso. Esta ley no tiene efecto en aplicaciones de uso militar ni impone ninguna restricción a la investigación y desarrollo de IA, es decir, sólo afecta a productos comerciales.
El año 2022 supuso un punto de inflexión en las posibilidades de la inteligencia artificial con la explosión de la IA generativa, culminado con la aparición de ChatGPT. Europa ha tenido que enmendar el reglamento para incorporar conceptos como el de modelos de fundación generativos y sistemas de IA de propósito general, sujetos a unas obligaciones particulares. Entre esas obligaciones se encuentra la transparencia de los datos de entrenamiento, el tamaño del modelo o los recursos de hardware empleados, justo la información que OpenAI ocultó deliberadamente en el último informe técnico de GPT-4 que publicaron.
Y estas obligaciones no afectan únicamente a los modelos propietarios. El reglamento hace responsables de su cumplimiento a los desarrolladores y distribuidores de modelos de fundación open source. Esto ha provocado la reacción de Hugging Face, Github y otras empresas del sector, que se han unido para llamar la atención sobre este aspecto de la ley, que podría estar favoreciendo a las grandes empresas en detrimento de las iniciativas open source que tanto valor aportan a la pequeña y mediana empresa. Otra restricción importante relativa a los modelos de fundación es que si pasan por un proceso de ajuste fino, deberán ser nuevamente certificados. Lo cual supone un impedimento para la aplicación de técnicas como LoRA (Low-Rank Adaptation), que permiten a cualquier empresa poder adaptar un modelo de fundación a sus necesidades.
La redacción del reglamento insiste en que uno de los objetivos que persigue es el de no entorpecer la innovación y facilitar su cumplimiento a las pymes. Es de agradecer que los legisladores sean conscientes de las contrapartidas de una ley de estas características, aunque parece más una pose en vista de las nuevas enmiendas y las posibles consecuencias que acabamos de analizar. ¿Conseguirá Europa no sólo asustar a sus ciudadanos con la IA, sino también a sus emprendedores?
Japón, ¿el paraíso de la IA?
El gobierno de Japón acaba de hacer un movimiento que ha sorprendido al mundo de la IA generativa, permitiendo la utilización de datos protegidos por copyright para entrenar modelos de IA. Esta es una de las grandes polémicas surgidas con los modelos de generación de imágenes, donde muchos artistas consideran que su obra es robada por la IA y exigen compensaciones. Siendo el arte una forma de expresión entre humanos, resulta inquietante que una persona que se declara artista se sienta amenazado por una herramienta como la IA. Así que el trasfondo de estas quejas esconde un motivo económico. El mismo que argumenta la SGAE (Sociedad General de Autores y Editores) para gravar la compra de un portátil con un canon para compensar a los artistas de unas supuestas pérdidas. Es decir, no es el arte el que está amenazado, sino el mercado del arte el que puede verse afectado con la IA.
Precisamente en EE. UU. han concurrido varias demandas contra Stability AI, Midjourney y OpenAI que aclararán si estos modelos infringen o no el copyright. Los contrarios a la aplicación de la doctrina del fair use, argumentan que la IA almacena las obras y las utiliza durante el proceso de generación como si creara un collage. Esto no se corresponde con la realidad, puesto que lo que estos grandes modelos almacenan es una representación de los patrones más característicos hallados en los datos de entrenamiento (trazos, colores, formas, etc.). Y esta representación interna es la que utiliza durante la generación, en un proceso más cercano a la inspiración humana que al plagio.
Japón, un país caracterizado por vivir en la vanguardia tecnológica y por ser la tercera economía mundial, se pone al fin en el mapa de la inteligencia artificial después de años de aletargamiento.
Este audaz movimiento envía un mensaje claro a las empresas basadas en IA de todo el mundo, mientras llueven las críticas a la futura regulación europea.
Tócala otra vez, Meta
Y entre toda la vorágine de avances, miedos y regulaciones, emerge Meta ofreciendo sus grandes modelos sin restricciones de uso en formato open source. La empresa tecnológica más demonizada del planeta aparca el metaverso, y empieza a ganar simpatías gracias a esta jugada que antagoniza con el proceder de las empresas dominantes como OpenAI y Google. En el anterior Explicable mencionamos esta tendencia hablando de SAM, la cual se confirma con estos dos modelos publicados por la empresa del olvidado Mark Zuckerberg.
MusicGen es un modelo de IA para generar música a partir de un texto descriptivo, una aplicación que se antoja como la próxima revolución de la IA generativa.
Los datos de entrenamiento no incluyen música comercial, así que una importante limitación es que todo acaba sonando a música de ascensor carente de alma.
Aún así, es un modelo prometedor que cualquiera puede ya utilizar para generar música libre de derechos de autor.
LLaMa 2 es un gran modelo de lenguaje a la par en prestaciones con GPT-3.5 y, al contrario de su antecesor, disponible para fines comerciales. Esto permite a cualquier empresa utilizarlo dentro de su propia infraestructura, algo crucial para cumplir con las exigencias de las leyes de protección de datos evitando que los datos de sus clientes viajen fuera de su jurisdicción. A pesar de que todavía está lejos de GPT-4 sabemos que, como ocurre con todo el open source, entrará en un círculo virtuoso de mejoras por parte de toda una comunidad ávida de sacarle partido.
Gracias por leer Explicable. Si te ha gustado esta edición, no te olvides de dar al ♡ y de compartirla por redes sociales o por email con otras personas a las que creas que les pueda gustar.
💥Pero atención…💥
Si no recibieses Explicable directamente en tu correo, revisa bien tu correo no deseado. A veces ocurre que nuestros mensajes se van directamente a ese agujero negro denominado “spam”.
Para evitar que esto suceda, marca nuestra dirección de correo como “no es spam”.
Si eres usuario de Gmail, revisa también la carpeta de “promociones”, porque puede que
Muy interesante el Explicable de Julio, sobre todo el apartado Japón, ¿el paraíso de la IA? Habrá que seguir con los ojos abiertos...