IA Generativa, Sesgos y Armas Químicas
Noticias recientes de Inteligencia Artificial y Negocios
En esta edición de Explicable hablamos de la Inteligencia Artificial generativa, qué es y cuáles son sus implicaciones legales en el copyright y los derechos de autor. Nos hacemos eco de la aplicación que Google ha puesto en marcha para resumir textos. También revisamos los principales sesgos que se pueden encontrar en los modelos de Inteligencia Artificial según la agencia NIST y cuándo suponen un riesgo. Y, por último, analizamos el potencial de la Inteligencia Artificial para salvar vidas mediante el descubrimiento de nuevos fármacos y cómo con la misma tecnología se pueden crear armas químicas.
IA Generativa y Copyright
La oficina de gestión del copyright en EE. UU. ha rechazado el registro de una obra generada mediante IA en un caso que sienta un precedente importante en el campo de la Inteligencia Artificial. La IA generativa es una de las técnicas que más ha avanzado en los últimos años, creando aplicaciones que dejan boquiabierto. Por ejemplo: en cuanto a imágenes, podemos generar caras nuevas con gran fidelidad, transferir el estilo de un cuadro de Van Gogh a cualquier fotografía, o transformar la foto de una cara para añadirle sonrisa, rejuvenecerlo, cambiar el estilo de su pelo, etc. Pero la IA generativa también tiene aplicaciones en el campo del procesamiento de lenguaje natural, siendo GPT-3 su máximo exponente, un modelo que es capaz de generar texto con cierto sentido a partir de un contexto dado. Y en el campo del procesamiento de audio, nos permite sintetizar la voz de cualquier persona y utilizarla para crear nuevos mensajes de voz en múltiples idiomas.
Esta es la imagen que ha sido objeto de este caso, que por su apariencia debe haber sido generada con un modelo de IA entrenado con muchas pinturas al óleo.
De la misma forma que con Photoshop existen multitud de efectos que se le pueden aplicar a una imagen, sin que por ello se pierdan los derechos derivados de su autoría, ¿dónde está el limite a partir del cual perdemos dichos derechos por el uso de una herramienta de software? Muchas de estas herramientas basadas en inteligencia artificial son guiadas por una persona en el proceso generativo, produciendo una obra que es única (p.ej. herramienta Geniverse).
En otra vuelta de tuerca, ¿qué ocurre con los potenciales derechos de autor de las obras utilizadas para entrenar al modelo generativo? Todo dependerá de si consideramos las imágenes generadas como un trabajo derivado de dichas obras, en cuyo caso tendrían que responder a los derechos de autor, o como un trabajo inspirado de las mismas, en cuyo caso se habría hecho un uso lícito de las obras originales. Esta situación suscita otro debate aún abierto, que el mundo del derecho debe resolver.
Más información: https://ipkitten.blogspot.com/2022/02/us-copyright-office-refuses-to-register.html
Resumen Automático
Google ha anunciado una herramienta que genera resúmenes automáticos de documentos, integrada en la versión de pago de Google Docs. Esta aplicación del campo de Procesamiento de Lenguaje Natural (NLP, Natural Language Processing en inglés) es una de las más buscadas por la comunidad científica, debido al gran reto que supone combinar comprensión y generación de lenguaje natural, y al alto impacto económico que tendría automatizar una tarea de este tipo. El estado del arte no está muy avanzado aún. Por eso, es una gran noticia que Google lo haya puesto en producción aunque sea con ciertas limitaciones.
Como ocurre con todos los avances en el campo del NLP, inicialmente sólo estará disponible para el idioma inglés. Según la información publicada por Google, tampoco funcionará para cualquier documento, será el propio modelo el que decida cuándo mostrar el resumen basándose en el nivel de confianza del texto generado. Además, Google anuncia que permitirá editar el resumen en caso de que el usuario no lo considere adecuado, una información de gran valor que sin duda servirá para ir mejorando el modelo con el tiempo.
Más información: https://ai.googleblog.com/2022/03/auto-generated-summaries-in-google-docs.html
Control de Sesgos
El Instituto Nacional de Estándares y Tecnología (NIST por sus siglas en inglés de National Institute of Standards and Technology) ha hecho una publicación especial para tratar el tema de los sesgos en la Inteligencia Artificial. El NIST es una agencia del gobierno de los EE. UU. encargada de promover la innovación y la competencia industrial mediante la creación de unas normas y métricas comunes. El objetivo de este estudio es analizar la problemática y servir de guía para futuros estándares al respecto.
Según el NIST, existen 3 tipos de sesgos que afectan a los sistemas basados en Inteligencia Artificial: los sesgos computacionales o estadísticos, los sesgos humanos y los sesgos sistémicos. Los sesgos computacionales son aquellos que podemos medir a partir de un modelo de Inteligencia Artificial ya entrenado. Son la punta del iceberg y, aunque se pueden tomar medidas para subsanarlos, no constituyen todas las fuentes de posibles sesgos que intervienen. El sesgo humano es el que tenemos cada uno de nosotros de manera implícita y que afecta a cómo percibimos e interpretamos la información que recibimos. Y, por último, el sesgo sistémico, el que que se encuentra integrado en la sociedad y en las instituciones por razones históricas.
La solución para el NIST es adoptar una perspectiva “socio-técnica” que incorpore los valores de la sociedad en un proceso de mitigación de sesgos. El documento establece las bases, pero no explica cómo lograr dicha perspectiva en la práctica.
Muchas veces se habla de los sesgos como el gran inconveniente de la Inteligencia Artificial. Una buena parte de la sociedad interpreta que es un problema de la tecnología y no del caso su uso particular, generando miedo o rechazo. La realidad es que las aplicaciones de IA donde los sesgos pueden ocasionar perjuicios a las personas no son tantas. Si la sociedad no está preparada para que las máquinas tomen decisiones que puedan ocasionar alguna injusticia, caractericemos esas aplicaciones y asegurémonos que siempre hay un humano detrás de la decisión, aunque también pueda estar sesgada. Por ejemplo, para decidir si un preso está preparado o no para recibir la libertad condicional. Y no pongamos piedras en el avance de una tecnología que puede seguir mejorando nuestra calidad de vida y la de nuestro planeta en otras múltiples facetas. Por ejemplo, para la creación de un sistema capaz de separar la basura de un contenedor y reciclar de forma automática.
Más información: https://doi.org/10.6028/NIST.SP.1270
Doble Uso de la IA
La Farmacología es una de las áreas donde la Inteligencia Artificial está teniendo un impacto mayor del que se preveía cuando se inició la revolución del deep learning. Sólo en 2021 se invirtieron más de 4 mil millones de dólares en empresas destinadas al descubrimiento de nuevos fármacos. Y recientemente la empresa Insilico Medicine anunció el primer fármaco generado con IA que ha entrado en fase 1 de ensayo clínico.
Las moléculas se pueden representar mediante una secuencia de caracteres, con una sintaxis y gramática propias. Esto permite utilizar directamente todos los modelos de Inteligencia Artificial ya diseñados para procesar el texto de cualquier otro lenguaje. Una vez obtenemos la representación de todas las moléculas conocidas mediante una de estas arquitecturas de redes neuronales, podemos iniciar un proceso de búsqueda de nuevas moléculas, o nuevas secuencias válidas de texto, que cumplan las propiedades que queramos. Una de estas propiedades es que no sean tóxicas para el organismo, lo cual se aprende a partir de una base de datos de moléculas que sabemos que sí son tóxicas.
Este informe recientemente publicado en Nature demuestra que, cambiando un signo en el criterio de búsqueda, conseguimos que las moléculas encontradas estén próximas a las de más toxicidad. Y así, con un mínimo cambio, convertimos el modelo en un generador de sustancias tóxicas, con el potencial de ser utilizado en la fabricación de potentes armas químicas.
Y es que la IA al igual que otras tecnologías, no es ni buena ni mala, sino que depende del uso que se haga de ella. La misma herramienta destinada a salvar vidas, también se puede emplear para quitarlas.
Más información: https://www.nature.com/articles/s42256-022-00465-9
Gracias por leer Explicable. Si te ha gustado esta edición, no te olvides de dar al ♡ y de compartirla por redes sociales o por email con otras personas a las que creas que les pueda gustar.
Como siempre muy interesante. Dejarme humildemente hacer una metáfora respecto a los sesgos.¿ Como puede cambiar (y por tanto eliminar sesgos) el sistema educativo actual si los formadores han sido programados en los sistemas educativos previos y a su vez enseñan a los educadores del futuro? La inteligencia artificial tiene una oportunidad que los humanos no tienen al frente de esta problemática y poder romper el circulo vicioso. No tiene pasado circunstancial y puede tener aprendizaje de un "seudo pasado" elegido en el presente para un futuro. Es por tanto una oportunidad para la educación como herramienta transformada de la sociedad inspirarse EN y acompañarse CON la IA para resolver los sesgos tanto reales como artificiales. Sabiendo la dimensión y alcance que esto puede suponer en este campo, es fundamental partir de unos valores humanos muy cimentados.
Aunque no tengo formación en Derecho, me gustaría hacer una serie de matizaciones sobre la primera noticia:
1. Lo que se ha rechazado (tras la apelación a un primer rechazo a 2019, siendo la obra de 2016, cf. https://www.urbasm.com/2016/05/artificial-intelligence-visions-art-of-a-dying-brain/) es el registro a nombre de la IA, no el registro en sí, como se explica en la fuente que citáis: «Registration was sought as a work-for-hire to the owner of the Creativity Machine.». En artificialinventor.com se expande sobre ello: «We are not advocating for an AI to own its own patents. We are advocating for the AI's owner to own patents on any AI-generated inventions. AI does not have legal personality and cannot own property». La idea tras artificialinventor es que al vender dicha IA a otra compañía se traspasen también sus patentes asociadas, y la idea tras la resolución de la oficina de patentes (basada en unas directrices de 1966, como se nota en vuestra fuente) es evitar las complicaciones legales de responsabilidad jurídica, cf. Leo Kelion «AI system 'should be recognised as inventor'» (BBC 2019), donde citan al abogado Ryan Abbott (PhD in Law por «The Reasonable Robot: Artificial Intelligence and the Law» 2020).
1.1. Hasta donde he podido ver, este caso concreto es particularmente complejo, pues Thaler, el autor de la IA, es, por una parte, poco transparente en cuanto a sus métodos, y por otra, un tanto exagerado en cuanto a sus resultados. De hecho, en un par de entradas de 2019 ipkitten (The first AI inventor - IPKat searches for the facts behind the hype, EPO refuses "AI inventor" applications in short order - AI Inventor team intend to appeal) ya insinuaba que Thaler pudiera ser un poco vende humos: aunque en artificialinventor.com declaran que «Ironically, the authorities accept that Dabus devised the inventions and that the inventions, per se, are patentable. The problem is Dabus (Device for the autonomous bootstrapping of unified Sentience) isn’t a ‘natural person’», lo cierto es que la EPO contestó a esa afirmación para al menos una de sus patentes notando sus similitudes con otra anterior: US 5803301 (1998).
1.2 El arte generativo en general (que según Wikipedia se remonta a al menos 1965, con Georg Nees y Frieder Nake) creo que es un buen ejemplo de que no hay ningún problema en aplicar copyright a algo generado con IA (siempre y cuando sea lo suficiente distintivo y original), y que la resolución que estamos discutiendo responde únicamente a la negativa de la oficina de patentes a admitir como propietaria de la patente a la propia IA.
2. La resolución no sienta precedente. De hecho, ya existe una patente a nombre de dicha IA en un tratado internacional: Patent Cooperation Treaty WO 2020/079499 A1 (irónicamente, la misma que la EPO rechazaba por falta de originalidad). El Derecho es un mundo extraño, así que no voy a fingir que lo entiendo.
3. En el citado artículo del 5/2016 de urbasm no se detalla demasiado como se han generado dichas imágenes, pero mi impresión es que han tomado un autoencoder, han perturbado sus pesos, y han decodificado puntos aleatorios del espacio latente. Más que pinturas al óleo, yo diría que son fotografías distorsionadas.
4. Insisto en que mi formación no es en Derecho, pero dudo que este debate (en sentido amplio) se vaya a cerrar nunca. De hecho, es uno recurrente incluso en el ámbito del arte humano. E.g., en la industria musical me vienen a la mente dos casos recientes: Adam Neely «Did Dua Lipa ACTUALLY Plagiarize Levitating?» y «Did Olivia Rodrigo steal from Paramore? (analysis)», que se podrían enmarcar en Kirby Ferguson «Everything is a Remix», así como extenderse a los fenómenos de la criptomnesia (plagio no intencional) y el fanfic (cf., e.g., verilybitchie «Taking Back Harry Potter»). A donde quiero llegar con todo esto, para no entrar a discutir cosas que sospecho pero ignoro (e.g., ¿no es la licencia de Photoshop una cesión de los derechos de explotación comercial de la herramienta?), es a que probablemente los claims de infracción de copyright (que es un problema equivalente a las negativas de admisión de copyright) se van a discutir siempre caso por caso (independientemente de si su origen es humano o máquina), y se van a limitar a dirigirse a obras famosas y/o exitosas para beber de su capital social y/o económico (o distanciarse de ellas, en caso de difamación por asociación). Hasta donde sé, la criptomnesia no ha hecho que se aumente la precaución a la hora de conceder derechos de copyrights, así que no creo que ocurra ahora con la IA, aunque podría ser interesante que una IA identificara similitudes de un banco de registros para adelantarse a las posibles reclamaciones de plagio y evitar situaciones como la descrita en Zoe Bee «How I Became a Minecraft Scam Artist».
PS. Sobre el uso de datos con derechos de autor, the United States 2nd Circuit Court ya se pronunció en 2015 (en un contexto algo distinto, pero que probablemente siga aplicando): es fair use, cf. https://towardsdatascience.com/the-most-important-supreme-court-decision-for-data-science-and-machine-learning-44cfc1c1bcaf. Para una discusión en otras partes del mundo, cf. https://valohai.com/blog/copyright-laws-and-machine-learning/ y https://jtip.law.northwestern.edu/2021/05/28/copyright-issues-for-ai-and-deep-learning-services-a-comparison-of-u-s-south-korean-and-japanese-law/. Parece que la tendencia es bastante permisiva.