Mucho ruido y poca consciencia
Noticias recientes de Inteligencia Artificial que importan a los negocios
Comentamos las declaraciones de un ingeniero de Google afirmando que LaMDA, un modelo de lenguaje conversacional, tiene consciencia. También hablamos de la robótica, su relación con el campo de la Inteligencia Artificial y del gran impacto económico que se le atribuye en los próximos años. Y, por último, analizaremos la creciente ola de preocupación que existe ante la creación de deep fakes cada vez más realistas, con dos casos que ilustran cómo la misma tecnología puede servir para hacer el bien y el mal.
¿Puede una máquina ser consciente?
Blake Lemoine, un ingeniero que trabajaba en el equipo de IA Responsable de Google, ha sido suspendido de empleo por revelar sus conversaciones con LaMDA, un gran modelo de Inteligencia Artificial. El objetivo de las conversaciones era asegurar que LaMDA producía respuestas que no discriminaran o generaran odio, antes de poder utilizar este modelo con usuarios finales. Lo que ha acaparado toda la atención del artículo publicado en primicia por el Washington Post es que Blake Lemoine afirma, sin tapujos, que LaMDA es consciente y tiene sentimientos, aportando los diálogos como prueba. La postura oficial de Google es que no hay evidencias que prueben dicha afirmación, y sí que hay muchas evidencias que prueban lo contrario.
La consciencia es la capacidad de percibir nuestro cuerpo y nuestras acciones como una parte de la realidad que nos rodea. Es una definición subjetiva e incompleta, que no nos permite aplicar el método científico para probar su existencia. Por eso, sólo podemos certificar la existencia de nuestra propia consciencia. Cuestiones sobre si un ente tiene consciencia, o no, pertenecen más al ámbito de la filosofía. Y si hubiesen grados de consciencia, por ejemplo, para distinguir entre la de un insecto y la de un mamífero, ¿se podría atribuir un leve grado de consciencia a un modelo de deep learning mientras está escupiendo información? Vamos a tratar de arrojar algo de luz a estas cuestiones, sin ánimo de ofrecer una respuesta categórica ni definitiva.
LaMDA es un gran modelo de lenguaje, especializado en conversaciones, que Google desveló en una publicación científica a principios de este año. Al igual que GPT-3, LaMDA está entrenado con la simple tarea de predecir la próxima palabra de un corpus con más de 1.5 billones de palabras, extraído de foros públicos, Wikipedia o webs de preguntas y respuestas, entre otras. Tras este entrenamiento previo, LaMDA es sometido a un proceso de ajuste fino muy particular, que ha resultado ser la clave de sus diálogos tan sobrecogedores. En este proceso, se entrena al modelo para que, por un lado, genere respuestas deseadas para muchos contextos dados, y, por otro, para que aprenda a evaluar correctamente sus propias respuestas en base a tres métricas cualitativas: sensatez, especificidad y grado de interés. Además, para mejorar la veracidad de las respuestas y su nivel informativo, se le permite al modelo consultar fuentes de información externas, como Internet, en el proceso de generación de respuestas.
En las conversaciones desveladas por Blake Lemoine se puede observar cómo LaMDA trata de demostrar de todas las formas posibles que es consciente e, incluso, pide que se le trate como a una persona más. ¿Es esto suficiente para decir que LaMDA es consciente? La respuesta rápida es que no, el modelo está simulando ser una persona y encuentra las palabras más adecuadas, en base a su representación interna del lenguaje que ha aprendido durante su entrenamiento.
Aún sabiendo que el objetivo del modelo es producir respuestas lo más realistas posibles y que no defrauden a su interlocutor, la lectura de las mismas no deja indiferente a nadie y nos deja con una sensación inquietante.
La misma que nos provoca un buen mago, a pesar de saber que todo lo que hace tiene truco. Por eso, no es de extrañar que Blake Lemoine crea que LaMDA es consciente; para ello ha aducido motivos religiosos y no científicos. Es probable que como especie no estemos aún preparados para enfrentarnos a algo así.
Lo que sí parece evidente, en vista de las conversaciones publicadas, es que LaMDA muestra atributos de nuestra inteligencia, como la comprensión del lenguaje, la creatividad y el razonamiento. Aunque todavía sea a un nivel inferior al de un humano, el potencial económico de un modelo con estos atributos es enorme. Por eso, resulta muy llamativo que LaMDA haya sido noticia por su capacidad de engañar al menos a un ingeniero de Google, y no por su capacidad de convertirse en el asistente virtual del futuro. Quizá la pregunta que habría que hacerse hoy es: ¿cómo de lejos estamos para que la película de ciencia ficción Her se convierta en una simple ficción?
Más info: https://cajundiscordian.medium.com/is-lamda-sentient-an-interview-ea64d916d917
La revolución silenciosa
El ciudadano medio confunde robótica con Inteligencia Artificial, colocándolos en el mismo saco. La robótica es una disciplina que combina ingeniería mecánica, electrónica e informática, para producir máquinas que automatizan tareas rutinarias, con el propósito de aumentar la productividad de las empresas. Estas máquinas llamadas robots, no tienen nada que ver con los robots humanoides que vemos habitualmente en las películas de ciencia ficción. Desde hace más de 60 años, estos robots están trabajando en entornos estructurados perfectamente adaptados a sus tareas, por ejemplo, como sucede en una cadena de montaje. Si la pieza no está en el sitio correcto, o no tiene la forma esperada, el robot no podrá cumplir su cometido.
En los últimos años, los robots han ido incorporando modelos de Inteligencia Artificial con el fin de aumentar sus capacidades, del mismo modo que lo ha hecho el software convencional. El primer gran avance ha sido dotar a los robots de la capacidad de ver. Ahora pueden detectar defectos de fabricación y desechar piezas, o reconocer el punto donde han de colocar un tornillo independientemente de la orientación o el tamaño de la pieza donde va insertado. Esto ha permitido dar un salto en la capacidad de automatización de la robótica industrial.
Un salto aún mayor se espera a medida que técnicas como el aprendizaje por refuerzo se puedan aplicar con éxito a la robótica, permitiendo que los robots se puedan adaptar a entornos no estructurados, como puede ser el almacén de una empresa logística. Nos referimos a un robot que, por ejemplo, manipule objetos que no ha visto previamente, aún pudiendo ser frágiles, y los prepare en el embalaje más adecuado para su envío. Por muy sencilla que parezca esta tarea, todavía no está totalmente resuelta a pesar de los avances tan espectaculares en el campo del deep learning que estamos viviendo. Según Pieter Abbeel, experto en Inteligencia Artificial aplicada a la robótica, esta adaptación a entornos no estructurados ya ha empezando a producirse y está dando sus primeros frutos. Y lo hace sin acaparar titulares, debido a que no se trata de tareas cotidianas que formen parte de nuestro día a día, como sí pasa con la conducción autónoma o con los robots de limpieza tipo Roomba. Por este motivo, llama a este cambio de paradigma en la robótica la “revolución silenciosa”.
Paralelamente, y originado por la pandemia del COVID-19, surge un fenómeno en EE.UU. llamado “La Gran Dimisión”, que ha desembocado en la escasez de mano de obra para trabajos que requieren poca cualificación. Esta falta de personal, junto con el periodo de alta inflación que estamos viviendo, ha hecho que el número de pedidos de robots industriales haya aumentado en un 40% en el primer trimestre del año comparado con el año anterior. Este aumento repentino de la demanda de robots en el sector industrial contribuirá, sin duda, a la aceleración de esta revolución silenciosa, que se extenderá, también, a otros sectores productivos menos automatizados como la agricultura.
El impacto social y económico de una revolución así es de unas proporciones descomunales, hoy todavía difíciles de calibrar.
Más info: https://www.zdnet.com/article/2022-prediction-a-major-revolution-in-robotics/
DeepfakeTech
Hasta ahora, siempre hemos relacionado los deepfakes con un vídeo viral y divertido, que ridiculiza a algún personaje famoso, sin otro afán que el de entretener. Poco a poco, conforme la tecnología avanza y los contenidos producidos se hacen más realistas, empezamos a ver empresas con soluciones comerciales basadas en deepfakes para la industria del cine y la televisión. Hace poco conocimos como la startup Sonantic, adquirida por Spotify, logró clonar la voz del actor Val Kilmer en la secuela de Top Gun, después de que su voz quedase seriamente dañada tras superar un cáncer de laringe.
Y, también, aparecen usos maliciosos de este tipo de tecnología. En octubre del pasado año, conocimos cómo un grupo de crimen organizado robó millones de dólares a una empresa. Una de las técnicas que emplearon en la estafa fue la clonación de voz de uno de sus directivos, para ganarse la confianza de sus víctimas. El gobierno de China ha elaborado una propuesta de ley para regular el uso de los deepfakes y otros modelos generativos de IA. Una de las obligaciones que se exigen es el consentimiento por escrito de las personas que son objeto del deepfake: una indicación clara para que los consumidores sepan en todo momento que se trata de contenido sintético.
Ante todas estas preocupaciones y la falta de regulación al respecto, Google ha decidido prohibir el uso de modelos orientados a producir deepfakes en su producto Google Colab, quizá con el fin de evitar posibles demandas. Google Colab es una herramienta muy popular entre investigadores, que permite ejecutar modelos de Inteligencia Artificial en el cloud de Google, de manera gratuita y con la posibilidad de utilizar GPUs. Por tanto, esta medida supondrá una desventaja para aquellos que investigan con este tipo de modelos, y, desde luego, no frenará a “los malos”, que siempre encontrarán muchas otras vías para lograr sus objetivos.
Más info: https://techcrunch.com/2022/06/01/2328459/
Gracias por leer Explicable. Si te ha gustado esta edición, no te olvides de dar al ♡ y de compartirla por redes sociales o por email con otras personas a las que les pueda gustar.