“Tenemos que pensar en cómo controlar la IA porque es muy potente y lo va a cambiar todo”

En el libro La inteligencia artificial explicada a los humanos, este investigador y divulgador plantea un ameno e inquietante relato sobre el incierto balance riesgo-beneficio de una tecnología que espera acabe complementándonos, más que sustituyéndonos y que tendrá un mayor impacto en la humanidad que el de la Revolución Industrial

“Tenemos que pensar en cómo controlar la IA porque es muy potente y lo va a cambiar todo”
Jordi Torres posa con ejemplares de su libro ‘La inteligencia artificial explicada a los humanos’. / Foto cedida por el entrevistado

Tiempo de lectura estimado: 27 minutos


Fuente: SINC
Derechos: Creative Commons

La versión gratuita de ChatGPT, el chatbot de IA de la empresa estadounidense OpenAI, no tiene información específica “sobre un experto en supercomputación e inteligencia artificial, llamado Jordi Torres,” hasta su última actualización, en enero de 2022. “Puede que sea una persona que ha ganado reconocimiento o notoriedad después de esa fecha o que no haya alcanzado una prominencia mundial que esté registrada en mis datos”, zanja el simulador conversacional más famoso del mundo.

Todo ello, pese a que Torres (Barcelona, 1964) es catedrático de arquitectura de computación de la Universidad Politécnica de Cataluña (UPC) e investigador y asesor del Barcelona Supercomputing Center – Centro Nacional de Supercomputación (BSC–CNS), cuyo emblema es el superordenador MareNostrum 5, uno de los más potentes del mundo, de los tres únicos en la UE, y “joya de la corona” de la infraestructura científica en nuestro país, explica este experto a SINC.

El investigador es, además, autor del libro La Inteligencia Artificial explicada a los Humanos (Plataforma Editorial, 2023).

Desde que en 1956 acuñase el término el informático John McCarthy en la conferencia fundacional de Dartmouth (Hanover, EE UU), el desarrollo de la IA ha sufrido épocas de sequía, pero sus hitos más recientes pronostican avances inimaginables en medicina personalizada o posibles respuestas ante desafíos colosales, como la emergencia climática. Al tiempo, avivan el riesgo último de alcanzar la llamada “singularidad tecnológica”, la posibilidad de que la máquina nos supere y acabe decidiendo sobre sí misma y nuestro futuro.

¿Por qué ChatGPT no te conoce?

Porque no soy Elon Musk. ChatGPT es el resultado de un código que procesó y acumuló el conocimiento de internet en su red neuronal hasta esa fecha que te ha mencionado. Son números, parámetros. 175.000 millones en GPT-3 y en GPT-4 [el modelo disponible más avanzado] no sabemos, pero más. Lo que hace es encontrar una respuesta a tu pregunta palabra a palabra según lo que sea estadísticamente más probable. Así escribe cada frase, cada párrafo.

Por ejemplo, si sale Barack, sabe que luego viene Obama porque lo ha leído millones de veces. Pero seguramente Jordi Torres lo ha leído poquísimas veces, no le da la posibilidad de hacer algo razonablemente confiable. Si tras Jordi Torres la siguiente palabra aparece con una probabilidad muy baja, la descarta para no entrar en ‘alucinaciones’

Aunque a veces se despista, él siempre responde. A ti, te ha dado una respuesta de escape tuneada porque en el entrenamiento de ChatGPT ha habido intervención humana, lo que se llama human-in-the-loop [supervisores humanos]. Así que igual estás entrevistando a quien no deberías, no soy suficientemente famoso para ChatGPT [ríe].

¿Falla entonces en el hilado fino?

ChatGPT contiene una versión comprimida de todo el conocimiento de internet que se usó para entrenarlo, pero al comprimirlo, se pierde información, como al comprimir un fichero informático. Al descomprimirlo, debe aplicar un proceso matemático para encontrar los píxeles que faltan. De media, los genera bien, pero a veces se distorsiona una imagen después de comprimirse. Él domina la verborrea, redacta bien, pero le falta información precisa.

Lo que se está haciendo es añadir al motor de verborrea que es ChatGPT una base de datos específica con conocimiento del ámbito al cual quieres aplicarlo. Por ejemplo, al de la salud, para sobreentrenarlo y que sea más preciso. El problema es que se ha entrenado quién sabe con qué. De hecho, OpenAI de open no tiene nada. Es de los primeros avances en redes neuronales que se hace sin compartir con la comunidad científica los datos, los algoritmos y las máquinas que se han usado para el entrenamiento. Es todo muy opaco.

¿Qué diferencia las neuronas biológicas de las artificiales?

No se parecen en nada, pero cómo se expresan las cosas puede ayudar a definir ideas. Los conceptos de IA y redes neuronales vienen de mediados del siglo pasado. Las buenas ideas matemáticas ya estaban en los 80, pero no había máquinas para computar la información en un tiempo razonable. En 2012, en una competición de clasificación de imágenes, explotó esta idea de que las redes neuronales podían ser útiles.

Una red neuronal no es más que millones de neuronas artificiales. Y una neurona artificial es una suma ponderada de los parámetros de entrada, de las conexiones con otras neuronas, más una aplicación que procesa el resultado. Al igual que con las neuronas humanas —que, según lo que les llega y su procesamiento, emiten a través del axón una señal de activado o no activado—, las artificiales, tras esa suma ponderada, emiten una salida de valor 0 ó 1. Es así de simple, una operación matemática muy pequeña, una multiplicación de matrices. Pero con millones de estas cosas tan simples se hacen cosas muy complejas, como entrenar estas neuronas para obtener información de los datos de entrada de forma automática, sin precisar de un programador que indique qué hacer si pasa esto o lo otro.

¿Ha ocurrido algo sorprendente en el desarrollo de la IA desde que publicaste tu libro en septiembre pasado?

Desde el punto de vista de la investigación, no. Lo cerramos a finales de mayo, cuando ya había pasado lo más importante, es especial en relación con el lanzamiento de ChatGPT, aunque voy actualizando anécdotas en mi web. Sí me sorprende la rapidez con la que se está adoptando la tecnología en muchos campos. Aún queda mucho recorrido, pero va a cambiar las profesiones, la calidad de vida de las personas, lo va a cambiar todo.

Se está avanzando mucho en facilitar esa adopción. Microsoft está aplicando IA en sus productos. Word ya corrige nuestros errores ortográficos, pero pronto podrá resumir un texto, etc. También se están perfeccionando los modelos de lenguaje. En España existe el proyecto MarIA [para resumir y generar textos en castellano a partir de los archivos web de la Biblioteca Nacional de España] y en Cataluña tenemos Aina [equivalente para el catalán]. Se trata de facilitar una infraestructura que puedan utilizar las empresas, por ejemplo, en el ámbito de la salud. En el Hospital Clínic de Barcelona o en el Vall d'Hebron, donde algunos médicos escriben en catalán, otros en castellano y otros en inglés, estos modelos pueden ayudar a hacer una interpretación automática de los informes.

¿Los gigantes tecnológicos van marcando la pauta?

En modelos de lenguaje hay una competición entre las grandes tecnológicas. Microsoft ha invertido mucho dinero en OpenAI, Google ha sacado Gemini, Meta (Facebook) tiene Llama… Y todo viene de un artículo de investigación de Google que se llama Transformer publicado en 2017, cuando hubo un cambio de paradigma. Desde entonces, no ha habido nada de esa dimensión. Sí se han puesto las pilas los gobiernos: se le está dando un acelerón a la legislación europea, Biden está poniendo sus salvaguardas en EEUU…

Es decir, no hay grandes hitos científicos, pero se ha avanzado en comercialización y regulación, ¿correcto?

Se está afinando la tecnología para hacerla más útil. Y, no nos engañemos, OpenAI no abrió ChatGPT a todo el mundo por altruismo, al igual que Google te da ‘gratis’ Gmail. Es un experimento masivo para afinar sus modelos de lenguaje. Una vez más, pagamos lo que supuestamente nos está ayudando, dándoles nuestros datos, nuestra forma de interactuar. Ellos están adquiriendo toda esta información, están afinando el producto. También creo que muchas de estas cosas van a ser cada vez más transversales y transparentes.

Concluyes que la IA supondrá una mayor transformación de la historia de la humanidad que la que supuso la Revolución Industrial.

Ahí hay un trabajo del editor para acentuar aquello que yo pienso y digo. Yo, como científico, no tengo costumbre de hacer titulares. Pero lo puedo defender en el sentido de que ahora tenemos una herramienta más potente que cualquiera de las anteriores.

Por ejemplo, va a automatizar muchas tareas diferentes a las manuales y algunas de ellas son las creativas, las que hasta ahora creíamos que solo podían hacer los artistas. De igual forma, va a afectar a muchos de quienes estudiamos en la universidad pensando que nunca nos quitarían el trabajo. A mis estudiantes de informática les va a afectar de lleno porque las máquinas ya saben programar. Yo ya pido a ChatGPT que me ayude con ciertas rutinas de programación. La automatización va a ocurrir cada vez más en trabajos de carácter intelectual, no como hasta ahora, que solo afectaba a quienes trabajaban en cadenas de producción. Es una transformación brutal.

¿Compite con nuestra inteligencia?

La complementa. En el libro, hablo de cohabitación. La IA complementando a nuestra inteligencia nos puede llevar a hacer cosas hasta ahora impensables. También a abordar retos complejos como los que plantea el cambio climático. O nos ayudamos de herramientas como la IA para predecir, tomar decisiones, ser más eficientes y sostenibles o no sé cómo vamos a salir de esta. Al final, para bien o para mal, los humanos hemos adoptado toda tecnología que ha caído en nuestras manos, no hay vuelta atrás. Además, lo que puede hacer la IA, no lo podemos hacer nosotros. Mientras esté en nuestro control, no veo problemas.

Según el FMI, la IA afectará al 60% de los trabajos en las economías avanzadas y existe el riesgo de que reemplace empleos y profundice la desigualdad.

Es cierto, lo va a cambiar todo. Pero, mira, mi abuelo trabajaba 80 horas a la semana y mi hijo trabaja 40, ¿esto es bueno o es malo? Está viniendo muy rápido y nos coge sin capacidad de reacción. Y el que pierde el trabajo hoy, mañana no se puede incorporar a otro ámbito distinto. ¿Pero cuál es el problema de que haga parte del trabajo? El reto es cómo nos organizamos a nivel social. Por otro lado, el negocio de la IA está en manos de pocos y estos pocos se están haciendo cada vez más ricos. Si juntas esto con la facilidad que la IA provee a las personas para elaborar fake news, nos puede llevar a una gran crisis social. Nos tendríamos que poner las pilas.

¿Existe hoy una tecnología que hiciera innecesario un actor para rodar una serie o una película o un médico para atender pacientes?

Depende. Si hoy en día no se pueden realizar películas sin actores en las que todo parezca real, se hará pronto. Pero quizás sean un bodrio. Ahora, una buena película, tengo mis dudas. Lo que también pasará es que se generará un montón de contenido realista y un solo director o un solo guionista podrá supervisar 10 películas, en vez de una.

En el caso de los médicos, estoy seguro de que, sobre ciertos diagnósticos muy sistemáticos, ya hay una IA que puede tomar la decisión. En el BSC se está trabajando con simulaciones de ordenador, gemelos digitales e IA para ver cómo una proteína o un medicamento interacciona con las células cancerígenas. Al final, la IA junto con la humana permite a un médico tomar mejores decisiones y aplicar mejores tratamientos. Pero esta tecnología sola no va a ninguna parte. Lo que se persigue es no sustituir al humano, sino complementarlo. Puede ayudar a que el tiempo del médico se dedique a tareas de más valor añadido. Se trataría, por así decirlo, de subcontratar a una IA para hacer la parte del trabajo más mecánica.

La IA tiene un importante impacto ambiental por su gran consumo energético y emisión de CO2. ¿Qué implica en el contexto de la actual emergencia climática?

Los supercomputadores con los que se entrena la IA consumen mucha electricidad, pero este no es el problema. Por contextualizarlo, si los casi 10 millones de abonados de Netflix España ven una hora una película, consumen lo mismo que entrenar el GPT-3 una vez. Es decir, lo que cuesta mucho tiempo y energía es que aprenda, entrenarlo y eso, en la versión que has consultado tú, ocurrió por última vez en enero de 2022. El problema es el mundo digitalizado que tenemos. Piensa cuando entramos en el coche y conectamos el GPS para consultar Google Maps, con información de 220 países y pudiendo pedir lo que queramos de donde queramos. Todo esto gasta mucha energía, deberíamos consumir menos en general.

Relatas que la mayor dificultad para el progreso de la IA son las limitaciones de la computación y citas las posibilidades de los chips neuromórficos y la eventual computación cuántica. ¿En qué consisten?

Los chips neuromórficos integran el algoritmo en su hardware, lo que les hace más eficientes. Los supercomputadores cuánticos aún no existen. Lo que vamos a montar antes del verano en el BCS es una infraestructura que permita hacer experimentos cuánticos para avanzar en supercomputación, un entorno sin influencias electromagnéticas, con un frío determinado… Pero hasta que dispongamos de supercomputación cuántica aún queda un recorrido. Y tampoco es evidente que, para las redes neurales, la computación cuántica sea una solución.

Como explico en mi libro, el desarrollo de la IA se basa en tres pilares: datos, algoritmos y máquinas (capacidad de computación). Datos, ya hemos usado todos los que había en internet; algoritmos, ya son miles de millones; y máquinas, consumen mucho. Seguir progresando es un reto.

También crees que Europa tendría que aumentar su capacidad en supercomputación.

Europa tiene tres supercomputadores del tamaño de los que tienen cualquiera de estas empresas de California, uno en Finlandia, otro en Italia y el de Barcelona. Si no tenemos más, ¿cómo vamos a tener IA propia? Los modelos ChatGPT tienen su moral, su ética, sus sesgos, que son los suyos porque al final están entrenados con sus datos. Mateo Valero Cortés [director del BCS] lo explica muy bien: en Europa somos árbitros de un partido que no estamos jugando.

¿Y de qué se hacen estos supercomputadores? Los circuitos del que tenemos en Barcelona son Nvidia e Intel, que nuevamente son empresas californianas. Hay una iniciativa europea para hacer chips propios que permitan hacer supercomputadores propios y una IA propia que podamos controlar. A Europa le falta tiempo para estar al día de este partido que se está jugando.

Dices que la IA no distingue el bien del mal y urges a una regulación ética y responsable, pero ese criterio varía entre las personas y las culturas. ¿Cómo podemos asegurar que se avanza según ciertos principios?

Primero, debemos tener opinión del tema para decidir entre todos qué queremos. La mayoría consideraría que aplicar la IA a la interpretación de imágenes médicas es un buen avance, pero es la misma tecnología que se usa para detección facial y que en China se emplea para controlar a la población. En Cataluña se ha debatido sobre poner este tipo de cámaras en las prisiones, ¿es bueno o malo? Yo, por ejemplo, soy muy antimilitarista y cuando veo su aplicación al armamento autónomo, creo que es malísimo.

Mencionas que la IA puede facilitar muchos avances en el ámbito del derecho, ¿podría en algún momento acabar regulándose a sí misma?

Me refería al ámbito de la redacción o la búsqueda de información en procesos judiciales complejos, por ejemplo. Pero, con lo que me preguntas, estás dando por sentado que la IA tiene conciencia de sí misma. Esta, que nos pintan en la ciencia ficción, ni existe, ni hay indicios de que pueda existir en un futuro cercano. Con la tecnología actual es imposible que una máquina sea consciente. Parafraseando al especialista en IA Stuart Russel, nos hacen falta unos cuántos Einstein con inventos disruptivos para que la IA pueda ser consciente de sí misma, tenga la capacidad de razonar, sentido común o sea capaz de distinguir causa y efecto: ¿sale el sol porque canta el gallo o canta el gallo porque sale el sol?

Ahora mismo, es imposible que la inteligencia artificial se regule a sí misma porque, en el fondo, es tonta. La que gana al ajedrez, si en vez de un tablero de 8 por 8 le pones un tablero 8 por 9, ya no sabe jugar. Cualquier jugador medio le ganaría. No digo que no tengamos que ocuparnos de estos temas, digo que debemos atender otros más inminentes porque con la tecnología actual ya se pueden hacer barbaridades.

La escritora especializada en tecnología Marta Peirano cree que cuando los gurús tecnológicos piden más regulación para conjurar el riesgo de la singularidad tecnológica, lo que en realidad persiguen es regulaciones a su medida que favorezcan su monopolio frente a modelos abiertos y colaborativos. ¿Qué opinas?

Entramos en el campo de la especulación y esto es aplicable a cualquier sector industrial. Sí es cierto que si pones limitaciones a conseguir según qué cosas que ellos ya tienen, los mantiene en una situación de dominio. Tras el lanzamiento de ChatGPT-4, Musk firmó una carta con un grupo de expertos en IA solicitando una moratoria de medio año antes de desarrollar sistemas más potentes. Pero él estaba por otro lado pidiendo a la gente de Nvidia miles de chips para desarrollar IA, de los que en aquel momento aún no habían llegado al BSC. ¿A qué juega? ¿Y si a Sam Altman [director ejecutivo de OpenAI] le preocupa tanto, por qué se ha metido a hacerlo?

¿Tú crees que habría que ralentizar su desarrollo?

No creo que se tenga que ralentizar, pero no se puede dar autonomía absoluta. No podemos continuar con este despropósito de “lo probamos y luego veremos qué pasa”, como está ocurriendo. Lo estamos viendo en otras áreas, como las redes sociales, en las que se usa IA. Son un fenómeno del mundo de la digitalización que tiene vida propia y que está machacando a todos nuestros jóvenes.

También debemos garantizar por ley que cualquier actor del que se use su voz, gane su royalty porque hoy te pueden plagiar la voz. En definitiva, tenemos que estar de acuerdo en qué cosas no se pueden hacer. No se puede hacer armamento autónomo, por ejemplo. Yo sería contundente, hay cosas que tendrían que estar prohibidas. Y Europa va por aquí, como en el caso del reconocimiento facial, que está muy limitado. Tenemos que ponernos todos a pensar en cómo controlamos esta herramienta porque es muy potente y lo va a cambiar todo.

Este año, la mitad de la humanidad va a votar. Teniendo en cuenta que mediante IA se pueden hacer textos, fotos, audios o vídeos falsos e indistinguibles de la realidad, ¿qué deberíamos hacer los ciudadanos?

La tecnología para suplantar por voz e imagen a personas existe y cada vez es más accesible. Esto es así y debemos ser críticos. Ahora, con lo que hemos hablado este rato, podríamos crear un bot con mi voz y mi madre no podría distinguirla. Y por redes sociales corren muchas cosas falsas. Yo, por ejemplo, tengo mucho cuidado con lo que recibo por Whatsapp. La ciudadanía debería intentar informarse a través de canales serios; si se deja influenciar solo por la burbuja que su Facebook o su TikTok le ha generado, va mal.

¿Cuál es tu reacción?

like

dislike

love

funny

angry

sad

wow