top of page
Foto del escritorTony Salgado

Si todos confiamos en el ChatGPT, el conocimiento humano desaparecerá


Marc Serramiá (Profesor en la Universidad de Londres y en la Fundación BBVA de Madrid). Reportaje de Manuel G Pascual, editado por Tony Salgado

El País, 2024

 

“A Marc Serramià le preocupa que la vertiginosa irrupción de la inteligencia artificial (IA) en nuestras vidas no venga acompañada de un debate serio sobre los riesgos que implica esta tecnología.

Ante los dilemas éticos que plantea, ha decidido centrar su investigación en el desarrollo de técnicas “para controlar que el comportamiento de estos sistemas sea consistente con los valores humanos y las normas sociales”.

Serramiá compara su trabajo en el ámbito de la IA con el establecimiento de normas para el comportamiento de la sociedad en la regulación del tráfico. “Tenemos límites de velocidad en la carretera porque valoramos más la vida de los conductores que el hecho de llegar rápido a nuestro destino”.

Un buen ejemplo son los medicamentos. Para poner un fármaco en el mercado, no solo debe demostrarse que tiene un efecto primario positivo, sino que los efectos secundarios no deben ser peores que el primario.

¿Por qué no pasa lo mismo con la IA? Cuando diseñamos un algoritmo, sabemos que la función principal la va a hacer ver bien, pero no si tendrá efectos secundarios. Creo que en el caso de los medicamentos o de las armas lo vemos muy claro, pero con la IA no tanto.

Un peligro, en el que centro parte de mi investigación, es la privacidad. Incluso aunque anonimicemos datos, siempre es posible hacer ingeniería inversa e inferir cosas sobre ti para servirte publicidad personalizada, para concederte o no créditos bancarios o para que un posible empleador juzgue si eres el perfil que busca.

Nuestro trabajo plantea que ya que usamos los algoritmos para estudiar, ¿por qué no usarlos también para cosas buenas, como aprender cuáles son tus preferencias en temas de privacidad?

O sea, si yo te digo que no quiero que compartas mi ubicación, no me lo preguntes más.

Lo que nosotros hemos propuesto es que una IA pueda aprender del usuario y pueda hacer de representante en este proceso y defina sus preferencias prediciéndolas a partir de la información que tiene sobre él.

Hicimos una herramienta de IA muy simple y, aun así, nuestros datos muestran que fue capaz de predecir las preferencias reales del usuario con buena fiabilidad.

Otro problema son los altavoces inteligentes, tipo Alexa, que se lanzaron al mercado muy rápido, y ahora están fallando. Por ejemplo, mandando conversaciones sensibles a contactos con los que no quiero compartir información.

Menos cotidiano, pero seguramente más trascendente, es el peligro que suponen las armas autónomas. Están muy avanzadas a nivel de producción. En un congreso en UN se trató este tema y el discurso mayoritario entre políticos y militares allí presentes fue: bueno, nosotros no las queremos, pero si no las desarrollamos nosotros lo hará otro país. El equilibrio es muy complicado. Siempre habrá alguien dispuesto, y eso arrastrará a los demás.

En el futuro podremos referirnos a robots humanoides armados. De momento, en la guerra de Ucrania y de Rusia se están usando drones con explosivos. Pero también se les puede poner armas para que disparen.

Debemos frenar el desarrollo de armas autónomas con capacidad de decisión, porque estamos creando cosas que no sabemos cómo funcionan ni qué efectos pueden tener, y esto es muy peligroso.

Nuevamente, el problema es que las empresas saben que si no lo hacen ellas lo harán otras, y al final se instala una especie de competición.

Estaría bien que hubiera algún tipo de certificación en este ámbito. Se debería empezar por los productos de consumo, como los altavoces inteligentes: si vas a una tienda y ves uno que está certificado y ha habido un estudio ético detrás que asegura que respeta la privacidad, es probable que compres ese y no otro.

La inteligencia artificial ética aun no es muy visible. Es un terreno nuevo.

Un tema en el que estoy trabajando es usar la IA para mejorar los procesos de presupuestos participativos.

Uno de los problemas es que participa poca gente, y está estudiado que generalmente las clases más desfavorecidas votan menos. Por lo tanto, esto implica sesgos en la selección de proyectos.

Hicimos un algoritmo que puede implementar el sistema de valores de la gente que no participa, ya sea porque no puede o porque no quiere, de manera que se tengan en cuenta sus sensibilidades.

El objetivo es minimizar los posibles sesgos que puedan acarrear decisiones votadas por solo unos pocos.

Lo interesante es que en nuestros experimentos hemos visto que podemos encontrar un buen equilibrio en el que los participantes estén satisfechos y que también represente a quienes no hayan participado.

 

 

En un plano teórico es posible codificar los algoritmos para que sean éticos.

Mi investigación se centra en los sistemas multiagentes (sistemas inteligentes que interactúan entre ellos). El objetivo es diseñar para el futuro, cuando la IA lo rodee todo, un sistema de normas que nos asegure que los sistemas estarán alineados con nuestros valores.

La inteligencia artificial se puede ver como una fórmula matemática que trata de cambiar el estado del mundo para intentar perfeccionarse ella misma, y aunque parece que tiene un comportamiento inteligente, no deja de ser un mecanismo de optimización.

Puedes ponerle normas en el código, o también modificar esa fórmula matemática para penalizar cuando incumple la norma. Solo querrá hacerlo bien, optará por lo que le ayude a llegar al objetivo de diseño de ese sistema, pero no sabe qué está haciendo.

En un plano teórico, es posible codificar los algoritmos para que sean éticos, pero luego esos algoritmos los usa alguien que puede saltarse esas normas, o sea que al final la inteligencia es tan ética como aquel que la usa.

Nuestra investigación se centra en ver cómo podemos conseguir que los algoritmos no tengan sesgos. Es un trabajo teórico para un futuro en el que imaginamos que conviviremos con sistemas sofisticados de IA.

Los problemas éticos de ChatGPT o Gemini se centran más en explicar lo generado, pero no puedes asegurar que lo que se genera tenga sentido.

El término aprendizaje automático tiene una fórmula matemática sofisticada que se va modificando, de manera que si le pides que te dé una ilustración de un gato, pues te busca una ilustración de un gato, pero no entiende qué es un gato.

Por muy parecido al de un humano que sea el texto que produce, solo genera resultados probables. No es nada inteligente, y menos aún emocional, aunque puede dar esa impresión.

También hay un problema en el terreno de la educación. Ya no es solo que los alumnos usen ChatGPT para hacer los deberes, sino que, si todos confiamos en este tipo de herramientas, el conocimiento humano desaparecerá.

Se equivocará el algoritmo y nadie sabrá que lo ha hecho. Y ya se ha visto que muchos modelos se inventan respuestas. En los paquetes de tabaco pone que fumar mata. Con la IA debería suceder lo mismo.

Debería crearse una especie de sello o certificación. La industria ha crecido rápidamente y los gobiernos siempre van más lento. Existe mucho desarrollo y poca certificación y regulación. Yo creo que esto al final se va a arreglar y hasta estaremos mejor, pero ahora es un momento peligroso.

El el reglamento europeo de la IA es un buen primer paso, pero, de todas formas, se ha sido demasiado permisivo con la IA generativa.

Por ejemplo, ChatGPT y otras herramientas similares son modelos de lenguaje. Su virtud es escribir texto que parezca humano, no escribir texto verdadero.

Sin embargo, las compañías nos las están vendiendo como tal. Por increíble que parezca, la gente pregunta a ChatGPT cosas como a qué partido debe votar en las próximas elecciones, si debe contratar a tal persona o qué medicamento tomar si presenta tales síntomas. Y ya no hablemos de preguntas del estilo “No tengo ganas de vivir, ¿qué debo hacer?”.

Creo que a la IA generativa se le debe exigir más. Hay temas de los que no pueden hablar y otros de los que sí, pueden, pero se le debe exigir garantías.

Una gran parte del debate hasta ahora se ha centrado en los derechos de autor, que también es muy importante, pero este otro debate también me parece crucial.

Creo que no deberíamos tenerlo miedo a la IA, pero sí, respeto; y deberíamos exigir como ciudadanos que los gobiernos se pongan manos a la obra y regulen esto bien.

Nosotros, los consumidores, no deberíamos usar los productos o servicios que consideremos que no cumplen unos ciertos estándares.

Si todos nos comportamos así, obligaremos a la industria a apostar por opciones más éticas”.

 

 

Creo que la fenomenal e inesperada irrupción del Chat GPT en el mercado hace un poco más de un año nos ha tomado a todos por sorpresa y con la guardia baja.

Todos sabíamos de la existencia de la IA y de gestión de los Mega Datos, aunque muy superficialmente. Creíamos que representaban cambios tecnológicos muy importantes, pero, honestamente, suponíamos que aún faltaba mucho tiempo para que hicieran acto de presencia en nuestra realidad diaria.

  

Sabíamos que mediante Google podíamos acceder prácticamente a todo lo que se nos cruzara en el camino iluminándonos, por ejemplo, con Wikipedia y otros sitios donde podíamos informarnos o aclarar nuestras dudas.

Pero ChatGPT fue algo distinto. Asombrosamente, cualquier pregunta que le hiciéramos se respondía al instante y con detalles que excedían nuestro pobre nivel de información.

Creo que fue la primera vez en la que realmente tomamos conciencia del inmenso poder de la Inteligencia Artificial, aunque sabemos que no lo es tal, ya que no razona…. por ahora.

El futuro es difícil de imaginar.

Sabemos que IOT, Big Data, IA, Computación Cuántica y otras nuevas tecnologías que surgen sin interrupción, representarán cambios paradigmáticos que afectarán a los puestos de trabajo y a las condiciones de vida de quienes vienen detrás nuestro en la constante evolución del Sapiens.

¡Quiera Dios que sean para un mayor bienestar de nuestra especie y no el instrumento de mezquinos intereses de unos pocos que pueden acabar con ella!       

0 comentarios

Comments


bottom of page