top of page

La IA ensancha la campaña sucia

H Alconada Mon, 2023


Estamos a un paso de cruzar la línea.

Y la pregunta es quién dará el siguiente paso. ¿Ocurrirá este año, durante la carrera por la presidencia en la Argentina? ¿Será el año próximo, cuando Joe Biden pugne por retener la Casa Blanca? ¿O abrirá la puerta un régimen autocrático de América Latina para perseguir a un enemigo interno? ¿Y quién será la víctima inaugural de la primera campaña sucia desarrollada con inteligencia artificial?

Estamos, de verdad, muy cerca. Lo que parecía imposible hace dos años ahora no sólo es posible, sino probable, coinciden los expertos a los que consulté en Estados Unidos, Alemania, Argentina y Uruguay.

Y ninguno de ellos, aclaro, sabe de oídas, por pura teoría. Todos experimentan con las herramientas de inteligencia artificial.

Uno de ellos, incluso, creó imágenes del dictador norcoreano Kim Jong Un paseando por Tokyo, enfundado en un jogging rojo; de París, arriba de una motoneta; de Nueva York, en una tienda de Apple; y Londres, con un impermeable; entre otras ciudades.

Pero, ¿qué pasará cuando los flirteos de la IA con el humor o la ironía se modifiquen y conviertan en ataques?

¿Podremos detectar que es falso un audio del presidente de nuestro país pidiendo sobornos? ¿O el de un megaempresario contándole a un amigo que infló los números de su compañía que cotiza en Wall Street?

Aclaro: ya existen programas que pueden imitar cualquier voz con sólo cargar unos minutos, o incluso segundos, de audios de la persona a imitar.

¿Suena a mucho? Probé una de esas herramientas –Resemble- y resulta inquietante. Todavía no es perfecta, pero le falta poco para lograrlo, y ese poco que falta, sea para que un video o audio o imagen nos engañe, puede ocurrir en cualquier momento.

Los expertos, cuatro hombres y una mujer consultados por separado, destacaron la aceleración exponencial que registraron estos desarrollos durante los últimos meses. Hay herramientas que salieron al mercado, en su versión Beta, hace un año o menos y por estos días ya van por su versión 5.1 o más. Resulta escalofriante.





Estas tecnologías, vale aclarar, no son buenas ni malas en sí.

Son como una pistola. En manos de un policía, pueden proteger del crimen a ciudadanos indefensos; pero en manos de un sicario, terminar con muchas vidas.

Lo mismo ocurre con estos avances tecnológicos.

Pueden ayudarnos a analizar bases inmensas de datos en minutos y encontrar patrones que nosotros jamás hubiéramos detectado. También pueden ayudarnos a segmentar los mensajes que queremos enviar para que cada uno de los destinatarios reciba la faceta de nuestra visión que más lo persuada. Pero también pueden exacerbar lo peor de nosotros mismos.

Recordemos cuáles son las operaciones de inteligencia más efectivas.

Son aquellas que combinan datos verdaderos con mentiras que confirman nuestros prejuicios o creencias.

Podría ser, por ejemplo, la imagen de la argentina Cristina Fernández de Kirchner ingresando a una bóveda oculta en la Patagonia donde yacen bolsos repletos de billetes de 500 euros.

U otra del expresidente Mauricio Macri mientras disfruta de escuchas telefónicas ilegales.

O del salvadoreño Nayib Bukele estrechando la mano de un líder de las maras.

O… se entiende la idea, ¿no?

Demos ahora el siguiente paso.

¿Cuándo y cómo sería el ataque con IA más efectivo durante una campaña presidencial muy cerrada y que dependerá, por tanto, del voto indeciso?

El ataque tendría que ser lo suficientemente cerca del día en que acudamos a las urnas, pero con margen suficiente para que muchísimos votantes caigan en el engaño. ¿48 horas antes de la elección, digamos?

Y tendría que ser a través de plataformas digitales como WhatsApp y Telegram para que los mismos usuarios lo viralicen sin que las autoridades o los periodistas lleguen a alertar a la comunidad.

En semejante contexto, que abarca otros muchos campos de nuestra vida cotidiana, pública y privada, quienes más saben han comenzado a levantar sus voces para alertar los riesgos que afrontamos.

Desde Elon Musk a Yuval Noah Harari y desde el cofundador de Apple, Steve Wozniak, al líder científico de IBM, Grady Booch, plantearon que deberíamos parar un poco la pelota, como mínimo, para evaluar mejor el panorama y los riesgos.

No es un planteo menor.

No lo es cuando, para variar, la legislación corre de atrás.

El Senado de México creó una Alianza Nacional de Inteligencia Artificial.

En Brasil presentaron un proyecto para regularla.

En Colombia, hay un Marco Ético desde 2020.

Y Argentina acaba de difundir la disposición 2/2023 con las Recomendaciones para una Inteligencia Artificial Fiable para promover “un ecosistema de IA ético y centrado en las personas”.

Pero todo eso –y otros varios ejemplos similares en el hemisferio- es insuficiente.

¿Por qué es insuficiente?

Porque cuando invocamos la ética, siempre hay alguien que pasará de largo. O muchos.

Sea por dinero, porque tiene los mismos parámetros éticos que una ameba o, más sencillo, porque se mueven en otra dimensión.

Ya lo dijo Michael Caine en la saga Batman de Christopher Nolan: “Algunas personas no buscan algo lógico como el dinero. No pueden ser comprados, no se los puede convencer ni negociar con ellos. Algunos hombres solo quieren ver al mundo arder”.

Y en el panorama que se abre ante nosotros, la inteligencia artificial puede ser el combustible a la espera de un fósforo.


0 comentarios

Comments


bottom of page