IA y opinión: ¿es capaz de modificar nuestras decisiones?
Si tu médico te aconseja hacer deporte y comer más sano para tener una mayor calidad de vida y evitar enfermedades, la recomendación parece bastante lógica y, sobre todo, creíble. Principalmente porque procede de un experto. Pero, ¿qué ocurre si ese mismo plan de vida te lo sugiriera una inteligencia artificial? En un artículo publicado hace pocas semanas en la revista Time, Sam Altman, director ejecutivo de OpenAI, y Arianna Huffington, fundadora y directora de Thrive Global, sugieren que la IA podría tener un enorme impacto positivo en la salud pública ya que, según afirman, nos convencería de modificar nuestros hábitos para bien.
“Toda invención se vende siempre con un halo de bondad infinita. La idea de Sam Altman de disponer de un mentor, un guía o un terapeuta 24 horas, 7 días a la semana parece salvífico. ¿Cabe un mundo mejor? No digo que no pueda tener ciertos beneficios, pero también debemos avisar de los posibles peligros. La disponibilidad eterna puede llevar a la adicción; la idea de un mundo siempre hermoso predispone a confundir lo bueno por lo bello, lo ético por lo estético; la sobreabundancia de un mismo tipo de contenido lleva a la estupidez”, alerta Juan Ignacio Rouyet, profesor experto en inteligencia artificial de la Universidad Internacional de La Rioja (UNIR). Porque el peligro no es tanto que la IA interfiera en nuestros pensamientos y opinión—al fin y al cabo todos los días nos exponemos a líderes de opinión— sino en quién está detrás y decide qué es lo bueno y qué lo malo.
El juego de los algoritmos
Que la IA está cambiando algunas de nuestras opiniones es ya una realidad. Solo hace falta entrar en las redes sociales para comprobar cómo los algoritmos descartan y seleccionan contenidos con el fin de que consumamos solo lo que queremos ver, es decir, una única parte de la historia. “Desde hace un año tenemos la IA generativa, visible y deslumbrante, pero existe una IA oculta que viene trabajando desde hace años: se encuentra en múltiples aplicaciones móviles o de Internet y nos ofrecen recomendaciones, propuestas para ver películas, comprar artículos o leer noticias. Esta tecnología ya está modificando nuestras opiniones y comportamientos. Ahora la IA generativa, con su capacidad de manejar el lenguaje natural te da además argumentos para ver esa película o leer una publicación, pero no necesariamente tienen que ser argumentos libres basadas en la razón; pueden ser soflamas interesadas por alguien a quien no ves”, explica Rouyet.
Hasta hoy la IA sí puede modificar nuestros gustos y hábitos de consumo o, mal utilizada, interferir en incluso nuestra decisión de voto —”Tenemos el caso de Cambridge Analytica que recopiló millones de datos de usuarios de Facebook sin su consentimiento para influir a favor de la campaña presidencial de Donald Trump de 2016”, recuerda Juan Ignacio Rouyet— pero si nos preguntamos si puede cambiar nuestra opinión a través del método humano más antiguo y efectivo, el debate, la respuesta es no. Al menos de momento.
Una IA sin argumentos
En el podcast Tiene sentido, el divulgador y formador en inteligencia artificial Jon Hernández es categórico: “No creo que la IA nos manipule. Primero porque no es consciente aún y no lo digo yo, lo dice Joshua Bengio que es quizás uno de los científicos más importantes del mundo, que dice que no han encontrado indicios de consciencia en la IA actual. Y si no eres consciente no puedes manipular”. Juan Ignacio Rouyet añade: “La IA no debate, no argumenta. La IA calcula frases probables. Para debatir o argumentar es necesaria la capacidad de pensar, que consiste en comprender el contexto y emitir juicios”.
Para el profesor de la UNIR no se trata tanto de quién está detrás sino de “saber cómo ha sido entrenada la IA, con qué criterios se le ha dicho que esto es correcto o incorrecto, qué cuestiones valora más o valora menos. En definitiva, saber por qué nos ofrece un cierto texto como resumen de un documento. Eso no lo sabemos. Debemos creer en la buena fe de sus diseñadores”. Es por eso que Jon Hernández avisa en el podcast de la importancia de saber a lo que nos atenemos: “ChatGPT no te dice la verdad ni está entrenado para decirte la verdad. Está entrenado para darnos una respuesta que nos guste”.
Ser muy humanos
Aunque la evolución de los chatbots pueda generar cierto miedo e incertidumbre, tenemos una buena noticia: la IA no está viva, solo procesa la información pero no la entiende. Así que evitar que interfiera en nuestras opiniones es tan fácil como ser lo más humanos posibles y utilizar lo que la IA no tiene: el pensamiento crítico. Juan Ignacio Rouyet nos aconseja “buscar distintas fuentes y beber de fuentes conocidas. Un pensamiento sano se ejercita viendo distintos puntos de vista. Posiblemente tengas una publicación preferida o sigas a influencers incuestionables. Aún así, busca ideas alternativas, sopesa y decide. Confía solo en fuentes reconocidas. No siempre el más simpático, más atractivo y con más iluminación tiene porqué decir la verdad. Lo malo de todo esto es que exige esfuerzo. Lo bueno: que te mantiene vivo”.
Pero además de nuestro pensamiento crítico, ¿deberían también protegernos las leyes? “La regulación es imprescindible. Toda actividad humana está regulada y ello no impide realizar dicha actividad, al contrario, la realizamos con más seguridad. Pero no es suficiente. La regulación consiste en acciones que se llaman ex post, es decir, la ley actúa una vez que se ha cometido el delito. Son necesarias acciones previas, dos en particular: la auditoría y la formación. Es necesario articular mecanismos que permitan asegurar que una organización está haciendo lo correcto, que tiene sus procesos y mecanismos de control vigentes para evitar errores o mal uso. Y debemos formar a la sociedad en la comprensión y uso de la IA. Alertarle de los riesgos, sin alarmismos, pero con la capacidad de poder evitarlos. Como sabemos que hay riesgo de atropello, y podemos cruzar por un paso de cebra”. Una vez más el conocimiento es poder.