Sesgos en la inteligencia artificial: así se crean
Supongamos que la policía llama a la puerta de tu casa y te detiene sin comunicarte el motivo de tu arresto. Sabes que no has cometido ningún delito, pero cuando, horas después, te interrogan en la comisaría, los agentes lo tienen claro: un sistema de reconocimiento facial te sitúa en la escena de un robo. Puede parecer la trama de una historia de ciencia ficción, pero es lo que le ocurrió a Robert Julian-Borchak Williams, un hombre de Detroit (Míchigan) que ahora tiene antecedentes penales por culpa de sus rasgos afroamericanos y los sesgos de la inteligencia artificial. Al final, Williams salió en libertad bajo fianza por falta de pruebas, pero la policía estadounidense continúa utilizando esta tecnología como legítima. Franz Kafka predijo en El proceso lo que cien años después le ha ocurrido a este ciudadano de Detroit.
A Josef K., protagonista de esta novela póstuma, se le juzga por un crimen que nunca se le especifica, y acaba envuelto en un sistema judicial opaco. El escritor checo expone con esta historia la impotencia ante un sistema deshumanizante que hoy se hace realidad a través de algunos algoritmos de inteligencia artificial (IA). Estas herramientas, que a veces generan falsos positivos que se aceptan como auténticos, operan como una especie de caja negra en la que es difícil comprender cómo se toman las decisiones.
Para entender por qué la tecnología no es neutra, antes necesitamos saber cómo se origina. Vamos a descubrirlo con un ejemplo sencillo. La IA funciona como un sistema que aprende a partir de datos y, aunque (de momento) no es capaz de pensar como los humanos, imita, mediante el reconocimiento de patrones, cómo toma las decisiones nuestro cerebro. Para replicarlo, analiza primero la información y después hace predicciones. Así que imagina que para llevar a cabo este entrenamiento, enseñas a la máquina cientos de fotos de perros y gatos. Al principio, no podrá distinguirlos, pero con cada imagen aprenderá qué detalles hacen que un animal sea uno u otro. Ahora imagina que en ese entrenamiento solo le muestras fotos de perros marrones y negros. Cuando vea uno blanco, el sistema no lo reconocerá o lo confundirá con otro animal.
Porque la IA entiende el mundo solamente a través de los datos que le proporcionamos y, si estos tienen prejuicios o no representan a determinados grupos de personas, reproducirá esos sesgos. Algunos métodos de machine learning (una rama de la IA que hace referencia al aprendizaje automático, como el que se emplea para generar los sistemas de reconocimiento facial) se han entrenado con aprendizaje no supervisado, es decir, que las máquinas reciben un objetivo y simplemente aprenden a cumplirlo de forma autónoma, mediante el procesamiento de millones de datos y sin supervisión humana. Y llegados a ese punto, nadie, ni tan siquiera los creadores de la herramienta, pueden explicar cómo funciona.