Usar la IA sin formación: un peligro creciente
Mi hijo de diez años utilizó esta semana una herramienta de inteligencia artificial para hacer los deberes. Estaba preocupado porque tenía que escribir un texto predictivo y no recordaba cómo estructurarlo. Sin pensárselo dos veces, se lo pidió al chatbot del teléfono, al que no aportó pautas ni contexto. El resultado fue impecable: tanto que parecía redactado por un universitario. Este ejemplo práctico sirve para ilustrar el principal problema al que se enfrentan los usuarios cuando recurren sin entrenamiento a la tecnología generativa: la máquina no sabe quién eres ni qué esperas de ella si no se lo explicas. Es el problema de usar IA sin formación.
Esa falta de comprensión del algoritmo provoca que, al enfrentarnos a sus respuestas, a menudo tengamos la sensación de que no es tan inteligente como nos habían hecho creer o que, en el peor de los casos, presentemos materiales incompletos, datos erróneos o trabajos que delatan, a simple vista, que no han sido creados por quienes los firman. Y no son excepciones, sino parte de una tendencia general. Según una encuesta de DE-CIX, operador de puntos de intercambio de Internet, seis de cada diez españoles utilizan herramientas basadas en inteligencia artificial en su día a día, aunque solo un 33% ha recibido formación en los últimos tres años. Cifra que refleja una realidad: la IA se ha infiltrado en nuestras rutinas –en el trabajo, la educación o la vida doméstica– mientras la capacidad de manejarla con criterio crítico aún va un paso por detrás.
Una confianza excesiva
El informe, publicado el mes pasado, muestra que un 78% de los encuestados percibe la inteligencia artificial como una aliada en su vida cotidiana y un 53% considera que mejora la eficiencia laboral. Sin embargo, esa confianza no siempre va acompañada de preparación técnica. La alfabetización en su uso –el aprendizaje de su lógica, limitaciones y riesgos– avanza a un ritmo más lento que su implantación. Es como tener una enciclopedia entre las manos sin que nadie nos haya explicado que las palabras se buscan por orden alfabético.
Aunque es habitual dar por hecho que la IA ‘entiende’ lo que queremos decir, los desarrolladores de las principales plataformas advierten lo contrario: la calidad de la respuesta depende directamente de la precisión de la pregunta. Por eso, las guías de uso y buenas prácticas de prompt engineering –ingeniería de instrucciones– insisten en algo fundamental: aportar contexto y dar instrucciones específicas. Hemos de incluir información básica sobre quién formula la solicitud (“soy alumno de 5º de Primaria”), con qué propósito (“necesito un texto predictivo para clase de lengua”), en qué formato (“un relato breve de unas diez líneas”), a quién va dirigido (“para mi profesor”) y con qué tono (“sencillo y fácil de entender por mis compañeros de curso”). Ese nivel de detalle permite al sistema situarse y generar un contenido coherente con la intención de quien realiza la consulta. No se trata de que el chatbot adivine lo que necesitamos, sino de explicárselo con claridad. “Los modelos no leen la mente, interpretan patrones” es una frase recurrente en el ecosistema digital.
Sesgos de todo tipo
Lo que nos lleva a plantearnos la siguiente cuestión: si estos modelos aprenden de los datos que generamos, ¿hasta qué punto reproducen nuestros propios patrones cognitivos? La Comisión Europea, en su informe The Ethics of Artificial Intelligence: Issues and Initiatives, explica que la inteligencia artificial, al ser creada y entrenada por humanos, incorpora sus sesgos y prejuicios. El documento cita ejemplos reveladores: bases de imágenes que muestran a las mujeres limpiando y a los hombres cazando; sistemas de predicción que señalan a los acusados afroamericanos como más propensos a delinquir; o herramientas de reclutamiento que ofrecen empleos mejor remunerados a los hombres y penalizan las solicitudes procedentes de universidades con una alta presencia femenina.
A estas distorsiones estructurales se suma otro riesgo creciente: el sesgo de automatización, es decir, la tendencia a confiar en exceso en los resultados de un sistema inteligente sin verificar su validez. Una “obediencia algorítmica” que puede derivar en errores graves cuando se aplican decisiones automáticas en ámbitos sensibles, desde diagnósticos médicos hasta procesos de selección o estrategias empresariales.