Lección 10
¿Sabe la IA lo que está bien y lo que está mal?
El sesgo algorítmico

El sesgo algorítmico

Hay otro término muy importante relacionado con la ética de la IA. Se trata del sesgo algorítmico. Ya sabes que un algoritmo es una secuencia de instrucciones que se dan para alcanzar un objetivo. ¿Te acuerdas del algoritmo para cepillarte los dientes?

¿Pero qué es el sesgo? El sesgo ocurre cuando nuestras mentes prefieren una idea o decisión sin considerar otras opciones, como si miraras siempre en una dirección y te perdieras ver otras cosas que podrían ser importantes.

Imagina que estás entrenando una IA para que te recomiende películas que os puedan gustar a ti y a tus amigos. Para enseñar a esa IA, le das muchos ejemplos de películas y le dices si os gustan o no (¡datos!). Así va aprendiendo de tus ejemplos.

¿Que pasa si tus amigos y tú solo veis películas de acción (como las de TransformersFast & Furious)? En ese caso la IA pensará que solo las películas de acción son buenas y que a todo el mundo le gustan, así que nunca le recomendará a nadie una película de risa o romántica. ¡Eso es un sesgo!

Si a una IA solo le enseñamos que las manzanas rojas son deliciosas, cuando vea una manzana verde o amarilla no querrá ni probarla. ¡Eso es un sesgo!

El sesgo algorítmico ocurre cuando la IA toma decisiones basadas en ejemplos que pueden no representar a todo el mundo. Puede hacer que la IA piense que algunas cosas son verdad para todas las personas, cuando en realidad no lo son.

El sesgo algorítmico hace que la IA tenga una idea equivocada del mundo porque solo le hemos enseñado una parte de él. Por eso, tenemos que tener mucho cuidado a la hora de seleccionar los datos de entrenamiento, porque podrían generar problemas al favorecer a personas o situaciones, discriminando a otras. Es importante asegurarnos de que la IA aprende de muchas cosas diferentes para ser justa y tratar a todos por igual.

Te dejo aquí abajo un vídeo que te cuenta algunas cosas más sobre los sesgos y la IA.

¿Conoces la historia de Joy Buolamwini? Se trata de una investigadora en IA que descubrió que algunos algoritmos de reconocimiento facial (es decir, IA capaz de reconocer las caras de las personas) de empresas muy importantes (como IBMMicrosoft) funcionaban mucho peor con mujeres y con personas de piel oscura.

¿Por qué sucedía esto? Porque esos algoritmos fueron entrenados con muchas más fotos de hombres que de mujeres y con más fotos de gente de piel blanca que de piel oscura. Ese sesgo algorítmico hacía que la IA funcionara peor con determinadas personas. ¡Eso no es justo!

Hay una peli titulada Sesgo codificado (Coded bias en inglés) que cuenta la historia de Joy y cómo descubrió el sesgo de estos sistemas.

(Imagen Niccolò Caranti, CC BY-SA 4.0, via Wikimedia Commons)
Joy descubrió que la IA de algunas empresas importantes no reconocía bien las caras de las mujeres y de gente de piel oscura. ¡Eso es un sesgo!

Como ves, no solo es importante tener buenos datos para que una IA aprenda bien, sino que con malos datos además puede comportarse de manera muy injusta con algunas personas. Hay que tener mucho cuidado para seleccionar buenos datos de entrenamiento.

En la siguiente sección te enseño más cosas importantes a tener en cuenta para que la IA se comporte bien con las personas.