ARTÍCULO
¿Por qué es necesario incorporar visión de género a la robótica y la IA?
La profesora experta en aprendizaje virtual María Antonia Huertas propone en este artículo validar los métodos de aprendizaje de la inteligencia artificial para hacer robots no sexistas
La epistemología es la “teoría de los fundamentos y métodos del conocimiento científico”, según la RAE. En otras palabras, se ocupa de “la validez” del procedimiento que construye el conocimiento científico, es decir, el conocimiento sometido a las exigencias de precisión y objetividad propias de la metodología de las ciencias .
Por otro lado, la RAE define “inteligencia artificial” como la disciplina científica que se ocupa de crear programas informáticos que ejecutan operaciones comparables a las que realiza la mente humana, como el aprendizaje y el razonamiento lógico.
Si juntamos ambos conceptos, podemos decir que la epistemología de la inteligencia artificial se ocupa de la validez de los procedimientos para obtener los programas informáticos que simulan la inteligencia humana.
En tercer lugar, la RAE define feminista como “relativo al feminismo”; y feminismo como “principio de igualdad de derechos de la mujer y el hombre”.
Entonces, podemos decir que la epistemología feminista de la inteligencia artificial se ocupa de la validez de los procedimientos que siguen el principio de igualdad de derechos de la mujer y el hombre para obtener los programas informáticos que simulan la inteligencia humana.
Podemos encontrar definiciones mucho más elaboradas, pero para empezar, por simplicidad, vamos a trabajar con esta bien sencilla.
La importancia de la epistemología feminista
¿Por qué es necesaria la epistemología feminista? Es decir, ¿por qué es necesario validar procedimientos para obtener inteligencias artificiales que garanticen la igualdad de género? Para responder a esta pregunta vamos a ver un par de ejemplos ilustrativos.
Tay era una inteligencia artificial que se suponía que debía aprender leyendo tuits e interactuando con otros usuarios de la plataforma Twitter. En su descripción decía: “Cuanto más hablas, Tay se vuelve más lista”.
Pero con solo unas horas de funcionamiento Tay empezó a tuitear textos de contenido sexista y racista y tuvo que ser desconectada por Microsoft. En un principio Microsoft intentó acusar a un ataque de 4chan, pero nunca se pudo demostrar.
¿Qué había pasado?
Tay había sido programada para almacenar y procesar datos procedentes de conversaciones de tuiteros humanos de entre 18 y 24 años y así perfeccionar su lenguaje, aptitudes y actitudes millenial para parecer más humana. Pero, para obtener una inteligencia artificial no sexista y no racista, ¿era válido ese procedimiento de aprendizaje? Evidentemente no, porque habían obviado que el contenido de Twitter no garantizaba la necesaria igualdad de género.
Otros casos los encontramos en el robot humanoide Valkyrie, que fue diseñado por la NASA para soportar temperaturas extremas y sobrevivir en ambientes hostiles para la vida humana. También en el robot humanoide Sophia, el robot de IA más avanzado de Hanson Robotics creado con el objetivo de ayudar a la gente en campos reales como la medicina y la educación. Ambos son robots con características de mujer estereotipada.
Como en otros casos similares de robots “femeninas”, estos robots suelen tener ese aspecto hipersexualizado, innecesario para su cometido.
¿Qué elemento del procedimiento de construcción ha llevado a ese resultado?
Lucy Suchman, citada por Erika Hayasaki en su artículo Is AI Sexist? (2017), proporciona una explicación desde la epistemología feminista: «Para algunos diseñadores, los robots de género se convierten en un proyecto masculino de crear artificialmente a la mujer perfecta».
En ambos ejemplos, el componente sexista de la cultura patriarcal hegemónica es “invisible” para muchos de los diseñadores si son hombres (también, a menudo, si son mujeres, porque el sexismo es un elemento estructural de nuestra cultura).
La epistemología feminista hubiera proporcionado las gafas para hacerlo visible y poder analizar la validez o no de un procedimiento para obtener robots no sexistas.
[María Antonia Huertas Sánchez es profesora de los Estudios de Informática, Multimedia y Comunicación en la Universitat Oberta de Catalunya. Una versión de este artículo fue publicada en el blog de la UOC].