REVOLUCIÓN TECNOLÓGICA
Borja Adsuara (OdiseIA): "Necesitamos una inteligencia artificial ética e inclusiva"
El propósito de este abogado y consultor digital es explicar las bondades de la IA sin caer en la ingenuidad. Es el responsable de divulgación de OdiseIA, plataforma española que fomenta el buen uso de los algoritmos entrenados para tomar decisiones
Un físico, un médico, un matemático, un catedrático de Derecho Constitucional, un consultor digital, una ingeniera ex de IBM, un experto en gestión de proyectos, un observador de la transformación digital, una doctora en inteligencia artificial (IA), una catedrática en Ciencias de la Computación, un integrador de conocimientos, un letrado del Consejo de Estado, dos periodistas especializadas en tecnología y un impulsor del uso del big data. Todos tienen su trabajo en empresas solventes o son reconocidos profesionales. A título particular, han montado este dream team para influir y crear un espacio de “debate y acción” que fomente el buen uso de la inteligencia artificial (IA), una de las tecnologías más rompedoras y que más recelos crea. Se hacen llamar OdiseIA, el embrión se formó en la Universidad CEU San Pablo y piensan que o la inteligencia artificial es inclusiva o no es inteligencia.
Levanta la cabeza ha charlado con el director del Área de Divulgación de OdiseIA, Borja Adsuara, abogado y consultor experto en comunicación digital, para que nos explique quiénes son los malos de esta película, de esta revolución tecnológica que a ratos parece una distopía televisiva. “La tecnología es neutral, no es mala ni buena. No hay que tener miedo a la IA, solo al ser humano porque la maldad es humana. Si las máquinas hacen cosas malas es porque detrás hay un ser humano malvado que lo ha programado”. Después de leer esta entrevista, tienes dos opciones, ver Black mirror o preguntar a OdiseIA de qué va todo esto.
¿Qué es OdiseIA y por qué es tan importante la inteligencia artificial?
OdiseIA es una plataforma de profesionales interesada en el buen uso de la inteligencia artificial, una tecnología que está en pañales. Cuando hay desconocimiento sobre un tema, ganan los temores irracionales. En mi caso, llevo más de 20 años haciendo pedagogía con la tecnología y me he dado cuenta de que hay proyectos de IA a los que se destinan cientos de millones y apenas unos pocos euros para hacer pedagogía.
Hacer pedagogía de una tecnología tan disruptiva y poco accesible para el común de los mortales es complicado.
Una opción es explicarlo con la pedagogía de Barrio Sésamo, por eso me he puesto el perfil de Coco, ese personaje que aclaraba lo que era arriba y abajo, dentro y fuera. Yo he traducido Coco como Conocimiento=Comunicación, tú no sabes lo que lees, sino lo que eres capaz de explicar con tus palabras. La idea es defender una IA para las personas, con una orientación humana. ¿Por qué? Porque si no las grandes tecnológicas harán una IA destinada únicamente al beneficio, con las discriminaciones injustas que puedan producirse. Y por otro lado, si no hay una explicación clara y sencilla, mucha gente tendrá reparos a cualquier desarrollo de la IA aunque sea bueno. Cualquier tecnología es neutral. El objetivo es evitar los usos indeseables pero sin perdernos sus usos buenos, como por ejemplo en la lucha contra el cáncer. Criminalizar o demonizar la IA es perdernos los buenos usos de esta tecnología.
¿Y cómo definiría ‘Coco’ la inteligencia artificial?
Hay que partir de que la inteligencia es una cualidad humana y ¿qué es la inteligencia? Para no complicarme hablo de tres inteligencias. Primero está la reptiliana, la que regula los automatismos como el control de esfínteres, la circulación de la sangre o la respiración. Es el primer tipo de inteligencia que aplican las ciudades inteligentes, automatizan con sensores la recogida de basuras, la calidad del aire o la movilidad. Sería una inteligencia muy básica. Luego esta la inteligencia propia del ser humano, la racional, la que toma decisiones. Si tienes muchos datos y los cruzas, puedes tomar decisiones con la razón. Esa inteligencia es la IA, que extrae datos del entorno y con algoritmos de razonamiento que sean seguros y efectivos produce cambios en el entorno. Y hay otra inteligencia a la que no ha llegado la IA, que es la emocional. Estamos muy verdes en la racional y no ha llegado, y no sabemos si llegará, la emocional, que es cuando la IA toma conciencia de sí misma.
¿En la práctica?
El ejemplo son las administraciones públicas. Imaginemos la administración de Justicia. Se pueden automatizar muchas tareas para ayudar a los jueces pero nadie querría que le juzgase una máquina, todos queremos que nos juzgue un ser humano. La IA es como un niño que está empezando a ir al cole, tiene que depurar mucho los algoritmos para que no tome decisiones injustas. Siempre tendrá que ser supervisado por un humano porque los conceptos de equidad y justicia no los pueden llevar a cabo. Por eso necesitamos una inteligencia artificial ética.
¿Por qué no debemos temer a la IA?
En realidad hay que tener miedo a la inteligencia natural, al ser humano. La maldad es humana. Si las máquinas hacen cosas malas es porque detrás hay un ser humano malvado que lo ha programado. Las máquinas son neutrales, por eso hay que supervisar y meter mano al humano que hace un mal uso de la tecnología.
Ayer, casi 2.000 científicos, sociólogos, antropólogos y juristas condenaron el uso de la IA en el desarrollo de algoritmos para predecir crímenes basándose en datos biométricos, en el rostro de las personas, porque tienen un sesgo racial que puede perjudicar a las personas negras. Esta videovigilancia con reconocimiento facial basada sería un ejemplo de mal uso de la IA.
Claro. La tecnología de reconocimiento facial no es mala en sí misma si la usa un banco para que puedas sacar efectivo de un cajero, para que se desbloquee tu teléfono o para luchar contra el terrorismo en un aeropuerto. Ahora bien, si es como en China, donde utilizan el el reconocimiento facial para saber qué haces en todo momento, pues no. La gran baza de Europa en esta guerra entre EE. UU. y China son los derechos humanos, somos los que mejor regulamos.
¿A qué te refieres con una IA inclusiva?
Básicamente es hacer efectivo el principio de no discriminación en el desarrollo y uso de la inteligencia artificial. Voy más allá. La discriminación tiene un sesgo peyorativo pero discriminar es distinguir. Si eres un banco y tienes que dar un crédito, tienes que distinguir el riesgo de los solicitantes. Lo que debe condenarse es la discriminación injusta. Evitar la discriminación injusta y favorecer la discriminación positiva para que haya igualdad de oportunidades.
¿Qué papel ha tenido la IA durante la crisis sanitaria provocada por el coronavirus?
Menos del que cree la gente. Va a tener más impacto en la búsqueda de la vacuna que en la detección y rastreo de los contagios porque como me decía el otro día un epidemiólogo, una app de rastreo del coronavirus funciona cuando está integrada en una estrategia global con una buena infraestructura de atención primaria y una buena red de rastreadores humanos.
¿Está España en una buena posición en el desarrollo de la IA?
Tenemos grandes expertos reconocidos internacionalmente, hay españoles trabajando en MIT (Massachusetts Institute of Technology), al frente de la IA en Google o IBM… El talento español se aprecia. Ahora se ha creado la Secretaria de Estado de IA.
Una de las enseñanzas de la pandemia es la importancia de la colaboración entre la gente que tiene el conocimiento.
Lo bueno de los que trabajamos en inteligencia artificial es que replicamos el funcionamiento de la red neuronal. Somos neuronas que nos conectamos unas con otras. Estamos en contacto todos con todos. Una neurona tiene un chispazo y se lo comunica a las demás. OdiseIA es lo mismo. No hay jerarquías, somos neuronas interconectadas, nos reconocemos y salen iniciativas. El teletrabajo ha influido para ese trabajo en red, estás más libre para relacionarte con gente que no está en tu edificio y buscas el conocimiento allá donde esté. Buscas el conocimiento entre los que están en tu empresa y los que no. Se venía haciendo pero se nota más cuando hay una emergencia como esta .
Qué ha hecho OdiseIA?
Seminarios sobre aplicación de IA, inteligencia artificial inclusiva, libros divulgativos… Aspiramos a ser consultados por los gobiernos, aquí y en Europa. Es una plataforma que pretende influir. Lo importante ahora es que la sociedad entienda que los posibles malos usos que hay que vigilar no nos pueden impedir beneficiarnos de los buenos usos de la IA.
Borja Adsuara formó parte del equipo de abogados que impulsó el recurso de inconstitucionalidad presentado por el Defensor del Pueblo contra el artículo de la Ley de Protección de Datos que permitía a los partidos políticos la recopilación de las opiniones de los ciudadanos para crear perfiles ideológicos. Y el Constitucional le dio la razón.
“No soy tecno-optimista. Soy realista. Creo que la tecnología no nos deshumaniza porque no hay nada más humano que la tecnología. El primer ser humano fue el Homo faber, el que era capaz de fabricar herramientas. Pero es verdad que no hay nada más humano que la maldad, por eso soy realista, porque no me fío de los humanos”. Fin de la entrevista.
Los mas vistos
1
Compromiso Atresmedia
El uso de la IA para desnudar a personas aumenta en verano
2
Compromiso Atresmedia
La IA impacta en la educación: el 80 % de los estudiantes españoles ha utilizado herramientas de inteligencia artificial
3
Compromiso Atresmedia
Solo un tercio de las personas con discapacidad intelectual utiliza internet