DEBATE
¿Deben los gobiernos poner límites a la inteligencia artificial?
¿Cómo controlar el avance de una tecnología que tiene potencial para tanto bien y mal?
La Comisión Europea acaba de publicar el Libro Blanco sobre Inteligencia Artificial, donde recoge los retos y los beneficios que ofrece esta tecnología. Entre otras cuestiones, plantea una serie de restricciones al uso de reconocimiento facial en espacios públicos, pues puede vulnerar los derechos de los ciudadanos.
La inteligencia artificial representa una oportunidad de progreso social similar a la revolución industrial o la implementación de los primeros computadores. Sin embargo, también puede representar el fin de muchas de las libertades que la sociedad ha disfrutado hasta ahora.
Esta tecnología nos ha brindado maravillosas aplicaciones, como la detección temprana de cáncer, la educación personalizada o la optimización del consumo energético. Pero también otras aterradoras, como la generación de vídeos ficticios de personas reales, la identificación de una persona a través de una simple foto o la creación de soldados cibernéticos. ¿Cómo controlar el avance de una tecnología que tiene potencial para tanto bien y mal?
Límites éticos
La película Minority Report ya nos presentaba un mundo futurista en el que podíamos predecir cuándo se iba a cometer un crimen para evitarlo. Un universo que puede no ser tan lejano, teniendo en cuenta las aplicaciones actuales de la inteligencia artificial para predecir las probabilidades de delinquir y para identificar personas a través de cámaras de vídeo.
La película planteaba el conflicto ético de condenar a alguien por algo que todavía no había hecho: ¿y si la predicción está equivocada?
Las preguntas sobre límites éticos y científicos históricamente asociadas a las vías biosanitarias o de las ciencias sociales se han trasladado también a la inteligencia artificial. Tradicionalmente, los comités de ética han sido los encargados de aprobar las investigaciones que podían desarrollarse.
Mientras que los límites en otros contextos se encuentran más claramente definidos, el rápido avance de la inteligencia artificial los está haciendo muy borrosos. ¿Dónde está la línea que separa una aplicación de la inteligencia artificial positiva para la sociedad de una que afecta a la libertad y privacidad de los ciudadanos?
Estableciendo las fronteras
Esta cuestión se encuentra en la intersección de múltiples disciplinas, como la filosofía, la privacidad, la ética y la seguridad. Por eso, deberán ser comités multidisciplinares de expertos a nivel europeo los que sienten las bases del tipo de sociedad en la que queremos convertirnos en unas décadas.
Estas decisiones pueden trasladarse a los investigadores a través del tipo de proyectos que se financian en convocatorias competitivas y ser reguladas a través de los comités de ética de cada institución investigadora.
Por su parte, los estados deberán de aplicarlas en sus programas nacionales, una cuestión que puede surgir cuando tengan que tomar decisiones sensibles en competencias de seguridad ciudadana o defensa.
Introducir programas para evaluar las iniciativas de inteligencia artificial implementadas a gran escala y situar a la sociedad en el centro de estas aplicaciones serán dos claves fundamentales para que no generen rechazo y nos desviemos del camino correcto.
La línea establecida no debe ser inamovible, y deberá revisarse de forma periódica conforme la investigación y las aplicaciones de la inteligencia artificial vayan evolucionando y se pueda analizar el impacto que tienen sobre la sociedad.
El papel de la ciudadanía
Estas directrices podrán guiar el tipo de propuestas que se plantean e implementan en las instituciones públicas y privadas, pero, ¿se debe controlar aquello que ya está al alcance del ciudadano medio?
La democratización de la tecnología está permitiendo al ciudadano utilizar en ambientes domésticos herramientas que antes solo eran accesibles para científicos.
El documental de Netflix 'Unnatural Selection' refleja esta tendencia al mostrar cómo algunas personas adquieren kits para realizar edición genética en casa con CRISPR. Plantea así la problemática de establecer los límites éticos de otra tecnología que tiene potencial para tantos beneficios sociales, pero que también puede utilizarse para jugar a ser dioses.
Antes se necesitaban superordenadores que ocupaban habitaciones enteras para recopilar datos a gran escala. Ahora, gracias a los avances de la inteligencia artificial y de otros campos, basta con el ordenador de un usuario medio y la información públicamente accesible en Internet.
Aunque una bomba también se puede fabricar en casa fácilmente, no es una práctica muy común en la sociedad. La mayoría conocemos sus posibles fines dañinos. Por eso, también en el caso de la IA, las instituciones educacionales a todos los niveles y divulgadores tendrán el papel fundamental de educar y concienciar socialmente sobre dónde se encuentran los límites. Es importante que centren su discurso en los posibles beneficios para evitar el rechazo social y las aplicaciones que generen conflictos éticos.
Mirando hacia el futuro
Como cualquier otra tecnología, la inteligencia artificial no es perversa o bondadosa en sí misma. Son las aplicaciones que los humanos le damos las que dictan su posible impacto positivo o negativo en la sociedad.
No podemos retrasar más las discusiones necesarias para establecer los límites y determinar cuáles son las direcciones correctas para avanzar. Por eso la Comisión Europea ya se ha puesto en marcha.
En materia de reconocimiento facial o generación automática de contenido, si no se establecen pronto unos límites éticos, correremos el riesgo de no saber diferenciar lo que proviene del mundo real de lo generado por una máquina.
---------------------------------
Este artículo lleva la firma de José A. Ruipérez Valiente, investigador Juan de la Cierva de la Universidad de Murcia, y fue publicado originalmente por The Conversation.