ÉTICA
José Ignacio Latorre: ¿necesitamos una nueva ética para la red?
Preguntamos al director del Centro de Tecnologías Cuánticas de Singapur nos ayuda cómo trasladar las leyes de la ética a los nuevos mundos virtuales. Por M. Martínez Euklidiadas
Ahora que llega el metaverso o se hace patente la presencia de la inteligencia artificial, ¿hace falta una nueva ética para la red? José Ignacio Latorre, físico cuántico, investigador y catedrático, fundador entre otras organizaciones del Centro de Investigación Cuántica de Abu Dabi y actual director del Centro de Tecnologías Cuánticas de Singapur, nos ayuda a entender la ética en tecnología.
-La internet está cambiando lentamente pero sin pausa. Ahora despunta el metaverso, una nueva dimensión online. ¿Es un espacio sin leyes éticas?
El metaverso es un lugar que se parece muchísimo a cosas que ya hemos visto. No es que no existan reglas éticas, sino que las reglas son autoimpuestas por ciertas corporaciones, norteamericanas en general. No es lo mismo la ética de Google que la ética de Amazon o la ética de Facebook. Son muy diferentes. Hay niveles éticos mucho más serios en Google, por ejemplo.
En esta empresa hay comités internos muy fuertes que, si existen en Facebook, no tienen el mismo rigor. Hablamos de una empresa que desinvirtió en Boston Dynamics por su vinculación militar o que retiró su inversión de las Google Glass por la invasión que se estaba produciendo. Cada empleado que trabaja para esta marca firma un código ético donde dice que no participará en proyectos militares. En otras plataformas no es así.
La ética en este ciberespacio generalizado depende de las corporaciones. Por lo tanto, la respuesta a la pregunta es un poco más sofisticada: sí que hay ética, pero depende de quién está involucrado. Lo que sí va a pasar, y va a pasar inmediatamente en unos dos años, es que entornos como es el europeo van a imponer restricciones muy severas a lo que está pasando.
-¿Qué tipo de restricciones?
Lo más importante, según mi opinión, es que se pasará una ley este mismo año para prohibir la extracción de cualquier dato europeo fuera del continente. Ahora nuestros datos van a la sede central de Google, Facebook, etc., y ahí son procesados. Pero en unos años, si quieren procesar nuestros datos, tendrán que tener una sede en Europa.
Eso es un principio ético que se empieza a imponer porque el uso que se hace de los datos está regido por la ley europea, que es muy garantista. Mientras que las no-leyes que no existen en otros continentes (ya ni te cuento en China) no ofrecen ningún tipo de garantía al ciudadano.
-¿Cómo afectará al metaverso y otras tecnologías?
Lo que va a pasar es que ese metaverso, y otras muchas aplicaciones, van a empezar a regionalizarse. A ser más propietarias del entorno geográfico. Y van a tener que adecuarse a sus leyes.
Mucha gente en Europa clama que esto es un error porque nos quedaremos atrás en ciertos desarrollos tecnológicos; mientras que otra dice que no queremos un desarrollo tecnológico para que todos vivamos peor desde el punto de vista ético. Eso está pasando. Está muy avanzado. En Singapur ya ha pasado.
-¿Singapur se ha convertido en una isla digital?
Está poniendo limitaciones del tránsito de datos hacia China. Ahora mismo Singapur tiene limitaciones en sus importaciones por la antigua relación con China, y ahora se busca cierto equilibrio.
-En lugar de una nueva aproximación ética de lo digital, pareciera que lo que haremos es adaptar la tecnología a la regulación ética de cada región.
Es lo que va a pasar. De hecho, en las grandes discusiones a las que he asistido en la Secretaría de Estado aprendí por qué es tan difícil legislar. Por ejemplo, tú quieres legislar sobre si habrá robots que hagan algo, pero el robot es una máquina y ya existe legislación que regula el uso de máquinas. Hay una legislación muy severa. Y eso pasa para casi todo.
Es muy difícil pensar que hace falta una nueva ley para regular toda la inteligencia artificial porque muchas partes de esa ley ya están escritas. Solo que están en compartimentos diferentes. Esa uniformización, o entender de forma global la tecnología, es lo difícil, así como la armonización de las leyes dentro de Europa.
Un ejemplo es la legislación de las fake news. ¿Cómo se regulan? Ya existen leyes sobre difamación. Se difama y miente desde que el tiempo es tiempo, lo único que cambia es que ahora es más fácil. ¿Hace falta una nueva ley o implementar la que ya tenemos? La UE lleva años discutiendo cómo abordar el problema. Hay países en los que se está de acuerdo con que el estado intervenga donde quiera, mientras que en otros creemos que el estado ha de tener supervisión.
No es trivial, pero que nadie piense que no se está haciendo nada. Hay mucho trabajo sobre la identidad digital, sobre las libertades, sobre las garantías que han de tener los niños o la gente mayor, por ejemplo. Sabemos que hay que regular la IA, ¿pero qué exactamente? ¿El uso? ¿El algoritmo? ¿Los efectos? ¿Ha de ser igual de dura la ley?
-¿Y se tiene alguna base ética sobre la que trabajar en estos temas?
Por ejemplo, la Unión Europea ha establecido que se va a trabajar en niveles sobre qué es relevante o no. Qué es crítico. Aplicaciones críticas son, por ejemplo, las que afectan a mucha gente. La salud, sin ir más lejos. Esas van a sufrir una legislación muy severa. Ahora, si tú quieres usar inteligencia artificial en una startup que hace mejor algo, no vas a encontrar muchas limitaciones.
El ejemplo último de ‘crítico’ son los diques de Ámsterdam. Para protegerlos de un ciberataque, no están conectados a internet. No puede haber un ciberataque ruso que inunde Ámsterdam por internet porque los diques se controlan in situ. Es tan crítico que la ley es extrema: está prohibido tener internet ahí.
Las directrices europeas están escritas, ahora les toca a los estados europeos trasladarlas a sus leyes. Los estados rápidos no son, pero al menos las directrices están y son muy razonables. Han participado centenares de personas de toda la cultura europea para hacer algo que tenga cara y ojos.
Ahora, la dificultad se ve de lejos, motivo por el que no veremos la legislación en Estados Unidos o China. Europa es el último bastión de la ética. Es el reducto de la cultura, y nos hemos de sentir muy orgullosos de estar aquí.
-Esto hará más difícil la vida en Panóptico, esa vigilancia continua y orwelliana. ¿Estamos saliendo del capitalismo de vigilancia?
Creo que en Europa sí. En Singapur es al revés: se aumenta la vigilancia. Me han hecho tomar un curso de que si veo que algo no es correcto, lo denuncie. En mi opinión sobre el curso que me obligaron a tomar dije que una sociedad en la que todo el mundo vigila a todo el mundo no es feliz, va a lograr un efecto contrario.
En el condominio en el que vivo han puesto un robot para ver si los niños se comportan bien. Fui a quejarme y les dije que en los últimos cinco años había habido cero crímenes, y el director del condominio me confirmó que no era el único que se quejaba.
En España las apps de seguimiento no han funcionado. En Singapur han funcionado rigurosamente. En Europa la política de surveillance ha de llegar a un equilibrio en pros y contras. Ha de haber algo de vigilancia, eso sin duda.
-De todo esto, ¿es consciente el usuario medio?
No, para nada. Por eso existe Levanta la Cabeza, ¿no? Mira, yo he dado docenas de charlas de inteligencia artificial y ética. Las preguntas que me hacen antes y después revelan que ni siquiera las personas con educación tienen la más remota idea de cómo funciona esto. El desconocimiento es masivo y profundo.
No es muy diferente de otros ámbitos. Vivimos en una sociedad muy organizada y estructurada, pero vivimos como si todo esto no existiese. Somos usuarios intensivos de un mundo del que no somos conscientes. Damos por garantizado el sistema. La única solución es la educación.