Cremades & Calvo-Sotelo Abogados
Llevamos meses leyendo y escuchando hablar de la regulación de la Inteligencia Artificial, liderada por la Unión Europea y que, probablemente, tenga un impacto global. Tras el acuerdo alcanzado por las instituciones Europas para la aprobación de un texto definitivo, nos siguen surgiendo numerosas preguntas sobre la propia IA, la ética en su utilización y la propia regulación de la tecnología.
La primera pregunta que deberíamos hacernos antes de lanzarnos al desarrollo y creación de aplicaciones y herramientas basadas en inteligencia artificial e, incluso ante cualquier tecnología, es si dicha herramienta es realmente necesaria.
Es necesario hacer una valoración de los riesgos que implica el desarrollo de este tipo de tecnologías y el impacto real, es decir, como afectará en la práctica y nuestro día a día este tipo de herramientas y aplicaciones. Especialmente, porque pueden tener un impacto sobre nuestros derechos y es muy relevante tener claro cuál es el objetivo que perseguimos, desde un primer momento, y cual es el escenario que queremos alcanzar.
Desde Europa, la regulación responde a este tipo de planteamiento, en mi opinión, es el motivo por el que se pretende regular la Inteligencia Artificial en función de los riesgos que implica dicha tecnología, distinguiendo entre las aplicaciones que implican un mayor riesgo y un menor riesgo. Una vez definido el riesgo, la herramienta, solución o aplicación, como queramos llamarla, estará sujeta a unos requisitos más o menos estrictos.
Así se distinguen aquellas aplicaciones que conllevan un
- Riesgo mínimo como los algoritmos de recomendación o los filtros antispam y que estarán sujetos al cumplimiento de condiciones básicas como el respeto al derecho de los usuarios.
- Aquellas con un riesgo medio o limitado, como pueden ser los chatbots conversacionales, a las que se imponen obligaciones adicionales de transparencia, se entiendo que tenemos derecho a saber que estamos interactuando con IA.
- las de alto riesgo, porque pueden implicar limitaciones o impactar sobre nuestros derechos: por ejemplo, sistemas de identificación biométrica, de protección de infraestructuras críticas, de selección y promoción de personal, requerirán de obligaciones más estrictas como examinar el impacto que pueden tener sobre nuestros derechos fundamentales
- Aquellas que conllevan un Riesgo inaceptable y, por tanto, quedarían prohibidas, al considerar que pueden causar un daño a los seres humanos, como aquellas dirigidas a la manipulación de personas o grupos de personas.
Otra pregunta que debemos hacernos y, a la cual, trata de dar respuesta la nueva regulación es ¿cuál es el límite entre tecnología y derechos humanos (intimidad, imagen, no discriminación)?
La regulación ha optado en realizar la correspondiente evaluación del impacto que la tecnología puede tener sobre los derechos humanos en aquellos casos en los que la aplicación, herramienta o solución, basadas en tecnologías de IA, pueda conllevar un alto riesgo, como he dicho antes, en casos de sistemas de identificación biométrica, soluciones de selección de empleo o sistemas para evaluar solvencia, como ejemplos.
No obstante, el respeto a los derechos humanos tales como la intimida, la dignidad y la no discriminación deben estar presentes en todas las tecnologías con independencia de su riesgo, porque a fin de cuentas son derechos universales que nos afectan a todos, cuando dicho universal, no me refiero únicamente a que la Declaración Universal de los derechos Humanos utilice el término “universal”, sino a que este término realmente alude a que los llamados y consagrados como derechos humanos, son inherentes a todo ser humano y, más allá, de toda ideología, raza, religión o género, estos derechos protegen la dignidad y el anhelo de todo ser humano. No podemos saltarnos estos principios que, al fin y al cabo, como hemos querido llamarlos son universales.
Lo que cuento no es nuevo, es algo que tenemos claro todos, pero la cuestión es como llevar a la práctica este conflicto entre la innovación tecnológica y el respeto a nuestros derechos, sin que nos impida seguir progresando y, al mismo tiempo, no repercuta en la discriminación de determinados colectivos o una merma de nuestros derechos.
El reto es inmenso y da vértigo, pero es real y ahora es el momento de asumirlo, más adelante, será difícil dar marcha atrás. Por eso es muy importante que, desde las instituciones europeas, se haya dado este paso de empezar a regular la IA y, al menos tratar de llevar a cabo la regulación, con el ser humano en el centro de la regulación.
El problema es delimitar donde ponemos el límite, hay cuestiones en las que son más evidentes, como algunas noticias que nos asustan y nos dejan sobrecogidos, cuando oímos hablar de los deepfakes para pornografía o desnudos infantiles o simples engaños, así como otros que claramente son positivos y reportan un valor para la sociedad en su conjunto como las herramientas de IA para mejorar la seguridad vial, el medioambiente o las aplicaciones médicas.
Una cuestión estrechamente ligada a la ética de la inteligencia artificial y la defensa de los derechos humanos es el tema de los famosos “sesgos” de la tecnología, que son los que precisamente pueden llevar a situaciones de discriminación o vulneración de la dignidad humana.
Por este motivo, los procesos de entrenamiento de la inteligencia artificial tienen que emplear técnicas neutras que traten de evitar la generación de sesgos en sus resultados. Es una cuestión de lo más compleja, pues una vez que el algoritmo o la tecnología se ha entrenado con datos sesgados, no sabemos hasta que punto, es posible llegar a discernir o aislar el dato o la información que ha generado dicho sesgo, es como buscar una gota de agua concreta en el mar.
Por este motivo, lo que se trata de impulsar es que el enfoque para la creación o desarrollo de la IA sea un enfoque consciente y ético que incluya diversidad de informaciones y datos, sea transparente, pues es necesario conocer la información que estamos utilizando para entrenar y las técnicas de análisis de dicha información, así como hacer un seguimiento constante de los procesos de entrenamiento y sus resultados a fin de evaluar y detectar posibles disfunciones o sesgos en la información generada.
Es un tema complejo, pues ya hemos visto recientemente como Google ha tenido que problemas con Gemini por sobrerrepresentar a minorías, de forma que generaba imágenes de asiáticos, indios o negros para figuras históricas como vikingos, soldados nazis o padres fundadores de EE UU.
En este caso, para evitar el sesgo racial, Google había entrenado a Gemini para que cuando se solicitarán ejemplos de personas (medico, profesora, etc) aparecieran personas de diferentes etnias, pero la IA interpretó que dicho criterio era aplicable también a personajes históricos.
Es un caso anecdótico que refleja la dificultad a la que nos enfrentamos cuando afrontamos el reto de evitar los sesgos y como es necesaria una evaluación continua de estos procesos.
En todo caso, debemos ser conscientes que, en este momento, tanto la propia regulación como la IA, está en construcción, es la primera vez que nos enfrentamos a una situación en que la regulación va casi al mismo ritmo que la tecnología.
Ahora bien, es cierto que otra de las preocupaciones que se derivan de la regulación de esta actividad es alcanzar un equilibrio entre la protección de determinados derechos, no solo los derechos fundamentales, sino también la protección otorgada por derechos de propiedad intelectual, y seguir fomentando o permitiendo la innovación. En este sentido, es necesario reflexionar acerca de la sobrerregulación, siempre que aparece alguna técnica, tecnología nueva creemos que es necesario regularlo inmediatamente, sin tener en cuenta que muchas de las cuestiones y problemas que se derivan de la tecnología es posible enfrentarlos con la regulación de la que disponemos.
Ya existe una protección para los derechos humanos independiente de la regulación de la IA, también tenemos normas penales que nos protegen de los delitos que se puedan cometer contra nuestro derecho al honor o las estafas que se puedan producir en el mundo on-line, igualmente sucede con otras cuestiones como la posible vulneración de derechos de autor o derechos de marca. Existen herramientas que nos permiten defendernos.
Esto no quiere decir que no sea necesaria una regulación específica, pero lo que se pretende no es tanto regular la solución a los conflictos, sino proteger y defender nuestros derechos, principalmente, los derechos humanos que están actuando como límite natural a la IA, si no que desde el diseño y el inicio se respeten determinados principios y, en especial, que garanticen un desarrollo de la tecnología respetuosa con nuestros derechos.
Por este motivo, se aboga por establecer unos principios éticos en el desarrollo de la inteligencia artificial son la transparencia, equidad, privacidad y seguridad, y responsabilidad. Estos principios buscan garantizar que la IA se utilice de manera justa, segura y responsable.