La ética de la IA en Europa

21/07/2021 93

Recientemente hemos visto en los medios como la Inteligencia Artificial (IA) puede ayudar en la pandemia con multitud de ejemplos en la predicción y seguimiento de ésta. También hemos visto cómo puede contribuir a mejorar la vida de las personas con discapacidad visual, con aplicaciones como la de SeeingAI de Microsoft, o cómo puede ser también una gran aliada para las personas sordas.

La IA se ha utilizado además para prevenir el acoso escolar, como hace la startup WatsomApp en España, y encontramos multitud de ejemplos donde se utiliza en aplicaciones médicas para ayudar a la detección más eficiente de tumores, o como puede contribuir al desarrollo del coche autónomo o a la agricultura sostenible, combinada con IoT.

En definitiva, la IA se ha convertido en una tecnología esencial en multitud de industrias, como la salud, la banca, la fabricación o el comercio, entre otras, siendo una gran aliada para las personas. La estimación de gasto en IA a nivel mundial se espera que supere los 50 billones de dólares este año y llegue a los 110 billones en 2024 según IDC. Este informe resalta además que será la tecnología disruptiva más influyente en la próxima década, y se posiciona como la que cambiará los modelos de negocio a ser más ágiles, innovadores y eficientes.

Sin duda los beneficios que los sistemas de Inteligencia Artificial pueden traer a la sociedad son muy relevantes, pero también lo son los retos que su utilización plantea. No pasa un día sin que tengamos alguna noticia importante sobre el impacto social o las implicaciones éticas de la IA.

La IA se ha convertido en una tecnología esencial en multitud de industrias.

Seguramente todos recordamos cuando Microsoft publicó su chatbot Tai para ser entrenado en la nube, y también su retirada, porque fue entrenado con palabras ofensivas. También es muy conocido el ejemplo de Amazon, donde su algoritmo para seleccionar posibles candidatos a contratar, seleccionaba a más hombres que mujeres, una vez más, debido a un entrenamiento no adecuado.

Además hemos visto videos con personas que no existen,  generadas mediante deep learning (deepfakes) y que parecen reales, noticias falsas creadas por un algoritmo combinando otras muchas, y es bien conocido el sesgo que contiene la aplicación Compas en el sistema de justicia estadounidense.

La importancia de la ética en la inteligencia artificial | Transformación  Digital | Tecnología | EL PAÍS

Estos son sólo algunos de los múltiples ejemplos que nos llevan a cuestionarnos las implicaciones éticas que puede tener el uso de la IA y que es responsabilidad no sólo de los fabricantes de esta tecnología sino de las empresas que la utilizan. En los últimos años han surgido muchas reflexiones, artículos científicos e iniciativas al respecto.

Por un lado, los fabricantes como Amazon, IBM o Google, comenzaron enunciando sus principios de IA hace ya unos años, que tienen cosas en común como señalar la utilización de la IA para mejorar la sociedad, respeto de la privacidad, transparencia, explicabilidad y responsabilidad entre otras. Al mismo tiempo han surgido y continúan surgiendo numerosas observatorios enfocados en resaltar la importancia del desarrollo ético de la IA como  Partnership on AI, AI Now Institute, The Institute for Ethical AI and Machine learning, algunas también en España como Odiseia o WetheHuman .

Todos ellos tienen como objetivo sensibilizar a la sociedad, formar y hacer de puente entre empresas, gobierno y ciudadanos para un uso ético de la Inteligencia Artificial. Parece claro que es un reto que preocupa a toda la sociedad, y aunque la mayoría de las empresas fabricantes de IA son americanas, curiosamente es Europa quien está siendo pionera en acciones en este ámbito.

En primer lugar, Europa ya estableció una regulación exhaustiva respecto a la protección de datos (RGPD), vigente desde Mayo de 2018, y como hemos visto los datos son una parte clave para el uso ético de la IA. En segundo lugar, desde Europa también se ha creado un comité de expertos (HLEG AI) con el objetivo de analizar la ética de los desarrollos de IA desde todos los ángulos (económico y social) y se han generado recomendaciones y legislación al respecto. Esto ha sido la base para la nueva regulación anunciada en Abril de este año.

La nueva regulación europea, será aplicada a todos los estados miembros, y está basada en un análisis de riesgos. En primer lugar, los riesgos inaceptables, se prohibirán el tipo de aplicaciones que pongan en riesgo la seguridad o vida de las personas, así como los derechos de las personas (ej. un asistente de voz que fomente la violencia).

En segundo lugar, los de alto riesgo, que incluyen áreas como las infraestructuras críticas, la educación, el empleo, servicios esenciales públicos y privados, aplicación de leyes, administración de justicia y más. En este tipo de aplicaciones, antes de poder sacarlas al mercado, habrá una obligación estricta de control de riesgos, como que los datos usados cumplan estándares muy concretos, documentación exhaustiva de cómo se ejecutan los sistemas, así como proporcionar información detallada al usuario, entre otros.

Algunos ejemplos de este tipo son todo lo que se refiere a aplicaciones de contratación, cirugía asistida, selección de alumnos o determinadas aplicaciones de concesión de créditos. En particular todos los sistemas de identificación biométrica están consideradas como aplicaciones de alto riesgo, y están sujetos a requerimientos estrictos como los ya mencionados. Hay algunas excepciones como pueden ser la búsqueda de menores o la prevención de un ataque terrorista.

En tercer lugar, los que se consideran de riesgo limitado que tienen como requisito incluir transparencia, es decir, que el usuario sepa en base a que criterios se toman las decisiones. En esta categoría se podrían incluir los chatbots en los que por ejemplo habría que comunicar al usuario que no está hablando con una persona.

Por último, los de riesgo mínimo, en los que se incluyen video juegos o filtros de spam que requieren menos requisitos. Es cierto que hay que seguir avanzando en la clasificación y mitigación de riesgos, pero es un comienzo muy importante.

Sin duda queda mucho por hacer en esta área, y no es la primera vez que el avance tecnológico presenta retos éticos importantes, pero quizás nunca de semejante envergadura y que afectan a toda la sociedad. Europa está sentando un precedente que igual puede ayudar a que otras geografías también empiecen a hacerlo.