Principios éticos para el desarrollo de la Inteligencia Artificial segun UE

Iniciado por K A I L, Abril 14, 2019, 09:12:31 PM

Tema anterior - Siguiente tema

0 Miembros y 1 Visitante están viendo este tema.



La Comisión Europea (CE) presentó este lunes sus líneas maestras para desarrollar la inteligencia artificial (IA) en la Unión Europea (UE) garantizando el objetivo de conseguir beneficios para toda la sociedad, respetando la privacidad de los datos y protegiéndose frente a previsibles errores y ataques.

«La dimensión ética de la inteligencia artificial no es una característica de lujo o un añadido: tiene que ser parte integral de su desarrollo», señalan en sus conclusiones la «comunicación» sobre la materia presentada por la CE, que consiste en un documento orientativo con vinculaciones legales y elaborado a partir del trabajo de un grupo interdisciplinar de expertos en la materia.

El primer desafío ético de esa nueva tecnología, apunta el documento, pasa por ganar confianza entre los ciudadanos y para ello el sector y los agentes políticos llamados a regularlo deben fijarse como meta «incrementar el bienestar», observando valores de la Unión Europea como «el respeto a la dignidad humana, la democracia, la igualdad, el Estado de derecho y los derechos humanos».

A partir de ahí, los expertos consultados por el Ejecutivo comunitario han identificado una serie de requerimientos clave para el desarrollo de la IA, en función del contexto: no es lo mismo una herramienta que falle al recomendar un libro a un lector que una aplicación que diagnostica erróneamente un cáncer, subraya la CE.

Áreas claves


  • Supervisión humana: Debe de ser supervisada por seres humanos, con las «apropiadas medidas de contingencia».
  • Robustez y seguridad: Los sistemas deben de ser «resistentes» y «resilientes» ante eventuales intentos de manipulaciones o de pirateo y dotarse de planes de contingencia.
  • Privacidad y control de los datos: Se debe de garantizar la privacidad de los datos de los ciudadanos en todo el ciclo vital de la inteligencia artificial.
  • Transparencia: La IA debe de ser transparente, lo que supone poder reconstruir cómo y por qué se comporta de una determinada manera y quienes interactúen con esos sistemas deben de saber que se trata de inteligencia artificial así como qué personas son sus responsables.
  • Diversidad, no discriminación y equidad: La inteligencia artificial debe de tener en cuenta la diversidad social desde su desarrollo para garantizar que los algoritmos en que se base no tengan sesgos discriminatorios directos o indirectos.
  • Bienestar social y ambiental: El desarrollo tecnológico debe de tener en cuenta su impacto social y medioambiental de forma que sea sostenible y ecológicamente responsable.
  • Responsabilidad: La inteligencia artificial y sus resultados deben de rendir cuentas ante auditores externos e internos.

La CE presentará ahora estas guías éticas a los Estados miembros de la UE y a los distintos actores del sector y, a partir de junio, diseñará una fase piloto para obtener retroalimentación de quienes están implicados en el salto tecnológico que suponen las máquinas capaces de aprender y decidir por sí mismas.

A partir de esa información, a inicios de 2020 se actualizarán las guías sobre ética robótica y la Inteligencia Artificial según vaya avanzando su potencial.

No tienes permitido ver los links. Registrarse o Entrar a mi cuenta

No tienes permitido ver los links. Registrarse o Entrar a mi cuenta