La inteligencia artificial (IA) es una tecnología que se está desarrollando a un ritmo imparable en todo el mundo y en numerosos ámbitos, beneficiando así a la sociedad y a la economía en su conjunto. Por ejemplo, a través de ella se puede mejorar la asistencia sanitaria, predecir el cambio climático y medioambiental, reducir el consumo de energía y recursos, detectar fraudes y amenazas de ciberseguridad e incluso mejorar la gestión del riesgo financiero. No obstante, también plantea nuevos retos y cuestiones jurídicas y éticas, ya que permite a las máquinas “aprender” y tomar decisiones y ejecutarlas sin intervención humana.
Con el objetivo de abordar estos retos, la Comisión Europea publicó en 2018 una estrategia europea que coloca a la persona en el centro del desarrollo de la IA, primando los valores de respeto de la dignidad humana, la libertad, la democracia, la igualdad, el Estado de Derecho y el respeto de los derechos humanos.
A raíz de esta estrategia, un grupo de expertos sobre IA presentó un documento en 2019 estableciendo una serie de directrices para lograr una “IA fiable” y por tanto conforme a la ley, respetuosa con los principios éticos y sólida.
En esta línea, los siete requisitos esenciales que deben respetar las aplicaciones de IA para ser consideradas fiables son:
- Intervención y supervisión humanas: los sistemas de IA deben facilitar sociedades equitativas, apoyando la intervención humana y los derechos fundamentales y no disminuir, limitar o desorientar la autonomía humana.
- Solidez y seguridad técnicas: La fiabilidad de la inteligencia artificial requiere que los algoritmos sean suficientemente seguros, fiables y técnicamente sólidos para resolver errores o incoherencias durante todas las fases del ciclo vital del sistema de IA y hacer frente adecuadamente a los resultados erróneos.
- Privacidad y gestión de datos: Deben garantizarse la privacidad y la protección de datos en todas las fases del ciclo vital del sistema de IA.
- Transparencia: Debe garantizarse la trazabilidad de los sistemas de IA y que quienes interactúen con esos sistemas sepan que se trata de inteligencia artificial, así como qué personas son sus responsables.
- Diversidad, no discriminación y equidad: La inteligencia artificial debe tener en cuenta la diversidad social desde su desarrollo, teniendo en cuenta toda gama de capacidades, habilidades y necesidades humanas para garantizar que los algoritmos en que se base tengan un enfoque de diseño universal y no sesgos discriminatorios directos o indirectos.
- Bienestar social y medioambiental: Ha de tenerse en cuenta el impacto sobre el medio ambiente y otros seres sensibles de la IA y fomentarse la sostenibilidad y la responsabilidad ecológica de los sistemas de IA.
- Rendición de cuentas: Deben implantarse mecanismos que garanticen la responsabilidad y la rendición de cuentas de los sistemas de IA y de sus resultados, tanto antes como después de su implementación.
La Comisión Europea apoya dichos requisitos basados en valores europeos y anima a las partes interesadas a aplicarlos con vistas a crear un entorno adecuado de confianza para un desarrollo y uso provechoso de la IA.
Si bien queda mucho por hacer y regular todavía, estas directrices sientan las bases para una IA ética que respete los valores fundamentales de la sociedad y genere confianza y fiabilidad.
Artículo redactado por Laura Ramos
Deja una respuesta
Lo siento, debes estar conectado para publicar un comentario.