Visor de contenido web
Desarrollo responsable de la IA
col1
El impacto de la Inteligencia Artificial en nuestra sociedad está fuera de duda. Sin embargo, lo que está generando un mayor debate es si ese impacto va a ser positivo o negativo. En este sentido, la sociedad comienza a reclamar la existencia de un cierto marco ético que defina los principios básicos para el desarrollo sostenible y responsable de la IA y, por tanto, las instituciones competentes y grupos de referencia en la materia ya han comenzado a dar respuesta a esta demanda social.
La Comisión Europea (CE) ha publicado recientemente un primer borrador de las directrices éticas comunitarias para una IA confiable. Previamente, en sus comunicaciones del 25 de abril y el 7 de diciembre de 2018, la CE ya expuso su visión de la IA, que implicaba un apoyo directo a una IA hecha en Europa, ética, segura y de vanguardia. Uno de los tres pilares de la estrategia comunitaria era precisamente el de garantizar un marco ético y legal adecuado para fortalecer los valores europeos en el desarrollo de la IA. Con este fin, la Comisión estableció el Grupo de Expertos de Alto Nivel sobre Inteligencia Artificial (AI HLEG) y le encomendó la redacción de unas pautas éticas y unas recomendaciones de políticas e inversiones en materia de IA.
Las directrices éticas publicadas por AI HLEG, en diciembre de 2018, constituyen un primer borrador de esas pautas y destacan:
"[…] la IA promete aumentar el bienestar humano y el bien común, pero para ello debe estar centrada en el ser humano y respetar los derechos fundamentales. En un contexto de rápido cambio tecnológico, creemos que es esencial que la confianza siga siendo el cemento de las sociedades, las comunidades, las economías y el desarrollo sostenible. Por lo tanto, fijamos la IA confiable como nuestra Estrella del Norte.
Este documento de trabajo articula un marco para la IA confiable que requiere un propósito ético y una solidez técnica. Esos dos componentes son críticos para una competitividad responsable, ya que generarán confianza en el usuario y, por tanto, facilitarán la aceptación de la IA."
col1-2
Otras organizaciones e instituciones que están trabajando intensamente en esta cuestión son, por ejemplo, AI4People o Partnership on AI (PAI). AI4People surgió en 2017 como una iniciativa del Instituto Europeo Atomium de Ciencia, Medios y Democracia, con el objetivo de definir la estrategia a largo plazo que permita el desarrollo de una buena sociedad de IA. AI4People es el primer foro global europeo creado para analizar los impactos sociales de la IA y promover su desarrollo responsable, allanando el camino para un marco ético europeo con el que apoyar futuros proyectos.
En noviembre de 2018, AI4People presentó sus primeros resultados durante la cumbre de alto nivel celebrada en la sede de la Eurocámara en Bruselas, donde se presentó el informe AI4People – Un marco ético para una buena sociedad de IA: oportunidades, riesgos, principios y recomendaciones y se reclamó la creación de una autoridad europea de supervisión. En esta línea, la Comisión Europea ya ha puesto en marcha la Alianza Europea para la IA (European AI Alliance) que trabajará junto al AI HLEG en la formulación de políticas comunitarias en materia de IA.
Por su parte, Partnership on AI (PAI) es una organización compuesta por una larga lista de agentes del sector. El partenariado surgió a iniciativa de un grupo de investigadores en IA que representaban en 2016 a seis de las compañías de tecnología más grandes del mundo: Apple, Amazon, DeepMind y Google, Facebook, IBM y Microsoft. Hoy en día reúne a académicos, investigadores, organizaciones de la sociedad civil, compañías que desarrollan y utilizan esta tecnología y otros grupos que trabajan para comprender mejor los impactos de la Inteligencia Artificial en la sociedad y en las personas. PAI se estableció para estudiar y formular buenas prácticas en tecnologías de IA, mejorar la comprensión del público sobre este campo y servir como una plataforma abierta para el debate y el compromiso sobre la IA y sus influencias en la sociedad.
En España en 2017, la entonces Secretaría de Estado para la Sociedad de la Información y la Agenda Digital constituyó el Grupo de Sabios sobre Inteligencia Artificial y Big Data, encargado de la redacción y publicación del Libro Blanco sobre la Inteligencia Artificial. Las conclusiones a las que lleguen estos expertos se plasmarán en el Libro Blanco, que incluirá un diagnóstico sobre el uso creciente de los datos en las Administraciones Públicas y las empresas. Las recomendaciones servirán para que el Ejecutivo español impulse la elaboración de un código ético sobre el uso de los datos en las Administración Pública, así como un código de buenas prácticas para las empresas en el uso de la Inteligencia Artificial y los datos.