La Inteligencia Artificial y su aplicación en campos como la defensa y la seguridad es materia constante de debate. La IA puede suponer una ventaja y un riesgo en ambos casos y es indudable que imprimirá su sello en los ejércitos del futuro. Según se destaca en un artículo del Instituto Español de Estudios Estratégicos (IEEE), la carrera armamentística de la IA que se está librando se caracteriza por tener una progresión natural, ya que a medida que los países vayan viendo cómo la IA les supone una ventaja militar sustancial, apostarán cada vez más por ella.
El surgimiento de una IA superinteligente que supere a la inteligencia humana y el desarrollo y uso de la IA con fines perversos son dos de las mayores amenazas. De la segunda ya existen ejemplos, actualmente, como el crédito social en China o la creación de armas letales autónomas. Por los motivos expuestos, sería crucial contemplar estas amenazas en las Estrategias de Seguridad Nacional (ESN) y fijar los objetivos a cumplir para combatirlas. En la actualidad, algunas ESN como la española ya recogen la IA en sus textos pero no como desafío o riesgo sino como mera tecnología emergente a tener en cuenta.
Pero la sociedad puede beneficiarse ya de muchos de los avances de la IA en el campo de la seguridad. Las aplicaciones son múltiples. Mediante el reconocimiento de imágenes, por ejemplo, los sistemas de información pueden aprender a percibir, de forma que en los controles de fronteras, dónde se utilizan tecnologías de visión artificial como el reconocimiento facial, se pueden utilizar aplicaciones para detectar características específicas de los viajeros. Si esta tecnología se integra con otras, como el análisis de imagen multiespectral, escaneando pasaportes que usan la luz infrarroja y ultravioleta y con el uso de extensas bases de datos, se puede mejorar la identificación de personas no autorizadas o susceptibles de suponer un riesgo para la seguridad.
Otro ejemplo de IA aplicada a la seguridad son los sistemas ciberfísicos inteligentes, cámaras de seguridad que pueden conectarse para monitorizar espacios públicos o privados. Estos sistemas pueden detectar cualquier señal de angustia y, automáticamente, realizar una llamada a un centro de emergencia o desviar el tráfico a otras áreas que interactúan con sistemas inteligentes de control del tráfico.
Por otra parte, en materia de ciberseguridad, la mayoría de los métodos basados en IA actualmente en uso en los controles operacionales se basan en enfoques de aprendizaje automático (ML), que utilizan una gran cantidad de algoritmos rigurosamente probados y esquemas expertos normalmente integrados dentro de una arquitectura de ciberseguridad tradicional. Por lo general, estos controles clasifican mensajes, eventos o código computacional como aceptables o no aceptables y son capaces de adaptarse de forma limitada, mediante el entrenamiento con muestras. Pero con los recientes éxitos del aprendizaje profundo (DL), empiezan a surgir nuevos métodos basados en redes neuronales que permiten que el DL pase gradualmente de la investigación a las aplicaciones viables de ciberseguridad. Estas emplean arquitecturas de redes neuronales profundas y big data para diseñar sistemas de aprendizaje cada vez más precisos para, por ejemplo, la detección de anomalías en el análisis de malware y redes informáticas, el filtrado de mensajes o la asistencia a operadores humanos de seguridad. La conclusión principal de todos estos avances es que la IA, a corto plazo, no parece que vaya a reemplazar a los humanos en el campo de la ciberseguridad sino que, más bien, los empoderará.
Sin embargo, resulta imprescindible tener en cuenta la naturaleza dual de las técnicas, herramientas y sistemas empleados en ciberseguridad e Inteligencia Artificial. La IA puede mejorar la seguridad pero los ciberdelincuentes, también, van a aprovechar los últimos avances en estas técnicas para llevar a cabo ciberataques más rápidos e inteligentes. Según el informe "Inteligencia Artificial. Una perspectiva europea.", elaborado por el Joint Research Centre (JRC) de la CE, la IA brindará beneficios claros a la ciberseguridad y la lucha contra el crimen, pero también introducirá nuevos desafíos. Los algoritmos de aprendizaje automático han alterado el paradigma clásico del desarrollo de software, ya que los humanos ya no programan un algoritmo que le dice a la máquina cómo resolver un problema sino cómo aprender a resolverlo, de modo que el sistema de IA se comporta como un nuevo algoritmo no programado por el humano. El riesgo viene precisamente por esta novedad. Estos sistemas de IA pueden no ser robustos ante ataques maliciosos, ya que estos explotan la forma específica en la que se comportan para su propio beneficio. Por tanto, las prácticas seguras de desarrollo de software y las certificaciones, auditorías y controles de ciberseguridad deben considerar de forma específica este nuevo tipo de vulnerabilidades.
Esta realidad implica la necesidad de garantizar que se realicen más investigaciones públicas que permitan diseñar una defensa efectiva mediante el estudio de la naturaleza de estos nuevos ataques emergentes y, en especial, cuando la IA se emplea en los controles de ciberseguridad o para ayudar a los actores humanos en la identificación, localización y enjuiciamiento de los ciberdelitos Probablemente, centrar la investigación en el uso ético de la IA y el papel de los legisladores puede convertirse en un activo para fortalecer el liderazgo europeo en ciberseguridad y retener el talento dentro de la UE.
Además, la aplicación de la IA a la ciberseguridad requiere de un enfoque multidisciplinario, debido al componente altamente técnico que la rodea. Por tanto, la interacción entre los responsables políticos y los investigadores e ingenieros deberá intensificarse. Los avances en este campo se producen rápidamente y los informes se desactualizan a la misma velocidad, lo que provoca la necesidad, casi obligatoria, de mantener un flujo constante de información desde el nivel técnico hasta los órganos de decisión. En este sentido, será de especial importancia crear una cultura de colaboración cruzada entre la IA y los desarrolladores de ciberseguridad y, más aún, con investigadores de otros campos como la filosofía, la economía o las ciencias sociales.