Escena del episodio Metalhead de Black Mirror (Foto: Netflix)

Acaba de publicarse un nuevo informe firmado por dos docenas de expertos sobre las consecuencias de las tecnolog√≠as emergentes relacionadas con la Inteligencia Artificial. ¬ŅEst√°s preparado para nuevas formas de cibercrimen, ataques f√≠sicos y disrupci√≥n pol√≠tica en cinco o diez a√Īos?

Advertisement

El informe de 100 p√°ginas lleva por t√≠tulo: El uso malicioso de la inteligencia artificial: predicciones, prevenci√≥n y mitigaci√≥n. Firman sus conclusiones 26 expertos de 14 instituciones y organizaciones diferentes que incluyen el Instituto para el Futuro de la Humanidad de la Universidad de Oxford. El Centro de riesgos existenciales de la Universidad de Cambridge, el proyecto OpenAI de Elon Musk o la Electronic Frontier Foundation. El documento es el resultado de un taller de dos d√≠as organizado por la Universidad de Oxford en febrero del a√Īo pasado. En el informe, los autores detallan algunas de las maneras en las que la Inteligencia Artificial puede hacer cosas desagradables en los pr√≥ximos a√Īos. El informe se centra en el plano digital, f√≠sico y pol√≠tico y en como la IA puede llegar a causar da√Īos en cada uno de esos √°mbitos. Miles Brundage, uno de los autores del estudio en la Universidad de Oxford explica:

Suele pasar que los sistemas de IA no solo alcanzan los mismos niveles de rendimiento que los seres humanos en tareas concretas, sino que a menudo los superan de forma significativa.

Es necesario considerar las implicaciones las implicaciones de la IA en el hacking, la vigilancia, la persuasión, la identificación de personas. También es necesario estudiar las capacidades de la IA en campos donde no supera a los seres humanos pero puede escalarse en perjuicio del empleo.

Advertisement

El principal punto del estudio es que la IA está a un paso de ser una fuerza realmente significativa y negativa si es usada por criminales, países rivales o terroristas capaces de convertirla en un arma.

A medida que las capacidades de la IA se extienden y crecen, esperamos que lo haga su uso para potenciar amenazas ya existentes, para crear nuevas amenazas o para cambiar la forma en la que las actuales funcionan.

Los espertos que firman el documento avisan de que el coste de los ataques basados en IA se reducir√° por el uso cada vez m√°s escalable y distribuido de los recursos. De igual manera, el uso de IA puede hacer que surjan nuevas amenazas basadas en tareas demasiado impr√°cticas o pesadas para un ser humano.

Creemos que hay razones para esperar ataques basados en IA que serán muy difíciles de parar y de atribuir a un culpable humano. Además, podrán explotar vulnerabilidades en los actuales sistemas legítimos de IA.

Advertisement

Puestos a ser espec√≠ficos, los autores alertan de ciberataques basados en procesos de hackeo autom√°ticos, phising, s√≠ntesis de voz para suplantar personas y envenenamiento de datos. El auge de los drones y los sistemas semiaut√≥nomos introducen todo un nuevo abanico de riesgos con escenarios de aut√©ntica pesadilla: choques deliberados de coches aut√≥nomos, ataques coordinados de micro drones, drones comerciales convertidos en asesinos capaces de reconocer caras o de secuestrar infraestructuras a cambio de un rescate. Desde el punto de vista pol√≠tico, la IA puede usarse para sesgar opiniones, dise√Īar propaganda a medida o propagar noticias falsas. Incluso podr√≠a usarse para elaborar v√≠deos falsos altamente cre√≠bles. Por √ļltimo, la IA impulsar√° hasta extremos dudosos la vigilancia, tanto p√ļblica como privada.

Tambi√©n esperamos ataques que se aprovechar√°n de la capacidad mejorada de analizar el comportamiento humano, el estado de √°nimo o las creencias bas√°ndose en los datos disponibles. Estas preocupaciones son a√ļn m√°s significativas en el caso de estados autoritarios, pero pueden da√Īar la habilidad para las democracias consolidadas de mantener debates p√ļblicos honestos.

La era de las noticias falsas ya está entre nosotros. Cada vez es más difícil distinguir realidad de ficción. Las supuestas manipulaciones de las redes sociales desde Rusia durante las elecciones en Estados Unidos son solo una muestra del potencial que tienen las redes sociales si se usan con malas intenciones. En cierto modo el informe no nos dice nada que no sepamos ya.

Advertisement

Se√°n √ď h√Čigeartaigh, director ejecutivo del Centro de estudio del riesgo existencial en la Universidad de Cambridge explica que el entusiasmo por los avances en materia de IA ha nublado durante mucho tiempo nuestro juicio sobre la IA y los algoritmos de aprendizaje m√°quina, pero esa fase ya ha pasado. El informe se√Īala las pr√°cticas m√°s peligrosas en materia de IA y sugiere enfoques que pueden ayudar a mitigar los da√Īos, como dise√Īar el software para hacerlo menos hackeable o c√≥mo adaptar las leyes internacionales al respecto.

Para mitigar la magnitud de las amenazas derivadas de la IA, √ď h√Čigeartaigh y sus colegas ofrecen cinco recomendaciones generales:

  • Los investigadores y programadores de Ia deben tener siempre en cuenta la naturaleza dual de sus investigaciones.
  • Los legisladores deber√≠an colaborar estrechamente con los investigadores para prevenir y mitigar usos potencialmente maliciosos de la IA.
  • Se deben identificar las mejores pr√°cticas y separarlas de las que implican mayores riesgos incluyendo cualquier uso ambiguo de tecnolog√≠as de IA.
  • Se deben desarrollar marcos normativos y √©ticos en el dominio de la IA.
  • Se debe expandir el abanico de inversores y expertos involucrados en los debates sobre los retos que tiene esta tecnolog√≠a.

Advertisement

Además de estas estrategias generales, los autores creen que se debe replantear completamente la ciberseguridad y comenzar a invertir en soluciones tecnológicas más amplias. Los desarrolladores deberían adoptar una cultura de la responsabilidad y tener en cuenta el poder de compartir datos (buena suerte con eso).

Ilia Kolochenko, CEO de la compa√Ī√≠a de seguridad web High-Tech Bridge cree que los investigadores sobreestiman los riesgos y que la pr√≥xima d√©cada no supondr√° muchos cambios en materia de seguridad:

El término IA se ha vuelto demasiado ambiguo y se usa demasiado a la ligera. Hay que distinguir entre las IA fuertes (sistemas supuestamente capaces de emular o reemplazar el cerebro humano) y los sistemas que simplemente automatizan procesos.

Advertisement

Kolochenko a√Īade que los criminales ya est√°n usando algoritmos simples para incrementar la eficacia de sus ciberataques, pero esos esfuerzos han tenido √©xito por las deficiencias de muchas organizaciones en materia de seguridad. Para este investigador, la Ia es solo un elemento acelerador.

Adem√°s hay que tener en cuenta que la IA y el aprendizaje m√°quina tambi√Īen est√° siendo usado por otras personas para hacer m√°s eficaz la lucha contra el cibercrimen. El desarrollo de tecnolog√≠as de Ia generalmente requiere mucho tiempo y no menos inversi√≥n que los hackers black hat no pueden permitirse. Por tanto, no veo riesgos sustanciosos o revoluciones en el espacio digital derivadas del uso de IA. No al menos en los pr√≥ximos cinco a√Īos.

Advertisement

Kolochenko est√° en los cierto cuando dice que la IA se usar√° para mitigar amenazas de IA, pero esperar que no van a surgir nuevas amenazas basadas en IA en los pr√≥ximos cinco a√Īos parece un poco m√°s inocente. Desgraciadamente, las advertencias de este informe caer√°n en el olvido hasta que las personas no sientan los efectos de un ataque de este tipo a un nivel m√°s personal. Ahora mismo es una preocupaci√≥n un poco abstracta como para que el ciudadano de a pie se procupe. Por su parte, los pol√≠ticos no est√°n preparados para entender o lidiar con una amenaza de corte tan futurista e intangible. Mientras tanto, deber√≠amos ser conscientes de los posibles riesgos y aplicar las recomendaciones propuestas por los autores. [The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation]