Las ultimas noticias en tecnología, ciencia y cultura digital.

Un nuevo informe sobre los riesgos de la IA pinta un futuro aún más negro para la humanidad

George Dvorsky
15.1K
16
2
Escena del episodio Metalhead de Black Mirror (Foto: Netflix)

Acaba de publicarse un nuevo informe firmado por dos docenas de expertos sobre las consecuencias de las tecnologías emergentes relacionadas con la Inteligencia Artificial. ¿Estás preparado para nuevas formas de cibercrimen, ataques físicos y disrupción política en cinco o diez años?

Advertisement

El informe de 100 páginas lleva por título: El uso malicioso de la inteligencia artificial: predicciones, prevención y mitigación. Firman sus conclusiones 26 expertos de 14 instituciones y organizaciones diferentes que incluyen el Instituto para el Futuro de la Humanidad de la Universidad de Oxford. El Centro de riesgos existenciales de la Universidad de Cambridge, el proyecto OpenAI de Elon Musk o la Electronic Frontier Foundation. El documento es el resultado de un taller de dos días organizado por la Universidad de Oxford en febrero del año pasado. En el informe, los autores detallan algunas de las maneras en las que la Inteligencia Artificial puede hacer cosas desagradables en los próximos años. El informe se centra en el plano digital, físico y político y en como la IA puede llegar a causar daños en cada uno de esos ámbitos. Miles Brundage, uno de los autores del estudio en la Universidad de Oxford explica:

Suele pasar que los sistemas de IA no solo alcanzan los mismos niveles de rendimiento que los seres humanos en tareas concretas, sino que a menudo los superan de forma significativa.

Es necesario considerar las implicaciones las implicaciones de la IA en el hacking, la vigilancia, la persuasión, la identificación de personas. También es necesario estudiar las capacidades de la IA en campos donde no supera a los seres humanos pero puede escalarse en perjuicio del empleo.

El principal punto del estudio es que la IA está a un paso de ser una fuerza realmente significativa y negativa si es usada por criminales, países rivales o terroristas capaces de convertirla en un arma.

A medida que las capacidades de la IA se extienden y crecen, esperamos que lo haga su uso para potenciar amenazas ya existentes, para crear nuevas amenazas o para cambiar la forma en la que las actuales funcionan.

Advertisement

Los espertos que firman el documento avisan de que el coste de los ataques basados en IA se reducirá por el uso cada vez más escalable y distribuido de los recursos. De igual manera, el uso de IA puede hacer que surjan nuevas amenazas basadas en tareas demasiado imprácticas o pesadas para un ser humano.

Creemos que hay razones para esperar ataques basados en IA que serán muy difíciles de parar y de atribuir a un culpable humano. Además, podrán explotar vulnerabilidades en los actuales sistemas legítimos de IA.

Advertisement

Puestos a ser específicos, los autores alertan de ciberataques basados en procesos de hackeo automáticos, phising, síntesis de voz para suplantar personas y envenenamiento de datos. El auge de los drones y los sistemas semiautónomos introducen todo un nuevo abanico de riesgos con escenarios de auténtica pesadilla: choques deliberados de coches autónomos, ataques coordinados de micro drones, drones comerciales convertidos en asesinos capaces de reconocer caras o de secuestrar infraestructuras a cambio de un rescate. Desde el punto de vista político, la IA puede usarse para sesgar opiniones, diseñar propaganda a medida o propagar noticias falsas. Incluso podría usarse para elaborar vídeos falsos altamente creíbles. Por último, la IA impulsará hasta extremos dudosos la vigilancia, tanto pública como privada.

También esperamos ataques que se aprovecharán de la capacidad mejorada de analizar el comportamiento humano, el estado de ánimo o las creencias basándose en los datos disponibles. Estas preocupaciones son aún más significativas en el caso de estados autoritarios, pero pueden dañar la habilidad para las democracias consolidadas de mantener debates públicos honestos.

Advertisement

La era de las noticias falsas ya está entre nosotros. Cada vez es más difícil distinguir realidad de ficción. Las supuestas manipulaciones de las redes sociales desde Rusia durante las elecciones en Estados Unidos son solo una muestra del potencial que tienen las redes sociales si se usan con malas intenciones. En cierto modo el informe no nos dice nada que no sepamos ya.

Advertisement

Seán Ó hÉigeartaigh, director ejecutivo del Centro de estudio del riesgo existencial en la Universidad de Cambridge explica que el entusiasmo por los avances en materia de IA ha nublado durante mucho tiempo nuestro juicio sobre la IA y los algoritmos de aprendizaje máquina, pero esa fase ya ha pasado. El informe señala las prácticas más peligrosas en materia de IA y sugiere enfoques que pueden ayudar a mitigar los daños, como diseñar el software para hacerlo menos hackeable o cómo adaptar las leyes internacionales al respecto.

Para mitigar la magnitud de las amenazas derivadas de la IA, Ó hÉigeartaigh y sus colegas ofrecen cinco recomendaciones generales:

  • Los investigadores y programadores de Ia deben tener siempre en cuenta la naturaleza dual de sus investigaciones.
  • Los legisladores deberían colaborar estrechamente con los investigadores para prevenir y mitigar usos potencialmente maliciosos de la IA.
  • Se deben identificar las mejores prácticas y separarlas de las que implican mayores riesgos incluyendo cualquier uso ambiguo de tecnologías de IA.
  • Se deben desarrollar marcos normativos y éticos en el dominio de la IA.
  • Se debe expandir el abanico de inversores y expertos involucrados en los debates sobre los retos que tiene esta tecnología.
Advertisement

Además de estas estrategias generales, los autores creen que se debe replantear completamente la ciberseguridad y comenzar a invertir en soluciones tecnológicas más amplias. Los desarrolladores deberían adoptar una cultura de la responsabilidad y tener en cuenta el poder de compartir datos (buena suerte con eso).

Advertisement

Ilia Kolochenko, CEO de la compañía de seguridad web High-Tech Bridge cree que los investigadores sobreestiman los riesgos y que la próxima década no supondrá muchos cambios en materia de seguridad:

El término IA se ha vuelto demasiado ambiguo y se usa demasiado a la ligera. Hay que distinguir entre las IA fuertes (sistemas supuestamente capaces de emular o reemplazar el cerebro humano) y los sistemas que simplemente automatizan procesos.

Advertisement

Kolochenko añade que los criminales ya están usando algoritmos simples para incrementar la eficacia de sus ciberataques, pero esos esfuerzos han tenido éxito por las deficiencias de muchas organizaciones en materia de seguridad. Para este investigador, la Ia es solo un elemento acelerador.

Advertisement

Además hay que tener en cuenta que la IA y el aprendizaje máquina tambiñen está siendo usado por otras personas para hacer más eficaz la lucha contra el cibercrimen. El desarrollo de tecnologías de Ia generalmente requiere mucho tiempo y no menos inversión que los hackers black hat no pueden permitirse. Por tanto, no veo riesgos sustanciosos o revoluciones en el espacio digital derivadas del uso de IA. No al menos en los próximos cinco años.

Kolochenko está en los cierto cuando dice que la IA se usará para mitigar amenazas de IA, pero esperar que no van a surgir nuevas amenazas basadas en IA en los próximos cinco años parece un poco más inocente. Desgraciadamente, las advertencias de este informe caerán en el olvido hasta que las personas no sientan los efectos de un ataque de este tipo a un nivel más personal. Ahora mismo es una preocupación un poco abstracta como para que el ciudadano de a pie se procupe. Por su parte, los políticos no están preparados para entender o lidiar con una amenaza de corte tan futurista e intangible. Mientras tanto, deberíamos ser conscientes de los posibles riesgos y aplicar las recomendaciones propuestas por los autores. [The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation]

Share This Story