Imagen: Flickr

Hay dos clases de IA, la que tenemos actualmente, y la que está por llegar. La inteligencia artificial que existe hoy parece inofensiva, es capaz de ganar al Go y al ajedrez, o con las herramientas de machine learning ya hay representaciones humanas como Alexa, pero poco más. En cambio, el futuro parece muy distinto.

Durante el mes de febrero, 26 de los más reputados expertos e investigadores en IA, se han reunido en Oxford para analizar ese posible futuro que ya casi se puede tocar con la punta de los dedos, y tratar de adelantarse a un escenario poco conveniente bajo la siguiente premisa: ¿Hasta qué punto la IA puede desplegarse con fines maliciosos en el futuro? 

Advertisement

El resultado de estas reuniones ha conformado un informe publicado de 100 páginas donde se profundiza en los riesgos que plantea la inteligencia artificial en las manos equivocadas, y las estrategias a seguir para mitigar estos riesgos. Para ello, los investigadores acabaron dividiendo las amenazas en cuatro grandes puntos. La primera de todas habla de la importancia de investigadores e ingenieros en inteligencia artificial en detectar el posible “doble uso” que tiene su trabajo. Según el informe:

Imagen: Pixabay

Los investigadores deberían tomar en serio la naturaleza de doble uso de su trabajo, permitiendo que las consideraciones relacionadas con el uso indebido influyan en las prioridades y normas de investigación, y alcance proactivo a los actores relevantes cuando las aplicaciones dañinas son previsibles. 

Advertisement

Un ejemplo muy claro de esta primera recomendación es el aumento que ha tenido en los últimos tiempos la herramienta “Deepfakes”, un método de machine learning del que ya hemos hablado que se usa principalmente para intercambiar caras (desde celebridades hasta cualquier persona) por cuerpos de actores pornográficos. Por tanto, Deepfakes subraya esa naturaleza de doble uso de las herramientas de aprendizaje automático y también plantea la cuestión de quién debería tener acceso a las mismas.

En el segundo punto, los investigadores destacan el uso de técnicas parecidas a Deepfakes para manipular videos de líderes mundiales, una amenaza de lo más peliculera donde cualquiera puede hacerse una idea del alcance que podría tener para la seguridad.

Captura de pantalla del video falso con el rostro de Gal Gadot y el cuerpo de una actriz pornográfica

Advertisement

Es muy fácil imaginarse un video trucado con un Trump o Kim Jong-un falso declarando la guerra, y las consecuencias que podrían resultar del mismo en determinadas circunstancias. Además, los investigadores detectaron el uso de la IA para permitir niveles sin precedentes de vigilancia masiva a través del análisis de datos, información que luego se utiliza para la propaganda dirigida a las grandes masas.

Las otras dos áreas consideradas como riesgos mayores para la IA son aquellas que atañen a la seguridad digital y física. En términos de seguridad digital, el uso de la IA para llevar a cabo ataques cibernéticos “aliviará el compromiso existente entre la escala y la eficiencia de los ataques”. Por ejemplo, una IA podría realizar ciberataques intensivos como el phishing a escala, o incluso formas más sofisticadas de ataques, “como usar la síntesis del habla para hacerse pasar por una víctima”. 

En el último punto, las amenazas físicas, los investigadores observaron la creciente dependencia del mundo físico en los sistemas automatizados. A medida que se conecten más hogares “inteligentes” y “autónomos”, la IA podría utilizarse para subvertir estos sistemas y causar daños catastróficos. Esto sin contar lo que describen como “amenazas de inteligencia artificial hechas a propósito”, como armas autónomas o enjambres de microdrones (muy Black Mirror esta última parte).

Advertisement

Fotograma de un capítulo de Black Mirror

Sea como fuere, y aunque muchos de estos escenarios parecen muy lejanos, otros están prácticamente aquí, como en el caso de los ataques cibernéticos a gran escala, las armas autónomas o la manipulación de videos.

¿Soluciones? Los expertos recomiendan desarrollar nuevas políticas y explorar diferentes “modelos de apertura” para mitigar los riesgos de la IA. Por ejemplo, sugieren que los modelos de licencias de acceso podrían garantizar que las tecnologías de IA no caigan en las manos equivocadas, o instituir a algún tipo de programa de seguimiento para vigilar el uso de los recursos de la IA. 

Advertisement

Claro que en este caso cabría preguntarse quién da acceso a qué, y por qué tiene ese privilegio sobre otros. Lo que lleva a un escenario cada vez más factible: la proliferación de las tecnologías de inteligencia artificial acabará siendo regulada por los gobiernos. De cómo se escriban esas limitaciones dependerá que estos cuatro puntos tarden más o menos en desarrollarse. [MaliciousaiReport vía Motherboard]