Imagen: Flickr

Hay dos clases de IA, la que tenemos actualmente, y la que estĂĄ por llegar. La inteligencia artificial que existe hoy parece inofensiva, es capaz de ganar al Go y al ajedrez, o con las herramientas de machine learning ya hay representaciones humanas como Alexa, pero poco mĂĄs. En cambio, el futuro parece muy distinto.

Durante el mes de febrero, 26 de los mås reputados expertos e investigadores en IA, se han reunido en Oxford para analizar ese posible futuro que ya casi se puede tocar con la punta de los dedos, y tratar de adelantarse a un escenario poco conveniente bajo la siguiente premisa: ¿Hasta qué punto la IA puede desplegarse con fines maliciosos en el futuro? 

Advertisement

El resultado de estas reuniones ha conformado un informe publicado de 100 pĂĄginas donde se profundiza en los riesgos que plantea la inteligencia artificial en las manos equivocadas, y las estrategias a seguir para mitigar estos riesgos. Para ello, los investigadores acabaron dividiendo las amenazas en cuatro grandes puntos. La primera de todas habla de la importancia de investigadores e ingenieros en inteligencia artificial en detectar el posible “doble uso” que tiene su trabajo. SegĂșn el informe:

Imagen: Pixabay

Los investigadores deberían tomar en serio la naturaleza de doble uso de su trabajo, permitiendo que las consideraciones relacionadas con el uso indebido influyan en las prioridades y normas de investigación, y alcance proactivo a los actores relevantes cuando las aplicaciones dañinas son previsibles. 

Advertisement

Un ejemplo muy claro de esta primera recomendaciĂłn es el aumento que ha tenido en los Ășltimos tiempos la herramienta “Deepfakes”, un mĂ©todo de machine learning del que ya hemos hablado que se usa principalmente para intercambiar caras (desde celebridades hasta cualquier persona) por cuerpos de actores pornogrĂĄficos. Por tanto, Deepfakes subraya esa naturaleza de doble uso de las herramientas de aprendizaje automĂĄtico y tambiĂ©n plantea la cuestiĂłn de quiĂ©n deberĂ­a tener acceso a las mismas.

En el segundo punto, los investigadores destacan el uso de técnicas parecidas a Deepfakes para manipular videos de líderes mundiales, una amenaza de lo mås peliculera donde cualquiera puede hacerse una idea del alcance que podría tener para la seguridad.

Captura de pantalla del video falso con el rostro de Gal Gadot y el cuerpo de una actriz pornogrĂĄfica

Advertisement

Es muy fåcil imaginarse un video trucado con un Trump o Kim Jong-un falso declarando la guerra, y las consecuencias que podrían resultar del mismo en determinadas circunstancias. Ademås, los investigadores detectaron el uso de la IA para permitir niveles sin precedentes de vigilancia masiva a través del anålisis de datos, información que luego se utiliza para la propaganda dirigida a las grandes masas.

Las otras dos ĂĄreas consideradas como riesgos mayores para la IA son aquellas que atañen a la seguridad digital y fĂ­sica. En tĂ©rminos de seguridad digital, el uso de la IA para llevar a cabo ataques cibernĂ©ticos “aliviarĂĄ el compromiso existente entre la escala y la eficiencia de los ataques”. Por ejemplo, una IA podrĂ­a realizar ciberataques intensivos como el phishing a escala, o incluso formas mĂĄs sofisticadas de ataques, “como usar la sĂ­ntesis del habla para hacerse pasar por una vĂ­ctima”. 

En el Ășltimo punto, las amenazas fĂ­sicas, los investigadores observaron la creciente dependencia del mundo fĂ­sico en los sistemas automatizados. A medida que se conecten mĂĄs hogares “inteligentes” y “autĂłnomos”, la IA podrĂ­a utilizarse para subvertir estos sistemas y causar daños catastrĂłficos. Esto sin contar lo que describen como “amenazas de inteligencia artificial hechas a propĂłsito”, como armas autĂłnomas o enjambres de microdrones (muy Black Mirror esta Ășltima parte).

Advertisement

Fotograma de un capĂ­tulo de Black Mirror

Sea como fuere, y aunque muchos de estos escenarios parecen muy lejanos, otros estån pråcticamente aquí, como en el caso de los ataques cibernéticos a gran escala, las armas autónomas o la manipulación de videos.

ÂżSoluciones? Los expertos recomiendan desarrollar nuevas polĂ­ticas y explorar diferentes “modelos de apertura” para mitigar los riesgos de la IA. Por ejemplo, sugieren que los modelos de licencias de acceso podrĂ­an garantizar que las tecnologĂ­as de IA no caigan en las manos equivocadas, o instituir a algĂșn tipo de programa de seguimiento para vigilar el uso de los recursos de la IA. 

Advertisement

Claro que en este caso cabría preguntarse quién da acceso a qué, y por qué tiene ese privilegio sobre otros. Lo que lleva a un escenario cada vez mås factible: la proliferación de las tecnologías de inteligencia artificial acabarå siendo regulada por los gobiernos. De cómo se escriban esas limitaciones dependerå que estos cuatro puntos tarden mås o menos en desarrollarse. [MaliciousaiReport vía Motherboard]