Imagen: Flickr

Hay dos clases de IA, la que tenemos actualmente, y la que est√° por llegar. La inteligencia artificial que existe hoy parece inofensiva, es capaz de ganar al Go y al ajedrez, o con las herramientas de machine learning ya hay representaciones humanas como Alexa, pero poco m√°s. En cambio, el futuro parece muy distinto.

Durante el mes de febrero, 26 de los m√°s reputados expertos e investigadores en IA, se han reunido en Oxford para analizar ese posible futuro que ya casi se puede tocar con la punta de los dedos, y tratar de adelantarse a un escenario poco conveniente bajo la siguiente premisa: ¬ŅHasta qu√© punto la IA puede desplegarse con fines maliciosos en el futuro?¬†

Advertisement

El resultado de estas reuniones ha conformado un informe publicado de 100 p√°ginas donde se profundiza en los riesgos que plantea la inteligencia artificial en las manos equivocadas, y las estrategias a seguir para mitigar estos riesgos. Para ello, los investigadores acabaron dividiendo las amenazas en cuatro grandes puntos. La primera de todas habla de la importancia de investigadores e ingenieros en inteligencia artificial en detectar el posible ‚Äúdoble uso‚ÄĚ que tiene su trabajo. Seg√ļn el informe:

Imagen: Pixabay

Los investigadores deber√≠an tomar en serio la naturaleza de doble uso de su trabajo, permitiendo que las consideraciones relacionadas con el uso indebido influyan en las prioridades y normas de investigaci√≥n, y alcance proactivo a los actores relevantes cuando las aplicaciones da√Īinas son previsibles.¬†

Advertisement

Un ejemplo muy claro de esta primera recomendaci√≥n es el aumento que ha tenido en los √ļltimos tiempos la herramienta ‚ÄúDeepfakes‚ÄĚ, un m√©todo de machine learning del que ya hemos hablado que se usa principalmente para intercambiar caras (desde celebridades hasta cualquier persona) por cuerpos de actores pornogr√°ficos. Por tanto, Deepfakes subraya esa naturaleza de doble uso de las herramientas de aprendizaje autom√°tico y tambi√©n plantea la cuesti√≥n de qui√©n deber√≠a tener acceso a las mismas.

En el segundo punto, los investigadores destacan el uso de técnicas parecidas a Deepfakes para manipular videos de líderes mundiales, una amenaza de lo más peliculera donde cualquiera puede hacerse una idea del alcance que podría tener para la seguridad.

Captura de pantalla del video falso con el rostro de Gal Gadot y el cuerpo de una actriz pornogr√°fica

Advertisement

Es muy fácil imaginarse un video trucado con un Trump o Kim Jong-un falso declarando la guerra, y las consecuencias que podrían resultar del mismo en determinadas circunstancias. Además, los investigadores detectaron el uso de la IA para permitir niveles sin precedentes de vigilancia masiva a través del análisis de datos, información que luego se utiliza para la propaganda dirigida a las grandes masas.

Las otras dos √°reas consideradas como riesgos mayores para la IA son aquellas que ata√Īen a la seguridad digital y f√≠sica. En t√©rminos de seguridad digital, el uso de la IA para llevar a cabo ataques cibern√©ticos ‚Äúaliviar√° el compromiso existente entre la escala y la eficiencia de los ataques‚ÄĚ. Por ejemplo, una IA podr√≠a realizar ciberataques intensivos como el phishing a escala, o incluso formas m√°s sofisticadas de ataques, ‚Äúcomo usar la s√≠ntesis del habla para hacerse pasar por una v√≠ctima‚ÄĚ.¬†

En el √ļltimo punto, las amenazas f√≠sicas, los investigadores observaron la creciente dependencia del mundo f√≠sico en los sistemas automatizados. A medida que se conecten m√°s hogares ‚Äúinteligentes‚ÄĚ y ‚Äúaut√≥nomos‚ÄĚ, la IA podr√≠a utilizarse para subvertir estos sistemas y causar da√Īos catastr√≥ficos. Esto sin contar lo que describen como ‚Äúamenazas de inteligencia artificial hechas a prop√≥sito‚ÄĚ, como armas aut√≥nomas o enjambres de microdrones (muy Black Mirror esta √ļltima parte).

Advertisement

Fotograma de un capítulo de Black Mirror

Sea como fuere, y aunque muchos de estos escenarios parecen muy lejanos, otros están prácticamente aquí, como en el caso de los ataques cibernéticos a gran escala, las armas autónomas o la manipulación de videos.

¬ŅSoluciones? Los expertos recomiendan desarrollar nuevas pol√≠ticas y explorar diferentes ‚Äúmodelos de apertura‚ÄĚ para mitigar los riesgos de la IA. Por ejemplo, sugieren que los modelos de licencias de acceso podr√≠an garantizar que las tecnolog√≠as de IA no caigan en las manos equivocadas, o instituir a alg√ļn tipo de programa de seguimiento para vigilar el uso de los recursos de la IA.¬†

Advertisement

Claro que en este caso cabría preguntarse quién da acceso a qué, y por qué tiene ese privilegio sobre otros. Lo que lleva a un escenario cada vez más factible: la proliferación de las tecnologías de inteligencia artificial acabará siendo regulada por los gobiernos. De cómo se escriban esas limitaciones dependerá que estos cuatro puntos tarden más o menos en desarrollarse. [MaliciousaiReport vía Motherboard]