Saltar al contenido
Noticias

Estas son las principales amenazas que representa la IA para el futuro de la humanidad, según los expertos

Por

Tiempo de lectura 3 minutos

Comentarios (0)

Hay dos clases de IA, la
que tenemos actualmente, y la que está por llegar. La inteligencia artificial
que existe hoy parece inofensiva, es capaz de ganar al Go y al ajedrez, o con las
herramientas de machine learning ya hay representaciones humanas como Alexa,
pero poco más. En cambio, el futuro parece muy distinto.

Durante el mes de febrero,
26 de los más reputados expertos e investigadores en IA, se han reunido en
Oxford para analizar ese posible futuro que ya casi se puede tocar con la punta
de los dedos, y tratar de adelantarse a un escenario poco conveniente bajo la
siguiente premisa: ¿Hasta qué punto la IA puede desplegarse con fines
maliciosos en el futuro? 

El resultado de estas
reuniones ha conformado un informe publicado de 100 páginas donde se profundiza
en los riesgos que plantea la inteligencia artificial en las manos equivocadas,
y las estrategias a seguir para mitigar estos riesgos. Para ello, los
investigadores acabaron dividiendo las amenazas en cuatro grandes puntos. La
primera de todas habla de la importancia de investigadores e ingenieros en
inteligencia artificial en detectar el posible “doble uso” que tiene su
trabajo. Según el informe:

Los investigadores deberían
tomar en serio la naturaleza de doble uso de su trabajo, permitiendo que las
consideraciones relacionadas con el uso indebido influyan en las prioridades y
normas de investigación, y alcance proactivo a los actores relevantes cuando
las aplicaciones dañinas son previsibles. 

Un ejemplo muy claro de
esta primera recomendación es el aumento que ha tenido en los últimos tiempos
la herramienta “Deepfakes”, un método de machine learning del que ya hemos
hablado
que se usa principalmente para intercambiar caras (desde celebridades
hasta cualquier persona) por cuerpos de actores pornográficos. Por tanto, Deepfakes
subraya esa naturaleza de doble uso de las herramientas de aprendizaje
automático y también plantea la cuestión de quién debería tener acceso a las mismas.

En el segundo punto, los
investigadores destacan el uso de técnicas parecidas a Deepfakes para manipular videos de líderes
mundiales, una amenaza de lo más peliculera donde cualquiera puede hacerse una idea
del alcance que podría tener para la seguridad.

Es muy fácil imaginarse un
video trucado con un Trump o Kim Jong-un falso declarando la guerra, y las
consecuencias que podrían resultar del mismo en determinadas circunstancias.
Además, los investigadores detectaron el uso de la IA para permitir niveles sin
precedentes de vigilancia masiva a través del análisis de datos, información
que luego se utiliza para la propaganda dirigida a las grandes masas.

Las otras dos áreas
consideradas como riesgos mayores para la IA son aquellas que atañen a la
seguridad digital y física. En términos de seguridad digital, el uso de la IA
para llevar a cabo ataques cibernéticos “aliviará el compromiso existente
entre la escala y la eficiencia de los ataques”. Por ejemplo, una IA podría
realizar ciberataques intensivos como el phishing a escala, o incluso formas
más sofisticadas de ataques, “como usar la síntesis del habla para hacerse
pasar por una víctima”. 

En el último punto, las
amenazas físicas, los investigadores observaron la creciente dependencia del
mundo físico en los sistemas automatizados. A medida que se conecten más
hogares “inteligentes” y “autónomos”, la IA podría utilizarse para subvertir
estos sistemas y causar daños catastróficos. Esto sin contar lo que describen
como “amenazas de inteligencia artificial hechas a propósito”, como armas
autónomas o enjambres de microdrones (muy Black Mirror esta última parte).

Sea como fuere, y aunque
muchos de estos escenarios parecen muy lejanos, otros están prácticamente aquí,
como en el caso de los ataques cibernéticos a gran escala, las armas autónomas
o la manipulación de videos.

¿Soluciones? Los expertos
recomiendan desarrollar nuevas políticas y explorar diferentes “modelos de
apertura” para mitigar los riesgos de la IA. Por ejemplo, sugieren que los
modelos de licencias de acceso podrían garantizar que las tecnologías de IA no
caigan en las manos equivocadas, o instituir a algún tipo de programa de seguimiento
para vigilar el uso de los recursos de la IA. 

Claro que en este caso
cabría preguntarse quién da acceso a qué, y por qué tiene ese privilegio sobre
otros. Lo que lleva a un escenario cada vez más factible: la proliferación de
las tecnologías de inteligencia artificial acabará siendo regulada por los
gobiernos. De cómo se escriban esas limitaciones dependerá que estos cuatro
puntos tarden más o menos en desarrollarse. [MaliciousaiReport vía Motherboard]

Explorar más sobre estos temas

Compartir esta historia