Foto: Google Brain

¬ŅQu√© ves en estas dos im√°genes? Lo de la izquierda es un gato, pero ¬Ņy lo de la derecha? ¬ŅEs un gato o un perro? Si no est√°s seguro de la respuesta es que la imagen ha cumplido su prop√≥sito. Est√° pensada para enga√Īar a una inteligencia artificial, y el hecho de que pueda enga√Īar a una persona es muy preocupante.

Advertisement

En realidad, ambas imágenes corresponden al mismo gato, pero la de la derecha ha sido sutilmente alterada introduciendo ruido en una determinada zona de manera que nuestro cerebro duda si clasificarlo como gato o como perro. Cuánto más rápida es la respuesta que se nos pide, más posibilidades hay de confusión.

La imagen es uno de los ejemplos generados por un algoritmo creado por un grupo de cient√≠ficos que trabajan en Google Brain. El algoritmo es una prueba de concepto pensada precisamente para enga√Īar a redes neurales convolucionales pensadas para el reconocimiento de im√°genes.

Foto: Google Brain

Advertisement

Estas redes funcionan mediante algoritmos de aprendizaje m√°quina que clasifican contenidos a medida que los aprenden. La red examina miles de fotos de gatos y aprende a reconocer un gato. Suena muy humano, pero en realidad estas redes est√°n a a√Īos luz del funcionamiento de un cerebro humano. Las personas no solo reconocemos rasgos, sino que adem√°s identificamos patrones y ambig√ľedades de una manera hol√≠stica que ning√ļn algoritmo ha logrado imitar hasta ahora. Esa es la raz√≥n por la que para enga√Īar a una de estas redes neurales a veces basta con cambiar un solo pixel o introducir un objeto extra√Īo.

En estas im√°genes, los p√≠xeles cuadrados hacen creer a la IA que el gato es una computadora. La peque√Īa forma de colores de la derecha confunde a la red neural para que crea que es una tostadora e ignore el pl√°tano. Foto: OpenAI y Google Brain.

El problema es que el algoritmo creado por los ingenieros de Google Brain no solo es bueno enga√Īando a otros algoritmos. Tambi√©n es bueno enga√Īando a personas.

Advertisement

Para probar su creaci√≥n, los ingenieros pusieron a prueba a varios voluntarios identificando fotos sutilmente manipuladas por el algoritmo junto a im√°genes de control. Los voluntarios apenas dispon√≠an de unos pocos milisegundos para contestar y a√ļn as√≠ acertaron mucho m√°s en una bater√≠a de fotos que enga√Īa a las redes CNN el 100% de las veces. Sin embargo, los investigadores han encontrado que las im√°genes dise√Īadas para confundir a un algoritmo tambi√©n confunden a personas m√°s de lo que esperaban.

De izquierda a derecha, una imagen de un perro sin modificar, una imagen modificada para hacer creer a una red neural que es un gato, y una imagen modificada de control. Foto: Google Brain.

La imagen del gato que ilustra este post es especialmente perturbadora porque la confusi√≥n es persistente incluso aunque la miremos durante un buen rato. La mayor parte de las im√°genes creadas por el algoritmo no son tan eficientes, pero pueden llegar a serlo. Los investigadores creen que algoritmos como este pueden usarse para manipular la percepci√≥n humana de manera muy sutil. El ejemplo que ponen es inquietante: cargar el algoritmo con los rasgos que el cerebro identifica como de una persona digna de confianza y aplicarlos a la imagen de un pol√≠tico en campa√Īa. El futuro a lo Black Mirror puede estar m√°s cercano de lo que pensamos. [Arxiv v√≠a IEEE Spectrum]