(CNN Business) – Rostros creados artificialmente de personas que en realidad no existen están siendo utilizados por cuentas falsas en Facebook para engañar a los usuarios y jugar con los sistemas de la compañía, según informó la empresa el viernes. Expertos que revisaron las cuentas en cuestión aseguran que es la primera vez que ven que imágenes fraudulentas de este tipo son usadas a escala como parte de una sola campaña en redes sociales.
Las cuentas, que fueron eliminadas por Facebook el viernes, formaban parte de una red que generalmente publicaba mensajes a favor del presidente de Estados Unidos Donald Trump y contra el gobierno chino, indicaron expertos que revisaron las cuentas. Muchas de las cuentas difundieron enlaces a una página de Facebook y a un sitio web llamado “The BL”. La compañía dijo que estos usuarios falsos estaban vinculados a Epoch Media Group, propietario del periódico The Epoch Times, un medio vinculado al movimiento de Falun Gong que también es pro-Trump.
El editor de The Epoch Times negó que Epoch y The BL estuvieran vinculados, según la información que fue por correo electrónico a Snopes, una organización de verificación de datos, a principios de este año.
En una declaración posterior a la primera publicación de esta historia en inglés el pasado viernes, el editor de The Epoch Times Stephen Gregory señaló: “The Epoch Times y las compañías de medios BL no están afiliadas. BL fue fundado por un exempleado y emplea a algunos de nuestros extrabajadores. Sin embargo, que algunos de nuestros antiguos colaboradores trabajen para BL no es evidencia de ninguna conexión entre las dos organizaciones”.
Y añadió: “BL es una publicación de Epoch Times Vietnam. Como se puede ver en las páginas archivadas del sitio web de The Epoch Times, Epoch Times Vietnam dejó de figurar como parte de Epoch Media Group en octubre de 2018”.
En respuesta, un portavoz de Facebook le dijo a CNN Business que los ejecutivos de The BL eran administradores activos de las páginas de Epoch Media Group en la red social muy recientemente: incluso, aún el viernes por la mañana.
La revelación distópica del uso de imágenes generadas artificialmente de esta manera particular apunta a un panorama de información en línea cada vez más complicado a medida que Estados Unidos se dirige a un año de elecciones presidenciales. Silicon Valley y la comunidad de inteligencia del país todavía luchan con las consecuencias que dejó la interferencia en línea generalizada durante los comicios de 2016.
Las cuentas falsas de Facebook usaban imágenes de perfil que parecían mostrar a personas reales sonriendo y mirando directamente a una cámara. Pero estos individuos no existen ni nunca han existido, según aseguran Facebook y otros investigadores. Las imágenes fueron creadas con inteligencia artificial. Justamente, utilizan los mismos métodos básicos para producir videos fraudulentos, videos que la comunidad de inteligencia ha advertido podrían usarse como parte de una campaña de desinformación extranjera dirigida a los estadounidenses.
Otras cuentas falsas que formaban parte de la misma red tenían imágenes robadas de personas reales, de acuerdo a la compañía de investigación de redes sociales Graphika y el grupo de expertos Atlantic Council. Facebook proporcionó información a Graphika y a Atlantic Council para su análisis antes del su anuncio del viernes.
Las cuentas fueron utilizadas para dirigir docenas de grupos de Facebook a favor de Trump con nombres como “¡Estados Unidos necesita al presidente Trump” y “NOSOTROS ESTAMOS CON TRUMP & PENCE!”, indicaron Graphika y Atlantic Council.
Snopes y Lead Stories, organizaciones de verificación de datos, habían informado en las últimas semanas y meses sobre el uso de imágenes artificiales en Facebook, las cuales formaban parte de esta red de cuentas. Snopes publicó una historia la semana pasada en la que criticaba la aparente inacción de Facebook sobre el asunto. La red social sostuvo el viernes que se había “beneficiado de los informes de código abierto” en el desmantelamiento de las cuentas falsas, pero aseguró que sus propios sistemas dedicados a vigilar el comportamiento coordinado y no auténtico identificaron proactivamente muchas de las cuentas.
En un informe conjunto sobre sus hallazgos, Graphika y Atlantic Council describen cómo lograron determinar cuáles fotos de perfil fueron generadas con inteligencia artificial. “Esta tecnología está evolucionando rápidamente hacia la generación de imágenes más creíbles, pero algunos indicadores aún revelan” su naturaleza, expresaron.
Las imágenes creadas a partir de inteligencia artificial, específicamente a través de un método de aprendizaje automático conocido como GAN –o red generativa antagónica, en español– son “notorias por tener problemas con características que deberían ser simétricas en el rostro humano, como anteojos o aretes, y con detalles de fondo. Las imágenes de perfil de la red mostraban indicios de los tres”.
El método GAN consiste en dos redes neuronales, que son algoritmos modelados en las neuronas del cerebro, enfrentadas entre sí para producir imágenes de aspecto real. Una de las redes neuronales genera imágenes (de, digamos, el rostro de una mujer), mientras que la otra intenta determinar si esa imagen es falsa o real.
Aunque los expertos pudieron detectar estos indicios reveladores en una inspección minuciosa, es probable que los usuarios habituales de Facebook no lo hagan.
Durante el año pasado, surgieron múltiples sitios web que crean rostros falsos utilizando inteligencia artificial.
Los investigadores de Graphika y Atlantic Council no pudieron determinar de manera concluyente si quienes estaban detrás de las cuentas falsas usaron imágenes artificiales de estos sitios públicos o generaron las suyas propias.
En su informe publicado el viernes, Graphika y Atlantic Council destacaron: “La facilidad con la que la operación logró generar tantas imágenes artificiales para darle así a sus cuentas falsas (en su mayoría) caras convincentes, es una preocupación. Se necesita una mayor investigación para encontrar formas de identificar imágenes de perfil generadas por inteligencia artificial de manera confiable y a escala, de modo que las plataformas y los investigadores puedan automatizar su detección”.



