Para ver esta nota en internet ingrese a: https://www.24siete.info/a/257547

Descubrí cuál de estas caras es la real

La inteligencia artificial produce efectos que cada vez tienen más preponderancia en el día a día.

Estas personas quizá te parezcan familiares. Pueden parecerse a los usuarios que has visto en Facebook, Twitter o Tinder o tal vez a gente cuyas reseñas de productos leíste en Amazon. Parecen sorprendentemente reales a primera vista, pero no existen. Nacieron del procesador de una computadora.

Ahora hay negocios que venden gente falsa. En el sitio web Generated.Photos, puedes comprar a una persona falsa “única y sin preocupaciones” por 2,99 dólares o 1000 personas por 1000 dólares. Si solo necesitas un par de personas falsas, para personajes de un videojuego o para que el sitio web de tu empresa parezca más diverso, puedes obtener fotografías gratuitamente en ThisPersonDoesNotExist.com. Ajusta su imagen según sea necesario. Hazlos viejos, jóvenes o del grupo étnico que elijas. Si quieres que tu persona falsa sea animada, una compañía llamada Rosebud.AI puede hacer eso y hasta puede hacerlos hablar.

Estas personas simuladas están empezando a aparecer en Internet, usadas como máscaras por personas reales con intenciones nefastas: espías que ponen una cara atractiva como un esfuerzo por infiltrarse en la comunidad de inteligencia; propagandistas de derecha que se esconden detrás de perfiles falsos, con fotografía y todo; acosadores en línea que persiguen a sus objetivos con un rostro amigable. Estas creaciones solo fueron posibles en los últimos años gracias a un nuevo tipo de inteligencia artificial llamada red generativa antagónica, o RGA. Básicamente, se alimenta un programa de computadora con un montón de fotografías de gente real. Las analiza e intenta crear sus propias fotografías de personas, mientras que otra parte del sistema intenta detectar cuáles de esas fotografías son de personas falsas. El vaivén hace que el producto final sea cada vez más indistinguible del real.

Dado el ritmo de mejora, es fácil imaginar un futuro no tan lejano en el que nos enfrentemos no solo a retratos individuales de personas falsas, sino a colecciones enteras de ellas, en una fiesta con amigos falsos, pasando el rato con sus perros falsos, sosteniendo a sus bebés falsos. Cada vez será más difícil saber quién es real online y quién es producto de la imaginación de una computadora. “Cuando la tecnología apareció por primera vez en 2014, era mala; se parecía a ‘Los Sims’”, dijo Camille François, una investigadora en materia de desinformación cuyo trabajo es analizar la manipulación de las redes sociales. “Es un recordatorio de lo rápido que la tecnología puede evolucionar. La detección se volverá más difícil con el tiempo”.

Los avances en la falsificación facial fueron posibles en parte porque la tecnología ahora es mucho mejor en la identificación de los rasgos faciales clave. Puedes usar tu cara para desbloquear tu celular o decirle a tu software de fotografía que clasifique tus miles de imágenes y te muestre solo las de tu hijo. Los programas de reconocimiento facial son utilizados por la policía para identificar y arrestar a sospechosos criminales. Una compañía llamada Clearview AI aprovechó una red de miles de millones de fotografías públicas, compartidas casualmente en línea por usuarios cotidianos, para crear una aplicación capaz de reconocer a un extraño a partir de una fotografía. La tecnología promete a las superpotencias la capacidad de organizar y procesar el mundo de una manera que antes no era posible.

Sin embargo, los algoritmos de reconocimiento facial, como otros sistemas de inteligencia artificial, no son perfectos. Gracias al sesgo subyacente de los datos utilizados para entrenarlos, algunos de estos sistemas no son tan buenos, por ejemplo, para reconocer a las personas negras. En 2015, uno de los primeros sistemas de detección de imágenes desarrollado por Google etiquetó a dos personas negras como “gorilas”, muy probablemente porque el sistema había alimentado muchas más fotografías de gorilas que de personas de piel oscura.

Además, las cámaras —los ojos de los sistemas de reconocimiento facial— no son tan buenas para capturar a las personas de piel oscura. Esa desafortunada norma data de los primeros días del revelado de película, cuando las fotografías se calibraban para mostrar mejor los rostros de las personas de piel clara. Las consecuencias pueden ser graves. En enero, un hombre negro de Detroit llamado Robert Williams fue arrestado, acusado de un crimen que no cometió debido a una identificación incorrecta de reconocimiento facial. Los algoritmos de Google y Bing clasifican el conocimiento del mundo para nosotros. La sección de noticias de Facebook filtra las actualizaciones de nuestros círculos sociales y decide cuáles son las más relevantes para nosotros. Con las funciones de conducción autónoma de los autos, estamos poniendo nuestra seguridad en las manos (y los ojos) del software. Confiamos mucho en estos sistemas, pero pueden ser tan falibles como nosotros.

Por Kashmir Hill y Jeremy White, ©2020 The New York Times Company. 

¿Te gustó esta nota? 
 

Lo que tenés que saber

Más de Viral