Los rostros creados por inteligencia artificial generan m¨¢s confianza que los reales
Una investigaci¨®n muestra las dificultades para distinguir caras ¡®fabricadas¡¯ de las de personas
La inteligencia artificial (IA) permite ya crear im¨¢genes de personas muy veros¨ªmiles y que estas cambien con cada actualizaci¨®n, gracias a webs como This person does not exit. Pero esto no acaba en humanos, tambi¨¦n se puede generar fotograf¨ªas de animales, como gatos, e incluso habitaciones de alquiler. La similitud entre las fotograf¨ªas y la realidad es abrumadora. Una ...
La inteligencia artificial (IA) permite ya crear im¨¢genes de personas muy veros¨ªmiles y que estas cambien con cada actualizaci¨®n, gracias a webs como This person does not exit. Pero esto no acaba en humanos, tambi¨¦n se puede generar fotograf¨ªas de animales, como gatos, e incluso habitaciones de alquiler. La similitud entre las fotograf¨ªas y la realidad es abrumadora. Una investigaci¨®n publicada en PNAS muestra las dificultades para distinguir rostros reales de los creados a trav¨¦s de un algoritmo de inteligencia artificial llamado redes adversarias generativas (GAN, por sus siglas en ingl¨¦s). Otra de las conclusiones que refleja es que las caras ficticias generan una mayor confianza que las reales. Aunque la diferencia no es demasiada, apenas un 7,7% m¨¢s, los rostros con menor puntuaci¨®n de confiabilidad eran reales y tres de los cuatro con mayor puntuaci¨®n eran ficticios. Sophie Nightingale, profesora de Psicolog¨ªa en la Universidad de Lancaster y coautora del estudio, defiende que estos ¨²ltimos resultados eran contrarios a sus expectativas: ¡°Nos sorprendi¨® bastante¡±.
La investigaci¨®n consta de tres experimentos. En los dos primeros la muestra deb¨ªa distinguir entre caras reales y creadas por las GAN. En la el primer experimento, el grupo, formado por 315 participantes, tuvo una precisi¨®n promedio de 48,2%, por debajo del rendimiento al azar. En la segunda parte, los 219 nuevos participantes fueron instruidos de manera b¨¢sica sobre rostros sint¨¦ticos y tras cada respuesta les informaban de si hab¨ªan acertado o no. El porcentaje de respuestas correctas fue un poco superior al experimento anterior y alcanz¨® el 59%. En ambos casos los rostros que tuvieron m¨¢s dificultad para clasificar fueron los de personas blancas. Nightingale cree que, aunque estas diferencias desaparecer¨¢n con el paso del tiempo, se debe a que estos algoritmos est¨¢n m¨¢s entrenados con este tipo de rostro.
En la tercera parte quisieron ir m¨¢s all¨¢ y calibrar el nivel de confianza que les generaban las caras y comprobar si las sint¨¦ticas activaban los mismos juicios de confiabilidad. Para ello, 223 personas ten¨ªan que puntuar del 1 (muy poco confiable) al 7 (muy confiable) los rostros. Para los reales, la calificaci¨®n media fue de 4,48 frente a 4,82 de los rostros sint¨¦ticos. Aunque la diferencia es de un 7,7%, los autores destacan que es ¡°significativa¡±. De los 4 rostros m¨¢s fiables, tres eran sint¨¦ticos, mientras que los cuatro que generaban menos confianza eran reales.
Todos los rostros analizados pertenec¨ªan a una muestra de 800 im¨¢genes, la mitad reales y la otra falsas. La mitad sint¨¦tica fue creada a partir de GAN. La muestra estaba compuesta por igual entre hombres y mujeres y de cuatro razas diferentes: afroamericanos, cauc¨¢sicos, asi¨¢ticos orientales y asi¨¢ticos del sur. Para las caras reales recopilaron un rostro coincidente en cuanto a la edad, g¨¦nero, raza y apariencia general. Cada persona analizaba o puntuaba 128 caras.
Jos¨¦ Miguel Fern¨¢ndez Dols, catedr¨¢tico de Psicolog¨ªa Social en la Universidad Aut¨®noma de Madrid y cuya investigaci¨®n se centra en expresi¨®n facial, destaca sobre el ¨²ltimo experimento que no todos los rostros tienen la misma expresi¨®n ni postura y que eso puede ¡°afectar a los juicios¡±. En el estudio se tiene en cuenta laexpresi¨®n facial y se asume que es m¨¢s probable que una cara sonriente se califique como generadora de mayor confianza. Sin embargo, el 65,5% de las caras reales y el 58,8% de las sint¨¦ticas sonre¨ªan, por lo que la expresi¨®n facial por si sola ¡°no puede explicar por qu¨¦ las sint¨¦ticas se califican como m¨¢s confiables¡±.
El investigador tambi¨¦n considera fundamental la postura de tres de las im¨¢genes de personas menos confiables. Los ojos adelantados con respecto a la boca, protegiendo el cuello, es una postura ¡°previa a la agresi¨®n, seg¨²n algunos autores¡±. ¡°Los rostros sint¨¦ticos son cada vez m¨¢s realistas y pueden generar f¨¢cilmente m¨¢s confianza jugando con varios factores: la tipicidad de la cara, los rasgos y la postura¡±, comenta Fern¨¢ndez Dols. Una investigaci¨®n publicada en 2015 en Sage Journals apoya uno de estos aspectos y asegura que los juicios de confiabilidad alcanzan su punto m¨¢ximo alrededor del rostro t¨ªpico.
Las consecuencias de los contenidos sint¨¦ticos
Adem¨¢s de la creaci¨®n de rostros sint¨¦ticos, Nightingale predice que otro tipo de contenidos creados, como v¨ªdeos o audios, est¨¢n ¡°en camino¡± de ser indistinguibles del contenido real. ¡°Lo m¨¢s importante es que la democratizaci¨®n de las tecnolog¨ªas de medios sint¨¦ticos significa que cualquiera pueda crear contenidos sint¨¦ticos sin conocimientos especializados¡±. Y esto podr¨ªa traer consecuencias: ¡°Esto crea una amenaza significativamente mayor para usos nefastos que las tecnolog¨ªas especializadas anteriores¡±. En el estudio se alerta de algunos posibles problemas como im¨¢genes ¨ªntimas no consensuada, fraudes o campa?as de desinformaci¨®n
Sergio Escalera, catedr¨¢tico de la Universidad de Barcelona y miembro del Centro de Visi¨®n por Computador, resalta el aspecto positivo de las creaciones de rostros: ¡°Desde un punto de vista de oportunidades es interesante ver c¨®mo se puede generar caras que, adem¨¢s, pueden transmitir una emoci¨®n amigable¡±. El investigador plantea esta posibilidad para asistentes virtuales o para cuando se necesita transmitir una expresi¨®n concreta, como tranquilidad, a personas que padecen una enfermedad mental, por ejemplo. Para Escalera, lo fundamental es exponer, desde un punto de vista ¨¦tico, las posibilidades que tiene la inteligencia artificial y, sobre todo, ¡°ser muy conscientes en el momento de transferirlas a la sociedad de los posibles riesgos que pueda haber¡±. Adem¨¢s, defiende que la legislaci¨®n actual est¨¢ ¡°un poco retrasada¡± en comparaci¨®n con el avance tecnol¨®gico y que, aunque a nivel europeo se est¨¦ protegido por el GDPR (Reglamento General de Protecci¨®n de Datos), fuera no, y a¨²n hay ¡°mucho que hacer¡±.
Puedes seguir a MATERIA en Facebook, Twitter e Instagram, o apuntarte aqu¨ª para recibir nuestra newsletter semanal.