M¨¢quinas que miran como una persona
Un nuevo algoritmo ayuda a los ordenadores a saber qu¨¦ partes de una imagen atraer¨¢n la atenci¨®n de una persona
Buscamos instintivamente el centro, visualmente hablando. Cuando una persona no tiene que realizar una tarea espec¨ªfica (conducir, cocinar, leer...), tiende a posar la vista durante un breve instante en el centro de la escena que tiene ante s¨ª, por m¨¢s que este espacio est¨¦ vac¨ªo de contenido. Son apenas unos segundos, porque inmediatamente act¨²a con el mismo patr¨®n visual que cuando tiene un objetivo; con un sesgo: nuestros ojos captan los objetos salientes, aquellos que resaltan al margen de donde est¨¦n situados en la escena. El resto, lo que no es ¨²til para nuestra tarea, no es m¨¢s que ruido visual, "informaci¨®n irrelevante para nuestro cerebro que por tal motivo desechamos".
Lo explica V¨ªctor Lebor¨¢n, miembro del equipo del Centro de Investigaci¨®n en Tecnolog¨ªas de la Informaci¨®n de la Universidad de Santiago de Compostela (CiTIUS) que ha desarrollado un modelo computacional que predice a d¨®nde miramos los humanos. Esto es, qu¨¦ partes de una escena tienen mayor probabilidad de atraer nuestra atenci¨®n, incluso cuando hay en ella objetos en movimiento.
Esta capacidad humana de eliminar los datos innecesarios del entorno, llamada atenci¨®n visual, es, sostiene el investigador, un proceso "derivado de un conjunto de mecanismos evolutivos extremadamente complejos a nivel ¨®ptico y neuronal" del que ahora pueden disponer las m¨¢quinas. Mirar¨¢n como nosotros.
El modelo predice ad¨®nde miramos los humanos ?y qu¨¦ partes de una escena tienen mayor probabilidad de atraer nuestra atenci¨®n
"El robot reproduce cada uno de nuestros pasos neuronales y es capaz de identificar las partes m¨¢s relevantes de su entorno", detallan los investigadores del CiTIUS para concluir que, de esta forma, se avanza en la resoluci¨®n de uno de los problemas m¨¢s frecuentes en el ¨¢mbito de la inteligencia artificial: el del exceso de informaci¨®n.
Ense?arle a un robot a reproducir los pasos necesarios para que aprenda a identificar las partes m¨¢s relevantes de su entorno "requiere de numerosas e intrincadas t¨¦cnicas", inspiradas muchas en modelos humanos.
El algoritmo desarrollado ¡ªel modelo de atenci¨®n visual AWS (Adaptive Whitening Saliency, o Saliencia mediante Blanqueado Adaptativo)¡ª ha sido calificado por expertos internacionales como uno de los mejores del mundo en la actualidad. Su principal aportaci¨®n es el desarrollo de la herramienta que no solo permite filtrar el ruido para su implementaci¨®n en la rob¨®tica m¨®vil, sino que detecta cu¨¢les son las partes m¨¢s significativas de una imagen, las m¨¢s atractivas para el espectador.
Para la publicidad
"Tiene gran potencial en publicidad", sostiene Lebor¨¢n. Asegura que hay una empresa norteamericana que utiliza un modelo semejante, aunque menos desarrollado, y ofrece a los clientes, a un precio de unos 3.000 euros anuales, la consulta del mapa de saliencia (prominencia) de sus p¨¢ginas: las regiones en las que se concentra el impacto visual; ese lugar concreto al que se dirige la vista del usuario.
Cuando hay movimiento, un elemento muy competitivo en la atenci¨®n, se impone al color por m¨¢s llamativo que sea
La novedad del modelo desarrollado por el equipo del CiTIUS reside en que permite integrar el movimiento en ese mapa de informaci¨®n destacada, seg¨²n han confirmado los estudios experimentales realizados con humanos "y hay que tener en cuenta que las p¨¢ginas web son cada vez m¨¢s din¨¢micas", sostienen los investigadores.
El modelo est¨¢tico, de im¨¢genes fijas (AWS) desarrollado previamente por este equipo fue incluido en una comparativa internacional en 2013 realizada por expertos de la University of Southern California, y obtuvo el primer puesto del ranking. Desde entonces, los investigadores han avanzado en su trabajo creando el modelo din¨¢mico (AWS-D) que puede funcionar sobre v¨ªdeos.
"Cuando alguien se sienta ante el ordenador sin m¨¢s objetivo que navegar, suele mirar hacia el centro unos segundos. Este es el lugar en el que los creadores de contenidos suelen situar la informaci¨®n que quieren transmitir", explica Lebor¨¢n. Y precisa que, inmediatamente, la vista se dirige a aquellas regiones diferentes de su entorno en alguna caracter¨ªstica, como el color, la orientaci¨®n, el tama?o... No obstante, cuando hay movimiento, un elemento muy competitivo, se impone al color por m¨¢s llamativo que sea.
"Nuestro modelo es el que mejor predice esos puntos de fijaci¨®n en comparaci¨®n con el resto de modelos computacionales del estado del arte", sostiene el equipo cient¨ªfico. Han sometido a un grupo de personas a la libre observaci¨®n de im¨¢genes y v¨ªdeos, y los puntos sobre los que todos ellos han fijado su mirada han coincidido con el mapa de saliencia previsto por la m¨¢quina que, utilizando esta tecnolog¨ªa punta, ha aprendido a mirar como miramos.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.