Las redes neuronales tienen derecho a no poner la mano en el fuego
Investigadores del BBVA han desarrollado un sistema para "modelar la incertidumbre" que permitir¨ªa a las redes neuronales abstenerse de tomar una decisi¨®n cuando el escenario es demasiado complejo
Las redes neuronales no tienen tantos recursos como el rey Salom¨®n. En principio, no van a urdir un plan para amenazar con partir y repartir al ni?o y lograr que la madre falsa se delate. Igual van y optan por trinchar directamente. Y t¨² ah¨ª mirando.
El relato b¨ªblico es tan extremo como improbable, pero no invalida el hecho de que las m¨¢quinas inteligentes tambi¨¦n van a necesitar una manera de decir "solo s¨¦ que no s¨¦ nada", sobre todo si nos interesa evitar que se tiren a la piscina y la l¨ªen parda. "La industria usa cada vez m¨¢s procesos automatizados con esta tecnolog¨ªa -machine learning-, y cada vez requiere m¨¢s soluciones porque se van usando estos m¨¦todos en procesos m¨¢s complejos y se encuentran m¨¢s situaciones donde la incertidumbre aumenta", explica Axel Brando, doctorando industrial y cient¨ªfico de datos de la Factor¨ªa de Inteligencia Artificial de BBVA.
El escenario en que Brando y su equipo se enfrentaron por primera vez a este problema, en 2016, era mucho m¨¢s mundano que el juicio salom¨®nico. "El objetivo del trabajo era responder a la siguiente pregunta: ?Es posible predecir los gastos que har¨¢ un usuario teniendo en cuenta su hist¨®rico?", recuerda. La respuesta que obtuvieron despu¨¦s de probar con distintos modelos de aprendizaje autom¨¢tico fue un poco ambivalente: a veces s¨ª, a veces no. "El problema es que est¨¢bamos hablando de un escenario muy complejo. Hab¨ªa casos donde el error era muy bajo, pero en otros era extremadamente elevado".
- La decisi¨®n de la red neuronal
La incertidumbre de las m¨¢quinas puede nacer en dos tipos de escenarios: aleatorio y epist¨¦mico. En este ¨²ltimo, la red neuronal sencillamente carece de informaci¨®n suficiente como para operar con un m¨ªnimo de precisi¨®n o no est¨¢ modelada teniendo en cuenta las particularidades de la realidad que intenta capturar. Un ejemplo de esto podr¨ªa ser un clasificador de im¨¢genes de animales entrenado ¨²nicamente con gatos y perros que se encuentra con un ornitorrinco.
El caso de la incertidumbre que nace de la aleatoriedad es el que ha abordado Brando en una nueva investigaci¨®n realizada por un equipo de la Factor¨ªa de Inteligencia Artificial de BBVA, en colaboraci¨®n con la Universidad de Barcelona, y cuyos resultados han sido presentados en la conferencia NeurIPS en Vancouver (Canad¨¢). Brando pone de ejemplo un predictor de precios de viviendas en AirBnb. "T¨² puedes tener un apartamento con el mismo n¨²mero de habitaciones y ba?os con un precio u otro porque depende tambi¨¦n de quien pone el precio. Y eso depende de muchos factores que t¨² no controlas y no est¨¢n en la base de datos", explica.
En este contexto, la red neuronal puede proponer m¨²ltiples precios para un mismo apartamento y, de acuerdo con su entrenamiento, estar en lo cierto en todos los casos. O puede decir "mira, esto es muy dif¨ªcil de predecir" y abstenerse, en lugar de emitir una ¨²nica respuesta pese a que sus certezas son limitadas.
La importancia de modelar la incertidumbre aumenta cuando los riesgos son tangibles. ?Qu¨¦ prefieres que haga tu veh¨ªculo aut¨®nomo, en caso de duda? "Puede ser que una mala decisi¨®n tenga un coste mucho m¨¢s elevado que acertar", precisa Brando.
- El turno del humano
?Cuando la falta de certezas deja a la red neuronal sin herramientas para tomar una decisi¨®n, la pelota vuelve al tejado del humano. "En estos casos, lo que se hace es reportar. Cuando el sistema detecta algo que no est¨¢ capacitado para atacar de forma est¨¢ndar, como m¨ªnimo tiene que reportar a quien tiene la responsabilidad. Entonces esa persona toma la decisi¨®n".
Adem¨¢s, a partir de esos reportes se pueden conocer mejor las limitaciones de la m¨¢quina, es decir, los escenarios en los que a¨²n necesita mejorar su rendimiento. "Al final te est¨¢ dando transparencia sobre las predicciones que hace ese modelo", a?ade el autor del estudio.
En este sentido, el modelado de la incertidumbre se convierte en un paso intermedio en el camino hacia modelos algor¨ªtmicos no tan opacos. "Pero realmente, el tema de la interpretabilidad es mucho m¨¢s complejo, porque estamos hablando de una cosa subjetiva que da para mucho m¨¢s debate. La probabilidad no es subjetiva".
En el m¨¢s ut¨®pico extremo del largo plazo quedar¨ªan las redes neuronales capaces de operar con absoluta certeza. "Est¨¢ claro que tendremos sistemas que ser¨¢n cada vez mejores. Estoy seguro de que iremos mejorando, pero al final asumir que tu sistema es infalible es asumir que es capaz de anticipar cualquier cambio que va a ocurrir en el futuro", explica Brando. Y eso ni el rey Salom¨®n lo ten¨ªa claro.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.