Las matem¨¢ticas de las m¨¢quinas morales
La adopci¨®n masiva de los coches sin conductor plantea una nueva serie de retos, no solo tecnol¨®gicos sino tambi¨¦n de car¨¢cter ¨¦tico
Se espera que, en las pr¨®ximas d¨¦cadas, los veh¨ªculos aut¨®nomos revolucionen el transporte de personas y bienes, mejorando la seguridad, reduciendo emisiones, incrementando el confort de los pasajeros y aumentando las posibilidades de transporte de personas con movilidad reducida. Pero la adopci¨®n masiva de estos veh¨ªculos por parte de la sociedad tambi¨¦n plantea una nueva serie de retos, no solo tecnol¨®gicos sino tambi¨¦n de car¨¢cter ¨¦tico. Las matem¨¢ticas, especialmente la rama del an¨¢lisis de riesgos, permiten afrontar de forma transparente estos debates morales, aportando un marco de apoyo a la toma de decisiones ¨¦ticas en veh¨ªculos aut¨®nomos.
Siendo honestos, a¨²n estamos lejos de poder tomar de forma rutinaria un taxi sin conductor y conversar con su sistema de infotenimiento. De momento, los veh¨ªculos aut¨®nomos (ADS, por sus siglas en ingl¨¦s) m¨¢s prometedores en el medio plazo son los denominados de nivel tres y cuatro en los que, aunque la conducci¨®n sea aut¨®noma, se puede requerir intervenci¨®n humana para su conducci¨®n en determinadas circunstancias. Pero, ?cu¨¢ndo ha de solicitarse la intervenci¨®n? Si el veh¨ªculo predice una situaci¨®n peligrosa, se espera que el conductor est¨¦ alerta y dispuesto a retomar el control; sin embargo, si est¨¢ distra¨ªdo y el coche transfiere el control, las consecuencias podr¨ªan ser catastr¨®ficas. ?Qu¨¦ deber¨ªa hacer el veh¨ªculo? Y, ?qui¨¦n ser¨ªa responsable de una eventual cat¨¢strofe? Esta cuesti¨®n, que se conoce como dilema fundamental de los ADS de nivel tres y cuatro, ha sido recientemente planteado en el marco del proyecto europeo Trustonomy, que busca aumentar la confianza del gran p¨²blico en estas tecnolog¨ªas y, en particular, abordar diversos debates ¨¦ticos alrededor de las mismas.
Tratar de dar una respuesta a cuestiones ¨¦ticas como el anterior dilema fundamental fue uno de los objetivos del proyecto Moral Machine, que enfrent¨® a millones de individuos a este tipo de situaciones para obtener informaci¨®n sobre las prioridades ¨¦ticas colectivas en diferentes culturas. Entre sus conclusiones destaca la marcada diferencia de respuesta entre culturas colectivistas (como China o Jap¨®n) e individualistas (como Francia o EEUU).
Por tanto, no existe un consenso ¨¦tico universal en lo que respecta a las decisiones de emergencia en conducci¨®n aut¨®noma y no es posible dar respuestas ¨²nicas y universales a tales dilemas. Sin embargo, s¨ª se pueden modelizar los diferentes sistemas ¨¦ticos a trav¨¦s de las matem¨¢ticas, para guiar de forma coherente la toma de decisiones de un ADS. Como afirma el catedr¨¢tico em¨¦rito de la Universidad Duke, Ralph Keeney, cualquier corriente ¨¦tica puede modelizarse con ayuda del an¨¢lisis de riesgos, desde la deontol¨®gica a la consecuencialista, incluyendo aproximaciones tanto utilitaristas como autoprotectivas.
Recientemente, dentro del proyecto Trustonomy, se ha desarrollado un nuevo modelo para la toma de decisiones en ADS que tiene en cuenta objetivos m¨²ltiples: rendimiento del veh¨ªculo, confort de los pasajeros, duraci¨®n del viaje, seguridad ¨Cla de los pasajeros, las personas en la escena de conducci¨®n, el propio veh¨ªculo y la infraestructura¨C e incluso la reputaci¨®n del fabricante. Una vez definidos los objetivos, cada productor podr¨ªa decidir ponderarlos de distinta manera, dando m¨¢s importancia a aquellos que sean de su inter¨¦s; por ejemplo, se podr¨ªa dar mayor relevancia a la seguridad de los pasajeros, a costa de una menor de los peatones. Para ello, se emplean pesos que permiten combinar los distintos objetivos en una ¨²nica funci¨®n, llamada funci¨®n de utilidad multiatributo. Esta funci¨®n regir¨ªa el funcionamiento del veh¨ªculo.
El modelo planteado logra estandarizar y hacer transparente el proceso de toma de decisiones en los ADS. Esto permite, entre otras cosas, reproducir esta toma de decisiones en entornos simulados. Gracias a ello, las entidades reguladoras competentes podr¨ªan simular m¨²ltiples escenas de conducci¨®n y fijar est¨¢ndares de uso. Adem¨¢s, en caso de que un ADS sufra un accidente, podr¨ªa simularse su operativa utilizando la funci¨®n de utilidad que guiaba las decisiones del veh¨ªculo cuando ocurri¨® el accidente. Estas simulaciones permitir¨ªan evaluar si el veh¨ªculo satisfac¨ªa la regulaci¨®n vigente y, en caso de no hacerlo, fijar responsabilidades.
Determinar la toma de decisiones de un ADS es un problema muy complejo que se refiere no solo a las situaciones de emergencia. Esta complejidad viene bien reflejada en el reciente informe de la Comisi¨®n Europea Ethics of connected and automated vehicles donde se identifican recomendaciones en relaci¨®n con la seguridad y el riesgo en las carreteras, los aspectos ¨¦ticos de los datos y los algoritmos y la cuesti¨®n de la responsabilidad. Sin duda, esto plantea infinidad de retos tecnol¨®gicos, en los que las matem¨¢ticas desempe?ar¨¢n un papel central.
David R¨ªos es profesor de investigaci¨®n del Consejo Superior de Investigaciones Cient¨ªficas (CSIC) y AXA-ICMAT Chair en el ICMAT y miembro numerario de la Real Academia de Ciencias Exactas, F¨ªsicas y Naturales de Espa?a.
Roi Naveiro es investigador postdoctoral del CSIC en el ICMAT
Caf¨¦ y Teoremas es una secci¨®n dedicada a las matem¨¢ticas y al entorno en el que se crean, coordinado por el Instituto de Ciencias Matem¨¢ticas (ICMAT), en la que los investigadores y miembros del centro describen los ¨²ltimos avances de esta disciplina, comparten puntos de encuentro entre las matem¨¢ticas y otras expresiones sociales y culturales y recuerdan a quienes marcaron su desarrollo y supieron transformar caf¨¦ en teoremas. El nombre evoca la definici¨®n del matem¨¢tico h¨²ngaro Alfred R¨¦nyi: ¡°Un matem¨¢tico es una m¨¢quina que transforma caf¨¦ en teoremas¡±.
Edici¨®n y coordinaci¨®n: ?gata A. Tim¨®n G Longoria (ICMAT).
Puedes seguir a MATERIA en Facebook, Twitter e Instagram, o apuntarte aqu¨ª para recibir nuestra newsletter semanal.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.