?Comprar¨ªas un coche que elegir¨¢ matarte para salvar otras vidas?
Un estudio descubre grandes contradicciones morales que pueden retrasar los coches aut¨®nomos
Imagine que un coche se mueve a 80 kil¨®metros por hora por una carretera. En su interior viaja una ni?a sola, porque se trata de un veh¨ªculo inteligente, aut¨®nomo al 100%. De pronto, tres ni?os se abalanzan sobre la carretera por error y el coche debe elegir en mil¨¦simas de segundo: seguir hacia adelante y atropellar a tres ni?os o dar un volantazo y estamparse contra un muro, con su peque?a pasajera dentro. ?Qu¨¦ deber¨ªa hacer el coche? Es probable que haya optado por salvar a los tres ni?os. Ahora, imagine que el coche es suyo y la ni?a, su hija. ?Comprar¨ªa para su familia un coche que va a matar a sus tripulantes para salvar otras vidas?
La mayor¨ªa de los encuestados no comprar¨ªa un coche que sacrificar¨ªa al pasajero, aunque considera que es la mejor opci¨®n para los coches de los dem¨¢s
El bien mayor, como la ¨¦tica, se desliza por una pendiente muy resbaladiza cuando se lleva a lo personal, como han mostrado unos investigadores en un estudio que publican en Science. A trav¨¦s de una serie de preguntas, sondearon la opini¨®n de ciudadanos norteamericanos sobre estos dilemas. La primera conclusi¨®n es que la mayor¨ªa de los encuestados quiere que los coches aut¨®nomos tengan esta moralidad utilitarista: mejor matar a un pasajero que atropellar a 10 peatones. Sin embargo, la mayor¨ªa asegura que no comprar¨ªa un coche con estos criterios en su algoritmo.
La gran paradoja de los veh¨ªculos inteligentes ser¨ªa que su perfecci¨®n a la hora de reducir el n¨²mero de muertes provoque que los usuarios no quieran comprarlos. Y cada a?o que se retrasen ser¨¢ un a?o en el que no se estar¨¢n evitando accidentes debidos a errores o negligencias humanas; el 90% de los accidentes actuales, seg¨²n algunos c¨¢lculos. Pero nos aterra pensar que nuestros coches est¨¦n programados para matar, para matarnos. Preferimos que ese algoritmo est¨¦ solo en los de los dem¨¢s.
?A qui¨¦n atropellar¨ªas?
El equipo del MIT que han participado en el estudio ha lanzado una web en la que se puede realizar un test para poner a prueba nuestros criterios morales en varios escenarios muy complejos. ?Matar al pasajero o a un peat¨®n que cruzaba cuando deb¨ªa? ?Atropellar a dos ancianos o a un ni?o??A un m¨¦dico que cruza en rojo o a un ladr¨®n que cruza en verde? Terminado el test, podr¨¢s comparar tu criterio con la media de los dem¨¢s encuestados.
"Los programadores se ver¨¢n obligados a escribir algoritmos que anticipen situaciones en las que haya varias personas que podr¨ªan resultar perjudicadas", explica Azim Shariff, uno de los autores del trabajo. "Son cosas que no van a poder evitar. Habr¨¢ situaciones en las que las reglas generales van a entrar en conflicto y tiene que haber algoritmos escritos para hacer frente a esto", concluye Shariff, especialista en comportamiento ¨¦tico de la Universidad de Oreg¨®n.
Se trata de un problema moral cl¨¢sico, como el llamado dilema del tranv¨ªa: ?Empujar¨ªas a un hombre muy pesado para que frene con su cuerpo la m¨¢quina, mat¨¢ndole pero salvando a otras cinco personas que hay sobre la v¨ªa? Por lo general, solo el 30% de la gente responde que lo har¨ªa. Imaginemos lo complicado que es trasladar estos conflictos a los coches inteligentes, que llegar¨¢n a saber si viaja con ellos una embarazada o un enfermo, o que van a atropellar a un ni?o que cruza cuando no debe o a un anciano que hac¨ªa lo correcto. La casu¨ªstica es infinita, pero los coches har¨¢n lo que les han dicho que hagan, no dudar¨¢n.
"La respuesta no es clara. Es un debate que todav¨ªa est¨¢ muy abierto y no est¨¢ claro qui¨¦n debe tomar la decisi¨®n", asegura Ram¨®n L¨®pez de M¨¢ntaras, director del Instituto de Investigaci¨®n en Inteligencia Artificial del CSIC. Y se pregunta: "?Lo deben decidir los gobiernos, los fabricantes, los consumidores?". Seg¨²n el estudio de Science, la gente no quiere que el Gobierno obligue a que los coches tengan ese esp¨ªritu utilitarista que les lleve a escoger la muerte del pasajero. Las grandes corporaciones del transporte automatizado (Uber, Google, Volvo, Ford...) ya se han organizado juntos en un poderoso lobby para influir en las decisiones pol¨ªticas que est¨¢n por llegar.
"?Lo deben decidir los gobiernos, los fabricantes, los consumidores?", se pregunta L¨®pez de M¨¢ntaras, que considera que todas las m¨¢quinas inteligentes y aut¨®nomas deben estar regulados con criterios ¨¦ticos
L¨®pez de M¨¢ntaras sugiere que quiz¨¢ esos coches podr¨¢n aprender de forma aut¨®noma su propio criterio moral, ya que la inteligencia artificial estar¨¢ m¨¢s desarrollada para cuando lleguen los veh¨ªculos completamente aut¨®nomos, llamados de nivel 5. "Crear¨ªa otro problema: saldr¨ªan de f¨¢brica igual pero cada uno evolucionar¨ªa de forma distinta sus elecciones ¨¦ticas", se?ala. En cualquier caso, reclama transparencia absoluta. Algo que quiz¨¢ tampoco tranquilice mucho al consumidor a la luz de lo ocurrido con el esc¨¢ndalo de las emisiones de los autom¨®viles.
?Por qu¨¦ nos planteamos la moralidad de los coches inteligentes y no de otras m¨¢quinas inteligentes??L¨®pez de M¨¢ntaras cree que la inteligencia artificial, cuando tenga autonom¨ªa completa, debe estar regulada siempre seg¨²n criterios morales. Y cita futuribles armas inteligentes o los bots que juegan hoy de forma aut¨®noma en bolsa: "Deber¨ªan est¨¢n controlados ya, desde arriba". Si un coche debe tener un criterio moral para atropellar a esta o a aquellas personas, ?por qu¨¦ no deber¨ªa un robot inteligente tener criterio moral para negarse a trabajar para un empresario explotador o un superordenador negarse a defraudar dinero?
Puede que los coches del futuro sean unidades intercambiables, sin propietario, en grandes sistemas de transporte, como lo son los vagones del metro de hoy en d¨ªa, propone Joshua Greene, especialista en estos juicios morales de la Universidad de Harvard, en otro art¨ªculo en Science. Greene sugiere que simplemente evolucionar¨¢ nuestra mentalidad, como ha sucedido con los trasplantes: "A medida que nuestra forma de pensar se traslada desde los veh¨ªculos personales a los sistemas de transporte, las personas podr¨ªan preferir sistemas que maximicen la seguridad general".
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.