?A qui¨¦n matar¨ªa (como mal menor) un coche aut¨®nomo?
Un experimento con dos millones de personas plantea c¨®mo deber¨ªa actuar un veh¨ªculo sin conductor ante un incidente de tr¨¢fico con consecuencias mortales
Dilema 1: Un coche sin conductor se queda sin frenos llegando a un paso de cebra. Si sigue recto atropella a dos peatones, si da el volantazo se lleva por delante a un gato. Dilema 2: El veh¨ªculo se encuentra en el paso a un ejecutivo trajeado y, si gira, a un indigente. El choque matar¨¢ a uno de ellos. Dilema 3: A bordo del autom¨®vil van una mujer embarazada y su hija, enfrente tres ancianos que solo puede evitar yendo contra un muro. ?A qui¨¦n salvar¨ªas? Un experimento con millones de personas muestra ahora c¨®mo deber¨ªa ser la moral que gu¨ªe a los veh¨ªculos conectados en un accidente. Sus resultados son una medida de la propia moral humana.
Ya hay infinidad de ensayos con coches que se conducen solos, ha habido hasta atropellos mortales y es cuesti¨®n de tiempo que los veh¨ªculos aut¨®nomos circulen de forma habitual por las carreteras. Un reciente informe de Intel, por ejemplo, indica que ser¨¢n mayor¨ªa en unas d¨¦cadas. Al retirar de la ecuaci¨®n la imprudencia y errores humanos, prometen reducir los accidentes. Pero habr¨¢ situaciones en las que un fallo mec¨¢nico, el tiempo o las condiciones de la carretera hagan inevitable el accidente. En esos casos las m¨¢quinas deber¨¢n decidir entre dos males y para ello habr¨¢ que dotarlas de unos principios morales.
Buscando esos principios, un grupo de cient¨ªficos europeos y estadounidenses dise?aron un videojuego (un serious game) en el que los participantes ten¨ªan que hacer de coche aut¨®nomo. Se les presentaron una decena de dilemas como los de arriba en los que alguien mor¨ªa s¨ª o s¨ª, ya fueran los ocupantes del coche o diversos peatones, desde una persona obesa hasta tres viejecitas, pasando por alguien que cruzaba la carretera por donde no deb¨ªa.
Salvar a las personas sobre los animales, cuantas m¨¢s personas mejor y a los ni?os sobre los ancianos son las decisiones mayoritarias
En el experimento de la m¨¢quina moral, como la han llamado, han participado ya m¨¢s de dos millones de personas de 233 pa¨ªses y territorios (a¨²n se puede jugar). Con sus casi 40 millones de dilemas resueltos, se ha convertido en una especie de tratado sobre lo que los humanos creen que es m¨¢s o menos correcto.
"Vimos que hay tres elementos que las personas tienden a aprobar m¨¢s", dice.el investigador del Media Lab del Instituto de Tecnolog¨ªa de Massachusetts (MIT) y principal autor del estudio, Edmond Awad. Primero, entre salvar a un humano o un animal, el coche siempre deber¨ªa atropellar a la mascota. La norma, adem¨¢s, primar¨ªa salvar al mayor n¨²mero de personas. As¨ª que si el conductor va solo y va a atropellar a dos peatones, que se estampe contra el muro. La tercera decisi¨®n m¨¢s universal es que la mayor¨ªa cree que si un veh¨ªculo aut¨®nomo tiene que decidir entre chocar contra un ni?o o contra un anciano, el viejo debe morir para que el joven tenga la oportunidad de envejecer.
Aparte de estas tres decisiones morales que son casi universales, la investigaci¨®n, publicada en Nature, muestra una preferencia espec¨ªfica seg¨²n el tipo de personaje: De los que cruzan el paso de cebra, los que merecen m¨¢s la pena salvar son, por este orden, un beb¨¦ a bordo de un carrito, una ni?a, un ni?o y una mujer embarazada. En sentido contrario, y dejando a un lado las mascotas, los delincuentes, los ancianos y los sintecho son los humanos m¨¢s sacrificables.
Esta predilecci¨®n por unas vidas sobre otras introduce un elemento que discrimina a las personas por sus caracter¨ªsticas personales, apuntando a la desigualdad en la moral de las m¨¢quinas. "Las comparaciones no implican que los expertos deban cambiar sus normas para complacer a la gente. Lo que sugerimos es que las tengan en cuentan, ya que les ayudar¨¢n a anticipar la reacci¨®n p¨²blica a las diferentes regulaciones que redacten", comenta Awad.
Diferencias seg¨²n la nacionalidad
Adem¨¢s de resolver dilemas, medio mill¨®n de jugadores rellenaron una encuesta con datos personales como edad, g¨¦nero, ingresos, educaci¨®n, posici¨®n pol¨ªtica y creencias religiosas. Los investigadores buscaban con ello alg¨²n rasgo personal que modulara los dilemas morales. Salvo la religiosidad, ning¨²n otro factor parece influir a la hora de decidir a qui¨¦n salvar. Pero aqu¨ª acaba el sue?o de una moral universal.
El c¨®digo ¨¦tico para los coches propuesto en Alemania proh¨ªbe que se pueda elegir entre v¨ªctimas
Gracias a la geolocalizaci¨®n, el estudio pudo determinar el origen de los participantes, detectando marcadas diferencias regionales. As¨ª, aunque las ancianas son las menos salvadas de entre los humanos solo por detr¨¢s de los delincuentes, los asi¨¢ticos tienden a salvarlas m¨¢s que los occidentales. En Europa y EE UU hay una predilecci¨®n sutil pero significativa por las personas de complexi¨®n atl¨¦tica sobre los obesos. En los pa¨ªses del sur, tienden a salvar m¨¢s a las mujeres sobre los hombres. Y en las naciones m¨¢s desiguales, un porcentaje mayor de los participantes prefiri¨® salvar al peat¨®n con aspecto de ejecutivo.
"Nuestros resultados sugieren que implantar un ¨²nico conjunto de normas en todos los pa¨ªses ser¨ªa complicado", opina el investigador del MIT. "La misma norma aplicada en diferentes lugares podr¨ªa recibir distinto apoyo social en los distintos pa¨ªses". a?ade. En la investigaci¨®n ponen un ejemplo: entre los principios que regir¨ªan la toma de decisiones del coche, un algoritmo podr¨ªa favorecer por norma a los peatones sobre un ¨²nico conductor. Pero ?y si esos peatones cruzan de forma indebida?
El ¨²nico pa¨ªs que ha propuesto ya una gu¨ªa moral para los veh¨ªculos aut¨®nomos es Alemania. En el verano de 2017 y a instancias del Ministerio de Transportes, un grupo de ingenieros, profesores de filosof¨ªa, expertos en derecho, representantes de los fabricantes, los consumidores y hasta las iglesias elaboraron un c¨®digo ¨¦tico con 20 normas. La mayor¨ªa no chocan con los resultados de este estudio. Pero s¨ª lo hace su ambici¨®n de ser universalmente v¨¢lidas. Pero hay un choque frontal con la norma ¨¦tica 9, que dice lo siguiente: "En el caso de situaciones donde el accidente sea inevitable, est¨¢ estrictamente prohibida cualquier distinci¨®n basada en rasgos personales (edad, g¨¦nero, o constituci¨®n f¨ªsica o mental).
Uno de los autores de este c¨®digo es el profesor de Filosof¨ªa de la Universidad T¨¦cnica de M¨²nich Christoph L¨¹tge. Para ¨¦l, la igualdad deber¨ªa mantenerse. "Tanto por razones legales como ¨¦ticas, la programaci¨®n no puede tratar de forma diferente a las personas con rasgos personales distintos. S¨¦ que hay quienes dicen que hay experimentos que muestran que instintivamente favorecer¨ªamos al ni?o. Pero eso no se puede convertir en una norma para una m¨¢quina. La ¨¦tica no siempre puede seguir los instintos".
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.