De cuando la filosof¨ªa rescat¨® a la inteligencia artificial
Tenemos que aprender a tratar a nuestros robots de forma ¨¦tica, sostiene el autor. Muy posiblemente, nuestros robots ser¨¢n m¨¢s ¨¦ticos que nosotros ya que sabr¨¢n tomar decisiones imparciales
A?o 2055. Detr¨¢s de un veh¨ªculo aut¨®nomo (VA) circulan tres autobuses escolares. De repente, se cruza un borracho por la carretera. ?Qu¨¦ debe hacer el veh¨ªculo? ?Frenar y salvar al peat¨®n, lo que provocar¨ªa un accidente en cadena, o atropellar al peat¨®n y evitar un accidente de peores consecuencias?
Esta es una versi¨®n del famoso Dilema del Tranv¨ªa planteado por la fil¨®sofa brit¨¢nica Philippa Foot en 1967: un tren descontrolado va a arrollar a cinco personas. Accionando una palanca, un observador puede desviar el tren y, en ese caso, s¨®lo morir¨ªa una persona. ?Qu¨¦ decisi¨®n es m¨¢s ¨¦tica? ?Permitir que el tren siga su curso sin interferir o sacrificar a una persona para salvar a cinco?
El 90% preferir¨ªa salvar a cinco personas y sacrificar a una, y adem¨¢s seg¨²n un reciente estudio de Natalie Gold (Universidad de Oxford), tambi¨¦n hay importantes diferencias culturales entre oriente y occidente. Esta decisi¨®n mayoritaria se ajustar¨ªa a la teor¨ªa utilitarista del fil¨®sofo ingl¨¦s Jeremy Bentham, que sosten¨ªa que la elecci¨®n moralmente correcta es aquella que maximiza el bien com¨²n. Sin embargo, el utilitarismo tiene sus contradicciones porque, ?qu¨¦ hubiese dicho ese 90% si la persona de la segunda v¨ªa fuera hijo suyo?
Michael Stevens, psic¨®logo estadounidense, hizo el experimento simulado del Dilema en 2017 y descubri¨® que la intenci¨®n ¨¦tica y el instinto no tienen nada que ver. Seg¨²n sus investigaciones, el 90% nunca accionar¨ªa la palanca, sino que se justificar¨ªa (¡°seguro que el tren lleva sensores¡±, ¡°alguien se dar¨¢ cuenta¡±). Nadie quiere tener que elegir entre dos opciones horribles y luego responsabilizarse de las consecuencias, explica.
Entonces, si hay decisiones ¨¦ticas que ni siquiera nosotros podemos tomar, ?c¨®mo vamos a programar m¨¢quinas inteligentes que s¨ª lo hagan?
Para complicar las decisiones ¨¦ticas un poco m¨¢s, debemos resaltar que el resultado de cualquier decisi¨®n depende de la variable tiempo, ya que no siempre las acciones tienen un resultado inmediato. Los investigadores Nidhi Kalra y David Groves de la RAND Corporation, calcularon que la libre introducci¨®n de VAs har¨ªa que sus algoritmos de conducci¨®n aprendieran m¨¢s r¨¢pidamente. Esto salvar¨ªa cientos de miles de vidas futuras. El beneficio de la acci¨®n, por lo tanto, ir¨ªa a parar a la siguiente generaci¨®n.
Cualquier aplicaci¨®n de IA presenta dilemas ¨¦ticos, no solo los veh¨ªculos aut¨®nomos. Por ejemplo, ?c¨®mo tratan los datos personales que recogen Siri (Apple) y Alexa (Amazon) en casa para aprender y mejorar la asistencia personalizada? Con el tiempo, Siri y Alexa se convertir¨¢n en robots que ayudar¨¢n en las tareas de la casa. Pero, ?qu¨¦ conceptos ¨¦ticos les ense?aremos si en muchos casos ni siquiera sabemos tomar decisiones ¨¦ticas?
El bioqu¨ªmico y escritor Isaac Asimov escribi¨® las Tres Leyes de la Rob¨®tica?que vimos en la pel¨ªcula I, robot?para intentar apaciguar el miedo que nos generan las m¨¢quinas. Los humanos desconfiamos incluso de las que funcionan mejor que nosotros mismos?y, por otra parte, les exigimos una perfecci¨®n que no tenemos. Un ejemplo: Waymo, el veh¨ªculo aut¨®nomo de Google, puede conducir sin fallo durante m¨¢s de 8200 kil¨®metros pero, seg¨²n un estudio del Pew Research Center, el 56% de los estadounidenses no se subir¨ªa jam¨¢s a un veh¨ªculo de estas caracter¨ªsticas.
Las tres leyes son demasiado abstractas y carecen de contexto para una m¨¢quina que s¨®lo entiende de unos y ceros, dice James Kuffner, catedr¨¢tico de rob¨®tica en la Carnegie Mellon University. Y para el fil¨®sofo de IA Aaron Sloman, tampoco son capaces de resolver la cuesti¨®n del da?o a corto o largo plazo en relaci¨®n al beneficio.
Aparte de saber implementar conceptos ¨¦ticos, nuestro principal problema ser¨¢ el aprender como humanos a tratar a nuestra IA de forma ¨¦tica. Con relativa facilidad podemos dotar a las cosas de cualidades humanas y emocionales, como el actor Joaquin Phoenix a su novia virtual en la pel¨ªcula Her.?Nuestro antropomorfismo se acent¨²a a¨²n m¨¢s si podemos tocar al robot y adem¨¢s, ¨¦ste puede moverse. Muchos recordamos la historia del robot hitchBOT, creado por David Smith de McMaster University. hitchBOT apenas hablaba y su ¨²nica misi¨®n era hacer auto-stop. Lleg¨® a Viajar por Europa y Norteam¨¦rica gracias a la simpat¨ªa que generaba. Su asesinato en Philadelphia en 2015 tuvo una repercusi¨®n emocional en todo el planeta.?
Tenemos que aprender a tratar a nuestros robots de forma ¨¦tica, pero no porque puedan rebelarse contra nosotros, sino porque el no hacerlo nos da?ar¨ªa psicol¨®gicamente, sostiene Kate Darling del Massachussetts Institute of Technology. Los robots son un reflejo de nuestra humanidad y su desarrollo nos est¨¢ llevando a cuestionar muchos conceptos ¨¦ticos fundamentales que a¨²n est¨¢n por solucionar.
La aceptaci¨®n de la IA en la sociedad depender¨¢ de hasta qu¨¦ punto es segura, asimila nuestros c¨®digos de conducta y genera confianza. Y, muy posiblemente, nuestros robots ser¨¢n m¨¢s ¨¦ticos que nosotros ya que sabr¨¢n tomar decisiones imparciales. Qui¨¦n sabe si en el futuro los robots nos ense?ar¨¢n a estar en el mundo de una forma m¨¢s ¨¦tica y justa.
Diego Miranda-Saavedra es cient¨ªfico de datos y profesor en los m¨¢ster de Inteligencia de Negocio y Big Data de los estudios de de Inform¨¢tica, Multimedia y Comunicacion de la Universitat Oberta de Cataluya (UOC).
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.