No hay ¨¦tica para robots
Una m¨¢quina no puede ser susceptible de responsabilidades, no son agentes morales y no cabe imputarles deberes o derechos. La clase pol¨ªtica s¨ª, y parece que se ha autoprogramado
Si se da un accidente mortal ocasionado por un veh¨ªculo aut¨®nomo, ?qui¨¦n ser¨¢ el responsable? Muchos plantean esta cuesti¨®n para testar los problemas que puede plantear la Inteligencia Artificial. Sin embargo, en realidad estar¨ªamos ante un pseudoproblema. Pues una m¨¢quina no puede ser susceptible de responsabilidad alguna, dado que no es un agente moral y no cabe imputarle deber o derecho algunos.
Adam Smith planteaba un supuesto similar en su Teor¨ªa de los sentimientos morales. A nadie se le ocurre imputar una muerte o una lesi¨®n grave a un tiesto, por mucho que la maceta nos abra la cabeza durante un vendaval. Buscaremos al que la ha colocado all¨ª sin tener esa previsi¨®n ante las r¨¢fagas de viento, por haberse inhibido de tomar las medidas oportunas.
Al otro lado del espejo, por decirlo as¨ª, ser¨ªa impensable imaginar que un robot pudiera tener alg¨²n remordimiento por dejar sin trabajo a los humanos o si debe cotizar fiscalmente para sostener el sistema de pensiones. Dif¨ªcilmente ser¨ªa consciente de haber precarizado a¨²n m¨¢s el mercado laboral o la sensaci¨®n de ser un esquirol en medio de una huelga.
El caso es que tendemos a humanizarlos, tal como ha solido hacer la ciencia ficci¨®n desde tiempo inmemorial. Los grandes ingenios de la IA siempre se nos han presentado en las novelas y sus respectivas adaptaciones cinematogr¨¢ficas como humanoides. Hall 9000 intenta tocar la fibra compasiva de quien le desconecta en 2001, una odisea en el espacio.
En Blade runner un sofisticado robot acaba con su creador por haberle hecho mortal y se lamenta de las cosas que se perder¨¢n cuando su memoria cese. Adem¨¢s el protagonista resulta ser un artefacto tan humanizado que acaba enamor¨¢ndose de otro robot y para colmo acaban teniendo descendencia.
Cu¨¢n lejos quedan aquellos aut¨®matas de Vaucanson a los que menciona Kant, justamente para hacer ver que ning¨²n aut¨®mata pod¨ªa ser libre y alertarnos por el contrario de que los humanos podemos actuar maquinalmente, si renunciamos a nuestra responsabilidad moral y dejamos con ello de ser personas.
Sin duda la Inteligencia Artificial puede ya calcular infinitamente mejor que nosotros. Es capaz de hacer pron¨®sticos m¨¢s fiables, al igual que puede ganarnos al ajedrez o al go. Nos impresiona que pueda sobrepasar al dise?ador y sea capaz de combinar aspectos que nuestra limitada mente no puede abarcar. Todo eso es cierto.
Sin embargo, ese c¨¢lculo utilitarista que maximiza los resultados no cruza el umbral de la ¨¦tica. Se queda en el ¨¢mbito de lo que Kant denomin¨® imperativos hipot¨¦ticos que ata?en a la habilidad y tienen un objetivo netamente pragm¨¢tico. Podr¨¢n resolver de un modo altamente sofisticado problemas t¨¦cnicos extremadamente dif¨ªciles, pero nunca ser¨¢n sujetos ¨¦ticos. A buen seguro se les podr¨¢ programar para no da?ar f¨ªsicamente a los humanos, pero no cabr¨¢ pedirles que tengan culpa o compasi¨®n algunas.
Ning¨²n robot podr¨¢ estremecerse al contemplar el cielo estrellado sobre su cabeza y descubrir la ley moral en su fuero interno. Esto es un rasgo exclusivamente humano, que tampoco pueden compartir hipot¨¦ticos dioses cuya voluntad ser¨ªa perfecta por definici¨®n y por lo tanto no requiere acatar ninguna ley moral.
Jam¨¢s cabr¨¢ encarcelar a un robot, al igual que no se le puede conducir al cadalso, aunque s¨ª quepa desconectarlos o resetearlos. No solo porque le resultar¨ªa indiferente, por muchas emociones cibern¨¦ticas que podamos inocularle, sino porque no pueden ser susceptibles de ninguna imputaci¨®n moral o jur¨ªdica.
En ¨²ltima instancia, su dise?ador ser¨ªa el ¨²nico responsable de sus desmanes, al igual que lo ser¨¢ de los aciertos, por muy alambicado y complejo que pueda ser el proceso en cuesti¨®n. Al programar uno u otro algoritmo se introducen sesgos y eso condiciona los resultados. A partir de ah¨ª la IA podr¨¢ descubrir itinerarios ignotos, pero lo har¨¢ sin franquear las fronteras condicionadas o determinadas por esas tendencias que ha introducido el responsable del dise?o.
La ¨¦tica debe orientar a los humanos que dise?an la IA, quienes a veces parecen tentados a transferir sus responsabilidades, como si pudieran delegarlas en sus creaciones, lo cual es absolutamente imposible. Conviene no distraerse y no dislocar el ¨¢mbito de la reflexi¨®n moral.
El aut¨¦ntico peligro es que nos roboticemos los humanos y esto parece hallarse a la orden del d¨ªa. Nuestros representantes pol¨ªticos votan en bloque lo que diga su jefe de grupo, cosa que podr¨ªa hacer perfectamente cualquier aplicaci¨®n inform¨¢tica programada para ello. Damos por sentado que pueda pronosticarse su voto, como tambi¨¦n cabe aventurar el dictamen de un magistrado, porque su deriva ideol¨®gica inclina la balanza incluso cuando viste la toga.
Damos por bueno que sus compromisos con uno u otro partido pol¨ªtico les exonere de utilizar su discernimiento y act¨²en como lo hiciera un robot convenientemente programado para cumplir con esa misi¨®n. Pero no dejan de ser moralmente responsables por haberse autoprogramado. Siguen siendo agentes morales. Algo que los robots jam¨¢s podr¨¢n ser.
Roberto R. Aramayo es historiador de las ideas morales y pol¨ªticas e el IFS-CSIC
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.