?M¨¢quinas con ¨¦tica? C¨®mo ense?ar moral a los ordenadores al traducir deontolog¨ªa a n¨²meros
En pleno debate sobre los riesgos de la inteligencia artificial, se buscan f¨®rmulas para que estos sistemas prioricen unas decisiones sobre otras en funci¨®n de t¨¦cnicas como el aprendizaje por refuerzo
Hay tres elementos b¨¢sicos en la f¨®rmula matem¨¢tica para ense?ar un c¨®digo deontol¨®gico a las m¨¢quinas. Y no se diferencia mucho del c¨®ctel ¨¦tico que manejamos las personas. Acci¨®n, valor y norma conforman esta tr¨ªada con la que juegan los investigadores para establecer limitaciones que controlen el comportamiento de las inteligencias artificiales.
Para las personas, el valor equivale a una especie de norma social, com¨²nmente aceptada: sabemos que mentir es una acci¨®n moralmente reprobable. Y las normas ayudan a formalizar la idea de valor en un c¨®digo jur¨ªdico. ¡°Las normas proh¨ªben, como se proh¨ªbe fumar en espacios cerrados, pero el valor tambi¨¦n te ayuda a promover acciones buenas, como por ejemplo hacer un donativo o ser amables¡±, expone Maite L¨®pez-S¨¢nchez, investigadora en IA y catedr¨¢tica de la Universitat de Barcelona, que trabaja en sistemas para introducir principios ¨¦ticos en sistemas de inteligencia artificial.
Las personas aprendemos este marco, que sirve para delimitar nuestro comportamiento, durante el proceso de socializaci¨®n. Pero en las m¨¢quinas hay que traducir todo a n¨²meros y funciones matem¨¢ticas. El objetivo final es proporcionar una ordenaci¨®n de las acciones. ¡°Al final las m¨¢quinas est¨¢n muy integradas en la sociedad y acaban tomando decisiones que nos afectan a las personas. Ser¨ªa deseable que estas decisiones estuvieran alineadas con lo que nosotros entendemos que es correcto, que se integraran bien socialmente¡±, sostiene la investigadora.
L¨®pez-S¨¢nchez acude a lo m¨¢s b¨¢sico para explicar la necesidad de tener m¨¢quinas con ¨¦tica: ¡°Puedo tener un coche aut¨®nomo y, si le doy el objetivo de llevarme al trabajo, el coche har¨ªa la ruta que fuera m¨¢s eficiente o m¨¢s r¨¢pida. Nosotros tenemos muy claro que quiero llegar a mi trabajo, pero no quiero atropellar a nadie. No ser¨ªa moralmente correcto¡±. Pero la casu¨ªstica va mucho m¨¢s all¨¢ de los supuestos extremos. ¡°Hay muchos aspectos a tener en cuenta para conducir correctamente. No se trata solo de no saltarte las normas, sino de hacer bien las cosas, como ceder el paso a un peat¨®n, mantener una distancia de seguridad o no ser agresivo con el claxon¡±, a?ade la investigadora.
La ¨¦tica en las inteligencias artificiales tambi¨¦n sirve promover un tratamiento igualitario. ¡°Si es un sistema de toma de decisi¨®n para conceder un seguro m¨¦dico, lo que queremos es que sea un algoritmo que no tenga sesgo, que trate de la misma manera a todas las personas que eval¨²e¡±, apunta L¨®pez-S¨¢nchez.
En los ¨²ltimos a?os, han saltado a la palestra sesgos algor¨ªtmicos de todo tipo. Un sistema desarrollado por Amazon que seleccionaba candidatos para un puesto de trabajo favorec¨ªa los curr¨ªculums de hombres frente a los de mujeres. Lo hac¨ªa porque se entren¨® con mayor¨ªa de curr¨ªculums masculinos y no hubo forma de corregir esta desviaci¨®n. Otro algoritmo, en este caso utilizado por el sistema sanitario en Estados Unidos, penalizaba a las personas negras frente a las blancas a igualdad de gravedad cl¨ªnica, de forma que se asignaba un mayor riesgo a los blancos y, por tanto, se les daba prioridad en la atenci¨®n m¨¦dica.
Adem¨¢s, los sistemas aut¨®nomos lidian con problemas relacionados con la propiedad intelectual o con el uso de datos privados. Una f¨®rmula para evitar estas deficiencias consiste en establecer autolimitaciones en el dise?o del algoritmo. Ana Cuevas, profesora del ¨¢rea de L¨®gica y Filosof¨ªa de la Ciencia en la Universidad de Salamanca, defiende este enfoque proactivo: ¡°No tenemos que esperar a que las cosas se produzcan para analizar los riesgos que pueden tener, sino partir del supuesto de que antes de crear un sistema de inteligencia artificial tenemos que pensar qu¨¦ tipo de sistema quiero crear para evitar ciertos resultados indeseables¡±.
?tica en el lenguaje de las m¨¢quinas
La introducci¨®n de un corpus ¨¦tico en las m¨¢quinas es un trabajo relativamente nuevo. La comunidad cient¨ªfica lo ha abordado sobre todo desde el punto de vista te¨®rico, pero no es tan com¨²n bajar al barro para concretar valores en cifras y ense?anzas morales en ingenier¨ªa. En el grupo de investigaci¨®n de S¨¢nchez-L¨®pez, WAI, de la Universitat de Barcelona, exploran este campo de forma experimental.
Estos investigadores vinculan los conceptos de valor y acci¨®n en el dise?o de los sistemas. ¡°Tenemos unas funciones matem¨¢ticas que nos dicen que para un determinado valor, una cierta acci¨®n de la m¨¢quina se considera positiva o negativa¡±, cuenta L¨®pez-S¨¢nchez. As¨ª, en el ejemplo del coche aut¨®nomo, una conducci¨®n suave en una carretera con curvas se considerar¨¢ positiva ante el valor de la seguridad. Aunque si se observa desde el prisma del valor de la amabilidad con los otros conductores, el veh¨ªculo podr¨ªa decidir aumentar su velocidad si nota que entorpece el ritmo de otros autom¨®viles.
En este caso concreto habr¨ªa un conflicto entre valores, que se resolver¨ªa con una ponderaci¨®n. Previamente, se establecen preferencias que indican qu¨¦ valores prevalecen. Todo el conjunto comprende f¨®rmulas entrelazadas, que adem¨¢s deben contener la variable de la norma. ¡°Hay otra funci¨®n que estipula que una norma promueve un valor¡±, apunta la investigadora. ¡°Y tenemos tambi¨¦n funciones que observan c¨®mo una norma eval¨²a la acci¨®n y tambi¨¦n c¨®mo eval¨²a el valor dicha acci¨®n¡±. Es un complejo sistema en el que la retroalimentaci¨®n es clave.
Cuando L¨®pez-S¨¢nchez habla de evaluar se refiere directamente al aprendizaje de las m¨¢quinas. Una de las formas que tienen de aprender es por refuerzo, como las personas, que actuamos bien porque se nos premia y evitamos hacerlo mal porque se nos castiga. En la inteligencia artificial tambi¨¦n sirve este mecanismo.
¡°Las recompensas son n¨²meros. Los premios se los damos con n¨²meros positivos y los castigos se los damos con n¨²meros negativos¡±, explica la investigadora del WAI. ¡°Las m¨¢quinas intentan sacar cuantos m¨¢s puntos mejor. As¨ª que la m¨¢quina va a intentar portarse bien si le doy n¨²meros positivos cuando hace las cosas bien. Y, si cuando se porta mal, la castigo y le quito puntos, intentar¨¢ no hacerlo¡±. Como para instruir a los ni?os, se punt¨²a con fines educativos.
Pero existen muchas cuestiones por resolver. Para empezar, algo tan sencillo como decidir qu¨¦ valores queremos introducir en las m¨¢quinas. ¡°La ¨¦tica se desarrolla de formas muy diferentes. En algunos casos tendremos que hacer c¨¢lculos utilitarios, de minimizaci¨®n de los riesgos o de los da?os¡±, se?ala la profesora Cuevas. ¡°Otras veces a lo mejor tenemos que usar c¨®digos deontol¨®gicos m¨¢s fuertes, como establecer que un sistema no puede mentir. Cada sistema necesita incorporar ciertos valores y para esto tiene que haber un acuerdo comunitario y social¡±.
En el laboratorio de L¨®pez-S¨¢nchez bucean en estudios sociol¨®gicos para encontrar valores comunes entre las personas y a trav¨¦s de diferentes culturas. Al mismo tiempo, toman como referencia documentos internacionales, como la Declaraci¨®n Universal de Derechos Humanos de la ONU. Aunque habr¨¢ aspectos m¨¢s dif¨ªciles de consensuar a nivel global. As¨ª lo cree Cuevas: ¡°Las limitaciones de las m¨¢quinas tendr¨¢n sus fronteras. La Uni¨®n Europea, por ejemplo, tiene su forma de hacer las cosas y Estados Unidos tiene otra¡±, enfatiza, en referencia al distinto abordaje regulatorio que se da a cada lado del Atl¨¢ntico.
Puedes seguir a EL PA?S Tecnolog¨ªa en Facebook y X o apuntarte aqu¨ª para recibir nuestra newsletter semanal.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.