Lecciones de ¨¦tica para m¨¢quinas que ¡®piensan¡¯ y toman decisiones
La inteligencia artificial precisa de unas normas que regulen los procesos de dise?o y evaluaci¨®n de esa tecnolog¨ªa para anticiparse a posibles usos inmorales, inapropiados o maliciosos
La creciente autonom¨ªa de cualquier aparato con inteligencia artificial, desde un tel¨¦fono m¨®vil hasta un dron o un androide, abre un nuevo tipo de relaciones hombre-m¨¢quina que deben ser estudiadas desde la ¨¦tica, entre otros muchos puntos de vista.
¡°Si estos robots interaccionan con humanos y toman sus propias decisiones racionales a partir de la informaci¨®n captada por sensores, la posibilidad de que produzcan una inteligencia superior causa cierta inquietud porque se percibe que esta capacidad podr¨ªa ser usada contra un sector de la poblaci¨®n o, en el caso extremo, contra la humanidad¡±. As¨ª lo entiende Ulises Cort¨¦s, profesor de Inteligencia Artificial de la Universidad Polit¨¦cnica de Catalu?a y coordinador de programas acad¨¦micos del Barcelona Supercomputing Center - Centro Nacional de Supercomputaci¨®n (BSC-CNS).
Est¨¢ claro que los algoritmos que soportan los servicios de la rob¨®tica necesitan gestionar cantidades ingentes de datos personales cuya seguridad y confidencialidad deben quedar garantizadas, as¨ª como el compromiso de que s¨®lo se usar¨¢n para fines exclusivamente autorizados por el usuario. Pero adem¨¢s, seg¨²n Ricardo Malhado, analista de IDC, ¡°preservar la ¨¦tica es fundamental para corroborar que no se est¨¢n utilizando algoritmos parciales con relaci¨®n a raza, g¨¦nero y religi¨®n ni para favorecer los intereses de determinadas empresas¡±. De este modo, se trata de erradicar desde el principio cualquier atisbo de comportamiento inmoral, como ocurri¨® en marzo de 2016 con Tay, un chatbot creado por Microsoft para hablar por Twitter con j¨®venes de entre 18 y 24 a?os y que tuvo que ser retirado porque ¡°aprendi¨®¡± a escribir mensajes racistas.
Por ello, entre otras cosas, se pide a los fabricantes transparencia en sus desarrollos. ?Pero qu¨¦ m¨¢s es necesario para garantizar este comportamiento ¨¦tico de la inteligencia artificial? Algunas de las respuestas a esta pregunta son competencia de la Robo¨¦tica, una disciplina cuyo origen se remonta al cuento C¨ªrculo vicioso, publicado en 1942 en el libro Yo, robot, de Isaac Asimov. Seg¨²n comenta a EL PA?S Retina Ulises Cort¨¦s, uno de los objetivos de esta rama de la ¨¦tica es afianzar que el dise?o de este tipo de m¨¢quinas garantiza la seguridad de todos los humanos. En este sentido, los expertos en esta materia se enfrentan a cuestiones como las siguientes: ?Qu¨¦ reglas deben seguirse para dise?ar la inteligencia de estos robots? ?Qu¨¦ principios ¨¦ticos deben aprender? ?C¨®mo se eval¨²a que aplican lo aprendido de forma correcta? ?Qui¨¦n y de qu¨¦ forma regula que el dise?o de este tipo de aparatos cumple con un conjunto m¨ªnimo de requerimientos que garanticen la seguridad de los humanos? ?Qui¨¦n y de qu¨¦ manera vigila el cumplimiento de lo legislado?
En principio, los progresos en inteligencia artificial, por s¨ª mismos, no deber¨ªan plantear problemas morales ya que muchos llegan precisamente para salvaguardar esa seguridad de las personas o para facilitar que la relaci¨®n hombre-m¨¢quina sea m¨¢s natural y emp¨¢tica. Este es el caso de los nuevos m¨®viles Huawei Mate 10, cuyo procesador Kirin 970 simula el pensamiento humano y es capaz de analizar el entorno, lo cual hace que estos tel¨¦fonos sean m¨¢s ¡°conscientes¡± de las necesidades de los usuarios en cada momento. Pero lo que Cort¨¦s s¨ª deja claro que hay que tener en cuenta desde el principio es ¡°el posible mal uso de esos avances¡±. Como ejemplo, este profesor alude a la falta de regulaci¨®n sobre la responsabilidad de una m¨¢quina dise?ada para ser un robot de compa?¨ªa que debe tener localizado a su due?o de forma permanente y, a veces, tomar decisiones por ¨¦l. ?C¨®mo se regula la cesi¨®n de la responsabilidad que acarrean esas decisiones? ?Qui¨¦n es el responsable ¨²ltimo? Asimismo, se debe pensar en un escenario donde los robots de compa?¨ªa est¨¦n preparados para detectar cambios en el estado de ¨¢nimo de sus due?os e informar a los cuidadores legales, que a su vez pueden ser humanos o no, para que tomen las decisiones adecuadas. Y en el caso de que una persona opte por no tomar la medicaci¨®n ?qu¨¦ debe hacer el robot? ?Informar al cuidador humano o guardar el secreto de esa decisi¨®n voluntaria? ¡°Adem¨¢s, todo esto implica pasar informaci¨®n privada de un sitio a otro¡±, puntualiza Cort¨¦s.
Autocontrol versus regulaci¨®n
Ante la falta de una regulaci¨®n, algunos gigantes tecnol¨®gicos decidieron unirse para tratar conjuntamente las cuestiones morales ante los avances de la rob¨®tica y compartir las mejores pr¨¢cticas en el desarrollo de la inteligencia artificial. As¨ª naci¨® en septiembre de 2016 la asociaci¨®n Partnership on AI, impulsada por Amazon, Apple, Google, IBM y Microsoft y a la que ya se han unido m¨¢s de 60 entidades. Se trata de una iniciativa inspirada por movimientos anteriores como un manifiesto que en julio de 2015 alertaba de los peligros de la inteligencia artificial, pidiendo su regulaci¨®n, y que fue firmado por un millar de expertos entre los que se encontraban el f¨ªsico Stephen Hawking; el cofundador de Apple, Steve Wozniak; el fundador de Tesla, Elon Musk; el ling¨¹ista Noam Chomsky; o Demis Hassabis, cofundador y CEO de Google DeepMind.
De igual modo, en el ¨¢mbito acad¨¦mico destacan proyectos como AI100, de la Universidad de Stanford, liderado por Eric Horvitz, investigador de Microsoft, y que se ha comprometido a elaborar cada cinco a?os un informe detallado sobre la repercusi¨®n de la inteligencia artificial en la sociedad. El primero de estos informes fue publicado a finales de 2016.
M¨¢s cercana y reciente nos queda la iniciativa de los profesores Luc Steels y Ramon L¨®pez de M¨¢ntaras, que en marzo de este a?o propiciaron un B¡¤Debate, iniciativa de Biocat y la Obra Social ¡°la Caixa¡±, que deriv¨® en la publicaci¨®n de la Declaraci¨®n de Barcelona para el Uso Apropiado de la Inteligencia Artificial. Este manifiesto, abierto a nuevas firmas y comentarios, recoge la preocupaci¨®n por el posible uso ¡°inapropiado, prematuro o malicioso¡± de las nuevas tecnolog¨ªas y como contrapartida propone un c¨®digo de conducta basado en seis puntos: prudencia, fiabilidad, transparencia, responsabilidad, autonom¨ªa restringida y el papel humano.
A pesar de esos movimientos de autocontrol y de las recomendaciones procedentes del ¨¢mbito acad¨¦mico, Cort¨¦s estima que no s¨®lo se hace ¡°muy necesaria¡± una regulaci¨®n que en el caso de Europa debe realizarse a nivel comunitario y estatal, sino que adem¨¢s ¡°debe existir un esfuerzo de estandarizaci¨®n de los procesos de dise?o y evaluaci¨®n de los sistemas inteligentes aut¨®nomos, es decir, de las m¨¢quinas capaces de tomar por s¨ª mismas decisiones racionales e inteligentes¡±. En este sentido, ya existen iniciativas en el Parlamento Europeo para estudiar la legislaci¨®n pertinente que regule el uso apropiado de la inteligencia artificial.
¡°Los retos est¨¢n cambiando d¨ªa a d¨ªa y la educaci¨®n de los ciudadanos, los investigadores y los pol¨ªticos en cuestiones ¨¦ticas es indispensable para resolver estas cuestiones. Los pol¨ªticos deber¨ªan entender el alcance de estas tecnolog¨ªas y la asesor¨ªa deber¨ªa venir de expertos del sector p¨²blico para evitar cualquier contaminaci¨®n o sesgo. Pero queda claro que lo de estudiar o dise?ar las reglas de interacci¨®n entre humanos y m¨¢quinas no puede esperar m¨¢s¡±, remata Cort¨¦s.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.