?Cu¨¢les son los dilemas ¨¦ticos del uso de la inteligencia artificial?
El uso de algoritmos implica una revoluci¨®n en los sistemas de seguridad y videovigilancia. Tambi¨¦n ha puesto de actualidad la importancia de un uso ¨¦tico y responsable de estos recursos tecnol¨®gicos que suponen un salto cualitativo esperanzador, pero no exento de riesgos
Un gran poder conlleva una gran responsabilidad. La frase resulta t¨®pica desde que Stan Lee, el creador de Spider-Man, contribuy¨® a divulgarla en sus c¨®mics, pero no por ello deja de ser cierta. La inteligencia artificial (IA) es un campo de innovaci¨®n tecnol¨®gica en el que se est¨¢n produciendo avances asombrosos. Aunque el concepto existe desde la conferencia de Dartmouth, en 1956, ha sido en el ¨²ltimo decenio cuando los sistemas de IA y algoritmos han irrumpido con contundencia en nuestras vidas cotidianas.
Seg¨²n el cient¨ªfico cognitivo Marvin Minsky, hemos ense?ado a los ordenadores a tomar decisiones aut¨®nomas ¡°que requieren inteligencia¡±, y ese es un logro ¡°tan espectacular y esperanzador como inquietante¡±. Ya no se trata de robots que ejecutan con precisi¨®n tareas predeterminadas, sino de sistemas artificiales que ¡°deciden¡± por s¨ª mismos, simulando nuestros procesos cognitivos y de aprendizaje.
Para David Leslie, del Alan Turing Institute (Londres), autor del documento pionero Understanding Artificial Intelligence Ethics and Safety, ¡°cuando los seres humanos realizan tareas que requieren inteligencia, se les hace responsables del grado de precisi¨®n, fiabilidad y sensatez de sus decisiones¡±. En especial, se les juzga por ¡°el efecto de sus acciones sobre otros seres humanos¡±. Y ese grado de exigencia ¨¦tica y jur¨ªdica hay que aplicarlo tambi¨¦n a los cada vez m¨¢s complejos y sofisticados sistemas de inteligencia artificial de los que hacemos uso en campos como la salud, la educaci¨®n, el transporte o la seguridad. Pero aqu¨ª entra un debate: ?puede la IA ser responsable ¨¦tica y jur¨ªdicamente de sus actos?
Seguridad escrupulosa y no invasiva
Estos dilemas se plantean con especial nitidez en un ¨¢mbito tan sensible a la innovaci¨®n como el de la seguridad privada. ¡°La tecnolog¨ªa da superpoderes a nuestros vigilantes¡±, nos cuenta Jos¨¦ Daniel Garc¨ªa Espinel, director de Innovaci¨®n de Prosegur. La empresa de seguridad est¨¢ inmersa en un proceso de profunda renovaci¨®n tecnol¨®gica para el que la pandemia ha servido de acelerador. Hoy, disponen de sistemas de an¨¢lisis cualitativo de las im¨¢genes obtenidas por c¨¢maras de videovigilancia, sistemas pioneros de detecci¨®n de incendios, ruidos, gases o ca¨ªdas de objetos, controles de acceso no invasivos con toma de temperatura y comprobaci¨®n de equipos de protecci¨®n de seguridad individual¡ Todo un arsenal tecnol¨®gico de nov¨ªsimo cu?o puesto al servicio de la creaci¨®n de entornos cada vez m¨¢s seguros y que hace, tal y como explica, Garc¨ªa Espinel, ¡°un uso intensivo de algoritmos de inteligencia artificial de desarrollo propio o el uso de otros ya existentes¡±.
La aplicaci¨®n de las nuevas tecnolog¨ªas a la vigilancia en infraestructuras de transporte se ha hecho con pleno respeto al actual marco legal de protecci¨®n de datos y bajo una reflexi¨®n ¨¦tica del uso de la inteligencia artificialJos¨¦ Daniel Garc¨ªa Espinel, director de Innovaci¨®n de Prosegur
Un ejemplo de c¨®mo funcionan en la pr¨¢ctica estas nuevas tecnolog¨ªas aplicadas a la seguridad y la vigilancia es en las infraestructuras de transporte, un entorno en que los controles se pueden desarrollar de manera r¨¢pida y fluida, sin incomodidades para el usuario, porque apoyando al vigilante hay una videoc¨¢mara inteligente conectada a un sistema de comunicaciones, una central de control remoto y un centro de operaciones de seguridad (SOC, por sus siglas en ingl¨¦s). Garc¨ªa Espinel destaca que ¡°este salto cualitativo se ha hecho de manera muy escrupulosa, con pleno respeto al actual marco legal de protecci¨®n de datos y bajo una reflexi¨®n previa sobre los debates ¨¦ticos que plantea el uso de tecnolog¨ªas como la inteligencia artificial¡±.
Un nuevo marco legal
El pasado 21 de abril, la Comisi¨®n Europea hizo p¨²blicas las bases de su futuro reglamento sobre el uso de la inteligencia artificial. En ellas se asume que ¡°los beneficios potenciales de la IA para nuestras sociedades son m¨²ltiples¡± y que la mayor¨ªa de sistemas implementados presentar¨¢n ¡°un riesgo bajo o nulo¡±. Sin embargo, en los casos puntuales en que esos riesgos existan, la Comisi¨®n se compromete a garantizar ¡°la tutela de los derechos fundamentales de los ciudadanos europeos¡±. Y para ello se prev¨¦ un sistema de sanciones administrativas que afecta tanto a los prestadores de esos sistemas de IA como a sus usuarios. Las infracciones m¨¢s graves conllevar¨¢n multas de hasta 30 millones de euros o, si el infractor es una empresa, hasta el 6% de su volumen de negocio anual.
Los directivos de las grandes empresas deber¨ªan ser conscientes de que algunas de las decisiones pueden lesionar derechos y llegar a ser inmoralesI?aki Ortega, economista y profesor en la Universidad Internacional de La Rioja (UNIR)
Para el economista y profesor en la Universidad Internacional de La Rioja (UNIR), I?aki Ortega, la hora de la plena responsabilidad ha llegado: ¡°Los directivos de las grandes empresas deber¨ªan ser conscientes de que algunas de las decisiones que adoptan en el ejercicio de su actividad pueden lesionar derechos y llegar a ser inmorales¡±. Detr¨¢s de la utilizaci¨®n poco escrupulosa de algoritmos y sistemas ¡°hay profesionales concretos¡±. ?l propone ¡°una especie de nuevo juramento hipocr¨¢tico para estos tecn¨®logos, algo que muchas instituciones ya est¨¢n planteando¡±.
En especial, Ortega valora muy positivamente uno de esos compromisos ¨¦ticos, ¡°el llamado juramento tecnocr¨¢tico que promueve la Universidad de Columbia con el neurobi¨®logo espa?ol Rafael Yuste: los emprendedores, investigadores, inform¨¢ticos y cualquier profesional involucrado en la neurotecnolog¨ªa o la inteligencia artificial deber¨ªan suscribirlo¡±. Ser¨ªa un juramento p¨²blico ¡°para darle mayor solemnidad y peso moral¡±, e incluir¨ªa compromisos como ¡°la no maleficencia (la tecnolog¨ªa debe aplicarse siempre sin voluntad de causar da?o), la b¨²squeda del bien com¨²n, el consentimiento de los afectados, la imparcialidad de los algoritmos (que no deben incluir ning¨²n sesgo discriminatorio), la transparencia y el pleno respeto por la dignidad de las personas¡±.
La transparencia y el respeto a la privacidad son cualidades que solemos exigir a las instituciones p¨²blicas pero con frecuencia olvidamos ped¨ªrselos tambi¨¦n a quienes desarrollan algoritmosMaite L¨®pez S¨¢nchez, profesora de la Universitat de Barcelona
En el mismo sentido va la reflexi¨®n de Maite L¨®pez S¨¢nchez, profesora de la Universitat de Barcelona y coordinadora del m¨¢ster interuniversitario de inteligencia artificial. Para la acad¨¦mica, ¡°cada vez somos m¨¢s conscientes de que el dise?o de algoritmos y sistemas de IA debe ser m¨¢s respetuoso con los valores ¨¦ticos de las personas, y eso implica ir un paso m¨¢s all¨¢ de si es legal o no para contemplar tambi¨¦n hasta qu¨¦ punto es compatible con nuestro sistema ¨¦tico de valores¡±. Entre ese conjunto de principios, L¨®pez valora muy oficialmente ¡°la transparencia y el respeto a la privacidad¡±. Y recuerda que son cualidades que solemos exigir a las instituciones p¨²blicas ¡°pero con frecuencia olvidamos ped¨ªrselos tambi¨¦n a quienes desarrollan algoritmos¡±.
Un imperativo ¨¦tico asumido por las principales empresas
En el mundo de la empresa, compa?¨ªas como Google, Hewlett Packard o Microsoft est¨¢n desarrollando en los ¨²ltimos a?os sus propios protocolos y c¨®digos morales internos basados en muy exigentes criterios de responsabilidad corporativa. Para Tim Bajarin, experto en tecnolog¨ªa y derechos de los consumidores, estos manuales de buenas pr¨¢cticas tienen en com¨²n ¡°la voluntad de ir incluso m¨¢s all¨¢ de los nuevos marcos legales que se est¨¢n desarrollando en la Uni¨®n Europea, Estados Unidos y Gran Breta?a¡±. Todos parten, seg¨²n Bajarin, de una estimaci¨®n realista ¡°de lo que podr¨ªa salir mal si no nos ce?imos a una serie de directrices y principios rectores muy estrictos que, en primer lugar, nos obligan a plantearnos si una tecnolog¨ªa de este tipo es realmente necesaria y si sus beneficios potenciales superan con claridad a sus posibles riesgos¡±.
Para Daniel Bastida, Delegado de Protecci¨®n de Datos de Prosegur, ¡°antes de desarrollar cualquier sistema de inteligencia artificial, hay que plantearse si resulta necesario, proporcionado e id¨®neo¡±. Esos son los tres criterios b¨¢sicos que aplica su compa?¨ªa para garantizar que ¡°todos nuestros procesos de innovaci¨®n tecnol¨®gica partan en primer lugar de una reflexi¨®n ¨¦tica¡±. Prosegur se est¨¢ anticipando al nuevo marco legal que va a consolidarse en Europa y en Espa?a, desarrollando un reglamento interno y creando un comit¨¦ espec¨ªfico de inteligencia artificial en el que estar¨¢n representados varios departamentos de la compa?¨ªa, ¡°de protecci¨®n de datos e innovaci¨®n a licencias, recursos humanos o el equipo jur¨ªdico¡±, seg¨²n cuenta Bastida. En todos los casos, ¡°ser¨¢ el juicio ¨¦tico el que determine las reglas del juego¡±.
Protecci¨®n adecuada de datos sensibles
Bastida pone un ejemplo pr¨¢ctico de los protocolos que est¨¢ aplicando ya su compa?¨ªa: ¡°En nuestros procesos de an¨¢lisis y entrenamiento de algoritmos estamos usando datos sint¨¦ticos para asegurarnos de que no se compromete la privacidad de las personas¡±. Garc¨ªa Espinel explica el concepto: ¡°Disponemos de tecnolog¨ªas para detectar autom¨¢ticamente el uso de equipos de protecci¨®n personal, es decir, de los elementos que garantizan la seguridad de los trabajadores en entornos industriales: cascos, guantes, mascarillas¡ Para que las c¨¢maras de videovigilancia inteligente reconozcan si todos los que acceden llevan el equipo completo y puesto correctamente, necesitamos entrenar a nuestros algoritmos de an¨¢lisis cualitativo con im¨¢genes de personas con o sin casco, con o sin guantes, con la mascarilla bien y mal puesta. Si hici¨¦semos uso de im¨¢genes reales recogidas de manera aleatoria sin autorizaci¨®n, estar¨ªamos vulnerando el derecho a la privacidad de las personas que aparecen en ellas. As¨ª que hemos recurrido a un sistema de creaci¨®n de im¨¢genes sint¨¦ticas a partir de modelos 3D generados por ordenador¡±.
Antes de desarrollar cualquier sistema de inteligencia artificial, hay que plantearse si resulta necesario, proporcionado e id¨®neoDaniel Bastida, delegado de Protecci¨®n de Datos de Prosegur
El responsable de innovaci¨®n a?ade: ¡°Algunos sistemas de inteligencia artificial requieren un n¨²mero limitado de im¨¢genes reales de partida, lo que llamamos datos semilla, por lo que en esos casos los generamos retratando a modelos que previamente han firmado un consentimiento informado¡±. Bastida a?ade que Prosegur se est¨¢ tomando muy en serio la prohibici¨®n, consagrada en el Reglamento Europeo de Protecci¨®n de Datos, de generar y conservar datos biom¨¦tricos (huellas dactilares, reconocimiento facial, de voz, de retina, de manera de andar, de escritura en teclado¡) salvo en circunstancias excepcionales que as¨ª lo requieran: ¡°En sistemas de desbloqueo de alarma mediante contrase?a y reconocimiento de voz, recogemos el dato biom¨¦trico, lo comparamos y lo eliminamos de inmediato. Y procedemos siempre con consentimiento expl¨ªcito de los afectados¡±.
Para Garc¨ªa Espinel, ¡°estos recursos tecnol¨®gicos suponen un incremento exponencial de la seguridad de los implicados. La videovigilancia con an¨¢lisis inteligente de flujo de datos nos permite detectar cosas que sin ella no percibir¨ªamos, es un potenciador extraordinariamente eficaz de las capacidades del vigilante¡±. No sustituye a la proximidad f¨ªsica ni la capacidad de intervenci¨®n del ser humano ¡°pero s¨ª le permite disponer de un plan B y de un plan C al servicio del objetivo final, que es garantizar entornos seguros¡±. La guinda del pastel es, por supuesto, que a todas estas virtudes se a?ada un an¨¢lisis riguroso de los posibles riesgos e implicaciones ¨¦ticas.
Hacia un humanismo tecnol¨®gico
Para I?aki Ortega, que adem¨¢s de acad¨¦mico es coautor del ensayo La buena tecnolog¨ªa, protocolos internos, manuales de responsabilidad corporativa y comit¨¦s de ¨¦tica van en la direcci¨®n adecuada: ¡°Los profesionales de todo el mundo deben reconocer su responsabilidad compartida en el impacto de las tecnolog¨ªas de la informaci¨®n¡±. Desde su punto de vista, ¡°la buena tecnolog¨ªa ha sido uno de los grandes descubrimientos de la era de la pandemia¡±.
Las innovaciones disponibles ¡°son el presente y no deben alarmarnos¡±. Sin embargo, ¡°es preocupante que un uso indebido de los grandes conjuntos de datos personales recolectados gracias a ella pueda lesionar la privacidad, la reputaci¨®n e incluso la dignidad del ser humano¡±. Una vez m¨¢s, hay que poner el acento en la responsabilidad que implica todo gran poder: ¡°En esta l¨ªnea, en mayo de 2019, varios acad¨¦micos y tecn¨®logos publicaron el conocido como 'Manifiesto de Viena del Humanismo Digital'. En ¨¦l apuestan por configurar las tecnolog¨ªas de acuerdo con los valores y las necesidades humanas en lugar de permitir que sean las tecnolog¨ªas basadas en intereses espurios las que den forma a los seres humanos¡±.