Una inteligencia artificial responsable
El ser humano est¨¢ perdiendo el control sobre las tecnolog¨ªas de la informaci¨®n y las comunicaciones que ha creado y la Inteligencia Artificial no es una excepci¨®n
El ser humano est¨¢ perdiendo el control sobre las tecnolog¨ªas de la informaci¨®n y las comunicaciones que ha creado y la Inteligencia Artificial (IA) no es una excepci¨®n. Para no perder este control debemos orientar los avances de la IA al dise?o transparente de sistemas tecnol¨®gicos que sean compatibles con nuestros valores morales, sociales y culturales tales como la seguridad, la sostenibilidad, la democracia, la participaci¨®n, la seguridad, la transparencia, la rendici¨®n de cuentas y el surgimiento de ciertas propiedades y funciones¡ y las instituciones deben apoyar estos principios. El dise?o de los sistemas de IA se debe centrar en la eficiencia, la usabilidad, la flexibilidad, la resiliencia, la justicia, la dignidad, la felicidad, el bienestar, la seguridad, la salud, la empat¨ªa, la amistad, la solidaridad y la paz.
La IA est¨¢ en nuestra vida m¨¢s de lo que creemos; hacemos uso de ella pr¨¢cticamente a diario y, muchas veces, casi sin ser conscientes de ello: cuando entramos en un aparcamiento y se reconoce la matr¨ªcula de nuestro veh¨ªculo; cuando utilizamos nuestro m¨®vil para encontrar la mejor ruta para llegar a un destino; al llamar por tel¨¦fono y una m¨¢quina interact¨²a con nosotros para resolver nuestro problema; cuando hablamos con nuestro asistente virtual, cuando las plataformas de contenidos nos hacen recomendaciones que se ajustan a nuestras preferencias, cuando utilizamos traductores autom¨¢ticos de lenguajes, cuando nuestro m¨®vil reconoce nuestra huella digital o nuestra cara, y as¨ª podr¨ªamos seguir enumerando muchas m¨¢s actividades cotidianas donde interviene la IA.
La IA es una de las tecnolog¨ªas m¨¢s importantes del siglo XXI. Al igual que la m¨¢quina de vapor o la electricidad en su momento produjeron grandes cambios en la sociedad, la IA est¨¢ transformando el mundo. Las ventajas que se pueden obtener de la aplicaci¨®n de esta tecnolog¨ªa son muy prometedoras, ayudando a mejorar los diagn¨®sticos de im¨¢genes m¨¦dicas, permitir a los m¨¦dicos desarrollar nuevas terapias para enfermedades; reducir el consumo de energ¨ªa optimizando los recursos y as¨ª podr¨ªamos enumerar muchos de los retos que la IA puede abordar.
Pero no es oro todo lo que reluce. Son evidentes los beneficios que la sociedad puede obtener de los avances de la IA, pero tambi¨¦n hay sombras. Los trabajadores temen perder su trabajo a causa de la automatizaci¨®n, los consumidores se preguntan qui¨¦n es el responsable si un sistema basado en la IA tome una decisi¨®n equivocada, las peque?as empresas no saben c¨®mo aplicar la IA a su negocio, las nuevas empresas de IA no encuentran los recursos y el talento que necesitan en Europa, y la competencia internacional es m¨¢s feroz que nunca.
Desaf¨ªos ¨¦ticos
A medida que la Inteligencia Artificial se hace m¨¢s sofisticada, comenzar¨¢ a tomar decisiones ¨Co ayudar¨¢ a tomarlas- que tienen un mayor impacto en las vidas de las personas. Esto plantea desaf¨ªos ¨¦ticos a medida que las personas se vayan adaptando al papel m¨¢s amplio y prominente de la toma de decisiones automatizada en la sociedad.
Pensemos en este caso: un veh¨ªculo de conducci¨®n aut¨®noma al que, en un instante determinado, se le atraviesa un perro en su trayectoria y decide tomar la decisi¨®n de dar un giro brusco para no atropellarlo; como consecuencia de ello golpea a otro veh¨ªculo lo que da lugar a que se produzcan heridos graves, tanto entre los ocupantes del veh¨ªculo aut¨®nomo como entre los del veh¨ªculo golpeado. ?Qui¨¦n es el responsable de este accidente? ?El perro? ?El due?o del perro? ?El constructor del autom¨®vil? ?Los constructores de los dispositivos de sensorizaci¨®n y actuaci¨®n del autom¨®vil? ?Los t¨¦cnicos que han desarrollado el software que permite al autom¨®vil tomar la decisi¨®n? ?El propietario del autom¨®vil que ha personalizado el sistema de toma de decisiones para adaptarlo a sus preferencias? ?La administraci¨®n que ha autorizado la circulaci¨®n del veh¨ªculo? A medida que aumente el uso de la IA, ser¨¢ m¨¢s dif¨ªcil determinar la responsabilidad de las decisiones. Si se cometen errores que causan da?o, ?qui¨¦n debe asumir la responsabilidad?
Para poder determinar la responsabilidad en la toma de decisiones de los sistemas de IA se requiere transparencia. Los sistemas de IA deben explicar sus acciones a los seres humanos para demostrar por qu¨¦ se tom¨® una decisi¨®n. La implantaci¨®n de los sistemas de IA da lugar a numerosas cuestiones sociales, econ¨®micas, pol¨ªticas, tecnol¨®gicas, legales, ¨¦ticas y filos¨®ficas. ?Deber¨ªan los sistemas de IA ser tratados como entes ¨¦ticos? ?Pueden las m¨¢quinas tomar decisiones morales? ?Cu¨¢les son las consecuencias legales y ¨¦ticas de las tecnolog¨ªas de IA? ?Cu¨¢les son las consecuencias de que las administraciones p¨²blicas, las empresas y otras organizaciones tengan acceso a los datos y a las predicciones sobre el comportamiento de los ciudadanos? ?C¨®mo pueden los valores morales, sociales y legales ser parte del proceso de dise?o de los sistemas de IA?
Para hacer frente a estos retos y aprovechar al m¨¢ximo las oportunidades que ofrece la IA surge la Inteligencia Artificial Responsable, una IA de confianza basada en valores ¨¦ticos y sociales con un enfoque centrado en el ser humano. Un principio clave es la "¨¦tica en el dise?o", en virtud de la cual se aplicar¨¢n principios ¨¦ticos y jur¨ªdicos, con los datos utilizados desde el inicio del proceso de dise?o. Al definir los requisitos de los sistemas de IA, tambi¨¦n es importante tener en cuenta las interacciones con los seres humanos. Otro principio clave es la "seguridad desde el dise?o", seg¨²n el cual la ciberseguridad, la protecci¨®n de las v¨ªctimas y la facilitaci¨®n de la aplicaci¨®n de la ley deben tenerse en cuenta desde el principio del proceso de dise?o.
Para que la IA pueda cumplir sus expectativas, se requiere previsibilidad y confianza. El tratamiento previsible de las complejas cuestiones que plantea la IA, como la rendici¨®n de cuentas y los usos permitidos de los datos, fomentar¨¢ su inversi¨®n y uso; el progreso de la IA requiere que los consumidores conf¨ªen en la tecnolog¨ªa y en la equidad, en c¨®mo se ven afectados por ella y c¨®mo se utilizan sus datos; un tratamiento predecible y transparente facilita esta confianza.
Necesitamos un marco jur¨ªdico s¨®lido para abordar estas cuestiones, que son demasiado complejas o cambian con demasiada rapidez, para que la legislaci¨®n las aborde adecuadamente. Pero el proceso pol¨ªtico y legal por s¨ª solo no ser¨¢ suficiente. Para que la confianza florezca, un c¨®digo ¨¦tico para los cient¨ªficos de la IA es igualmente importante.
La IA Responsable no trata s¨®lo de crear reglas para gobernar las m¨¢quinas inteligentes, que tambi¨¦n, la misma tecnolog¨ªa debe permitir la regulaci¨®n autom¨¢tica de sus aplicaciones: hay que regular los datos que se crean y comparten, hay que dar soluciones en una sociedad basada en datos. Las tecnolog¨ªas digitales y la ciencia de los datos se utilizan ahora para dar forma a nuestras sociedades, para constituir el tejido mismo de nuestra sociedad, a menudo obviando la toma de decisiones democr¨¢tica y los hechos cient¨ªficos.
Podemos destacar siete retos a los que la Inteligencia Artificial Responsable debe dar respuesta: Responsabilidad por los errores(debe quedar claro d¨®nde radica la responsabilidad cuando los sistemas cometen errores y han de rendir cuentas), Transparencia en la toma de decisiones (los sistemas de IA deben explicar sus acciones a los seres humanos), Trabajo (los sistemas de IA reemplazan a las personas en muchos trabajos tradicionales; debemos repensar el significado del trabajo), Evitar el sesgo (deben promoverse valores fundamentales como la igualdad, la diversidad y la ausencia de discriminaci¨®n como consecuencia de la aplicaci¨®n de la tecnolog¨ªa), Valores ¨¦ticos fundamentales (?cu¨¢les ser¨¢n los valores ¨¦ticos fundamentales de la IA?), Protecci¨®n de datos y propiedad intelectual (la propiedad intelectual debe reconocerse y sopesarse en relaci¨®n con la necesidad de utilizar los datos para fomentar la innovaci¨®n), Ciberseguridad (protecci¨®n contra la pirater¨ªa inform¨¢tica a medida que los sistemas de IA asumen un papel m¨¢s destacado en la sociedad).
El comportamiento de las personas est¨¢ regulado por numerosas leyes, sin embargo, los algoritmos est¨¢n sujetos a muy pocas regulaciones. Esto es inapropiado y peligroso, ya que los sistemas de IA interfieren cada vez m¨¢s en nuestras vidas, a menudo sin nuestro conocimiento. Esto deber¨ªa estar controlado, aun trat¨¢ndose de un servicio gratuito.
Una nueva y prometedora etapa est¨¢ llegando y la Inteligencia Artificial Responsable nos puede ayudar a recibirla.
Vicent Botti es catedr¨¢tico del Instituto Valenciano de Investigaci¨®n en Inteligencia Artificial (VRAIN). Universitat Polit¨¨cnica de Val¨¨ncia
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.