La importancia de la ¨¦tica en la inteligencia artificial
La tecnolog¨ªa es un paso m¨¢s de nuestra evoluci¨®n¡ Y su c¨®digo de ceros y unos debe ser un reflejo de nuestros genes.
No se trata de ciencia ficci¨®n. Desde hace d¨¦cadas, son muchos los cient¨ªficos que vaticinan una explosi¨®n de inteligencia artificial en alg¨²n momento del siglo XXI. Esta inteligencia artificial podr¨ªa llegar a ser algo ¨²nico, algo enormemente poderoso que podr¨ªa imponerse a la inteligencia humana. ?Es el momento de establecer criterios ¨¦ticos s¨®lidos?
En 1985, Judith Jarvis Johnson puso de manifiesto en la revista The Yale Law Journal (la publicaci¨®n de la Facultad de Derecho de Yale) algunas preguntas que llevaban rondando desde principios del siglo XX en el conocimiento humano. Este reconocido jurista expuso la complejidad que supondr¨ªa para una inteligencia artificial encontrar la soluci¨®n de un dilema humano complejo. Imaginemos que una persona conduce un coche sin frenos; ante ¨¦l se bifurca el camino en dos: en el camino de la izquierda hay cinco personas, en el de la derecha s¨®lo hay una. ?Es l¨ªcito matar a una persona para salvar a otras cinco? Vamos con la segunda parte del dilema: un joven acude a una cl¨ªnica para un chequeo rutinario; en esa cl¨ªnica hay cinco pacientes esperando trasplantes de ¨®rganos. Para poder vivir, dos de ellos necesitan un pulm¨®n, otros dos necesitan sendos ri?ones y el quinto requiere un coraz¨®n. Curiosamente el joven que ha ido a hacerse el chequeo tiene el mismo grupo sangu¨ªneo que ellos, lo que le convierte en el donante id¨®neo. Repetimos la pregunta: ?Es l¨ªcito matar a una persona para salvar a otras cinco?
Un ser humano tendr¨ªa que despejar las inc¨®gnitas de la ecuaci¨®n atendiendo criterios ¨¦ticos. En cualquiera de los casos, cuantitativamente hablamos de matar a una persona para salvar a otras cinco. No obstante, casi todo el todo el mundo estar¨ªa de acuerdo en que es preferible atropellar a esa persona para salvar a las otras cinco. Hay muchos factores puramente humanos que podr¨ªan justificar esta decisi¨®n, como la ausencia de contacto f¨ªsico (no es lo mismo matar a un desconocido que a alguien que tratamos y conocemos personalmente). Sin embargo, es dif¨ªcil que una m¨¢quina pueda calibrar este tipo de decisiones, por eso es tan importante que la inteligencia artificial pueda estar dotada de una ¨¦tica, o c¨®digo de valores, que condicione, a nuestra imagen y semejanza, la esencia de sus actos.
Siguiendo este razonamiento, hay te¨®ricos que se postulan en creencias catastrofistas. Es el caso del fil¨®sofo Nick Bostrom, que sostiene que una?inteligencia artificial avanzada podr¨ªa tener la capacidad de provocar la extinci¨®n humana, ya que sus planes pueden no implicar tendencias motivacionales humanas. No obstante, Bostrom tambi¨¦n plantea la situaci¨®n contraria en la que una super inteligencia podr¨ªa ayudarnos a resolver problemas tediosos y constantes en la humanidad, tales como la pobreza, la enfermedad o la destrucci¨®n del planeta.
Una ¨¦tica empresarial
La infinita complejidad de un sistema de valores humanos hace que la?inteligencia artificial no encuentre motivaciones amigables en formas de proceder humanas. No obstante, es la ¨¦tica la que sostiene la mayor¨ªa de organizaciones. El com¨²n entender y la aceptaci¨®n de nuestros esquemas culturales, implica el funcionamiento de complejos recovecos y motivaciones de la psique humana. Al incorporar la Inteligencia Artificial a los procesos de las organizaciones, es importante dotar a esta nueva tecnolog¨ªa de valores y principios. Y, dentro de las organizaciones, son los desarrolladores de esta tecnolog¨ªa las personas que realmente han de trabajar siendo conscientes de las implicaciones morales y ¨¦ticas que conlleva su trabajo.
La problem¨¢tica planteada se est¨¢ materializando en la Asociaci¨®n sobre Inteligencia Artificial, creada por Elon Musk y Sam Altman, en la que se invita a los principales l¨ªderes tecnol¨®gicos para poder identificar dilemas ¨¦ticos y prejuicios. Su objetivo primordial es establecer unas reglas de juego, basadas en un marco de comportamiento moral, donde la Inteligencia Artificial pueda desarrollarse en representaci¨®n de la humanidad.
Seg¨²n un informe realizado por SAS en el a?o 2017, el 92% de las empresas considera prioritario capacitar a sus tecn¨®logos en ¨¦tica, y el 63% cuenta con comit¨¦s en este tipo de asuntos para revisar el buen uso de la inteligencia artificial. Se trata, pues, de un tema necesario y de soluci¨®n posible. Por ello, algunas compa?¨ªas est¨¢n comenzando a formar a las personas que a su vez est¨¢n formando a las m¨¢quinas. Es, al fin y al cabo, una inclusi¨®n de la ¨¦tica en los algoritmos que rigen la inteligencia artificial. Por ejemplo, la concesi¨®n de un pr¨¦stamo no debe realizarse atendiendo criterios de sexo, edad o religi¨®n. Es importante que el machine learning se nutra de principios universales de respeto, libertad e igualdad. La cultura es uno de los veh¨ªculos de nuestra supervivencia: es b¨¢sico que continuemos formando e informando atendiendo a unos principios b¨¢sicos.
Robo¨¦tica: principios para el siglo XXI
Hoy en d¨ªa, la humanidad est¨¢ inmersa en una revoluci¨®n tecnol¨®gica sin precedentes. La preocupaci¨®n ¨¦tica por la creaci¨®n de nuevos tipos de inteligencia requiere de un exquisito criterio moral de las personas que dise?an estas nuevas formas de tecnolog¨ªa. El algoritmo ha de ser capaz de discernir y reconocer fallos cuando se centran en acciones sociales con repercusi¨®n que antes realizaba un ser humano. El concepto es claro: el c¨®digo no puede da?ar a personas o a empresas.
Fruto de esta preocupaci¨®n, el Parlamento Europeo realiz¨® un informe sobre rob¨®tica en 2017 llamado C¨®digo ?tico de Conducta y, recientemente (diciembre de 2018), ha publicado el primer borrador de la Gu¨ªa ?tica para el uso responsable de la Inteligencia Artificial. 52 expertos han escudri?ado y exprimido los rincones de la problem¨¢tica, centr¨¢ndose en el ser humano siempre bajo la luz de la defensa de los derechos fundamentales.
Son est¨¢ndares morales dirigidos a humanos, a los creadores de tecnolog¨ªa. Los principios son los siguientes:
- Se debe asegurar que la IA est¨¢ centrada en el ser humano.
- Se debe prestar atenci¨®n a los grupos vulnerables, como los menores de edad o las personas con discapacidades.
- Debe respetar los derechos fundamentales y la regulaci¨®n aplicable.
- Debe ser t¨¦cnicamente robusta y fiable.
- Debe funcionar con transparencia.
- No debe restringir la libertad humana.
Las grandes organizaciones, empresas y gobiernos est¨¢n centr¨¢ndose en los problemas que pueden surgir en el tema de la ¨¦tica de la inteligencia artificial para trazar consideraciones, pr¨¢cticas y marcos comunes de cara al futuro. Es importante alcanzar un acuerdo donde se pueda conceptualizar y, sobre todo, regular las pr¨¢cticas derivadas. Al fin y al cabo, la tecnolog¨ªa es un paso m¨¢s de nuestra evoluci¨®n¡ Y su c¨®digo de ceros y unos debe ser un reflejo de nuestros genes.
Miguel ?ngel Barrio es head de Entelgy Digital
DeepMind de Google aprende a compartir
DeepMind fue la empresa de Inteligencia Artificial adquirida por Google en 2014. Esta compa?¨ªa alcanz¨® grandes cotas de popularidad por crear el primer programa en ganar a un jugador profesional de Go. El Go es un juego complej¨ªsimo, mucho m¨¢s que el ajedrez, debido a que el n¨²mero de posibilidades que plantea es sencillamente enorme. El programa AlphaGo de DeepMind fue capaz de ganar 4-1 al campe¨®n europeo Fan Hui.
Hace poco sus creadores decidieron enfrentarlo a 40 millones de partidas de un juego de ordenador cuyo objetivo era recolectar fruta. ?El nuevo ingrediente?: el libre albedr¨ªo. El resultado fue que conforme avanzaba y aprend¨ªa, DeepMind se volvi¨® altamente agresivo. Frente a este hecho, los desarrolladores modificaron sus algoritmos para que la cooperaci¨®n fuese el objetivo. ?El resultado? Las cotas de ¨¦xito mejoraron enormemente cuando DeepMind colaboraba con otros agentes. La Inteligencia artificial puede reflejar lo mejor de la humanidad; tan s¨®lo necesita aprenderlo.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.