Por qu¨¦ no hay que tener miedo de la inteligencia artificial
La irrupci¨®n de una tecnolog¨ªa requiere nuevas reglas. ?C¨®mo lidiamos con los robots?
La idea de una sociedad automatizada, plagada de robots tanto en el hogar como en el trabajo, fue una de las utop¨ªas ¡ªy distop¨ªas¡ª con las que reaccion¨® la literatura a la introducci¨®n de los sistemas de automatizaci¨®n. A principios del siglo XX, el uso de autom¨®viles y sem¨¢foros populariz¨® la automatizaci¨®n a pie de calle. Desde entonces, el n¨²mero de m¨¢quinas y procesos autom¨¢ticos en nuestras vidas ha aumentado exponencialmente: las lavadoras, los cajeros autom¨¢ticos, el enfoque de las lentes de una c¨¢mara de fotos, las puertas, el lavado de coches, el termostato¡ Y el temor inicial que en su d¨ªa despertaron ha dejado paso a una sensaci¨®n de rutina. La automatizaci¨®n es tan corriente, que ni siquiera nos percatamos cuando nos topamos con ella.
Sin embargo, la inteligencia artificial (IA) y las m¨¢quinas autom¨¢ticas no son lo mismo. La IA es una forma de automatizaci¨®n avanzada. En los dispositivos convencionales se crean reglas de programaci¨®n muy exactas con las que una m¨¢quina ejecuta tareas determinadas. La eficiencia depende del detalle y la exactitud con el que se haya programado la tarea: por ejemplo, trazar la ruta m¨¢s corta entre Sevilla y Madrid. Lo que permite la IA es una automatizaci¨®n m¨¢s abstracta. Eso significar¨ªa trazar la ruta m¨¢s r¨¢pida entre Sevilla y Madrid teniendo en cuenta las obras, el n¨²mero de sem¨¢foros, los horarios previsibles de mayor intensidad de tr¨¢fico, as¨ª como imprevistos como accidentes de tr¨¢fico o las condiciones meteorol¨®gicas. Es decir, la programaci¨®n se centra en la creaci¨®n de reglas con las que medir la eficiencia en ese contexto y en el desarrollo de par¨¢metros de actuaci¨®n. Siguiendo esas reglas, los sistemas de automatizaci¨®n inteligentes escogen el proceso m¨¢s eficaz. Ese nivel de abstracci¨®n es un hito en la historia de la tecnolog¨ªa.
Estos logros asombran y asustan al mismo tiempo. Por falta de familiaridad, la IA parece magia y nos lleva a reabrir viejos debates. ?Es esa tecnolog¨ªa inteligente? ?Tiene sentimientos y voluntad? ?Es capaz de maldad y alevos¨ªa? ?Qui¨¦n es responsable si el sistema tiene efectos nocivos no previstos? ?Va a cambiar la naturaleza del ser humano? ?Qu¨¦ riesgos conlleva? ?Necesitamos nuevas normas?
Estas mismas cuestiones fueron precisamente objeto de debate en los tribunales de diversos pa¨ªses tras la comercializaci¨®n del autom¨®vil a principios del siglo XX. El hecho de que las mismas incertidumbres y preguntas surgidas con la introducci¨®n de un nuevo medio de transporte resurjan un siglo despu¨¦s con la llegada de la IA, requiere de una revisi¨®n del debate de anta?o. Desde el punto de vista normativo, tres aspectos merecen nuestra atenci¨®n.
1. La tecnolog¨ªa s¨®lo parece inteligente y humana cuando su uso no es corriente
La comercializaci¨®n de los coches fue en su d¨ªa anhelada por todas las capas sociales. El autom¨®vil como medio de transporte promet¨ªa un futuro de eficiencia e higiene en ciudades con calles infestadas de heces equinas. En cuesti¨®n de pocos a?os se dio un vuelco de 180 grados y los coches se convirtieron en una nueva plaga urbana. En los a?os veinte las manifestaciones en protesta por la inseguridad en las calles eran comunes: desfilaban chatarras de accidentes reales, con maniqu¨ªes ensangrentados y satan¨¢s como conductor. Las ciudades de Washington y Nueva York organizaron manifestaciones con 10.000 ni?os vestidos de fantasmas, simbolizando el n¨²mero anual de muertos en accidentes de tr¨¢fico.
La IA deber¨ªa darnos tanto miedo como la estad¨ªstica. Una m¨¢quina es incapaz de tener ambiciones o intereses, de enga?ar o de mentir
En pocos a?os el coche se convirti¨® en objeto de un debate ¨¦tico fundamental que lleg¨® hasta los juzgados. La audiencia provincial de Georgia, por ejemplo, mantuvo un intenso debate acerca del car¨¢cter moral del autom¨®vil. En su veredicto, la audiencia conclu¨ªa que si bien dichos veh¨ªculos no son mal¨¦volos, ¡°deben ser clasificados como animales salvajes peligrosos¡±. Por ello deb¨ªan aplicarse las leyes vigentes para la tenencia de animales ex¨®ticos.
Obviamente, con el paso del tiempo, el contacto y familiarizaci¨®n con los nuevos veh¨ªculos de transporte debilitaron las teor¨ªas humanizantes que atribu¨ªan a las m¨¢quinas motivos e intenciones diab¨®licas. El debate ¨¦tico y legal volvi¨® a centrarse en el comportamiento del ser humano delante y detr¨¢s del volante.
Ese aspecto de la discusi¨®n, de car¨¢cter filos¨®fico a primera vista, tuvo una clara consecuencia a nivel jur¨ªdico. Se descart¨® as¨ª la existencia de una responsabilidad por parte de la m¨¢quina como si esta fuera una entidad inteligente. Retrospectivamente, lo contrario no s¨®lo resultar¨ªa rid¨ªculo, sino que habr¨ªa supuesto un reto para la ¨¦tica y el derecho a la hora de crear normas y sanciones que fuesen viables tanto para seres humanos como para m¨¢quinas.
El debate en torno a la inteligencia artificial en este aspecto tiene las mismas implicaciones y requiere plantear las mismas consecuencias jur¨ªdicas y ¨¦ticas. ?Tiene el robot intenciones que justificar¨ªan la creaci¨®n de una entidad jur¨ªdica propia? ?En qu¨¦ modo recaer¨ªa la responsabilidad en la m¨¢quina exculpando a todo ser humano? ?C¨®mo se podr¨ªa implementar una sanci¨®n a una m¨¢quina?
La inteligencia artificial y sus m¨¦todos de an¨¢lisis estad¨ªsticos no encierran en s¨ª una voluntad propia. La inteligencia artificial no es inteligente. Por ello es incapaz de tener ambiciones e intereses propios y enga?ar o mentir. En otras palabras, la inteligencia artificial nos deber¨ªa dar tanto miedo como la estad¨ªstica. Eso no significa que sea inocua. La inteligencia artificial y sus algoritmos no son neutrales, sino el reflejo de las intenciones y el sesgo involuntario del equipo de programadores, cient¨ªficos de datos y entidades envueltas en la implementaci¨®n de esa tecnolog¨ªa.
Con la IA se pueden establecer protocolos muy transparentes que permitan determinar las modificaciones que han sido efectuadas por personas, independientemente de cu¨¢n complejos sean los algoritmos con los que opera esta tecnolog¨ªa. No hay motivo alguno por el que resulte necesario crear una entidad jur¨ªdica espec¨ªfica para la inteligencia artificial. La propia tecnolog¨ªa permite atribuir la responsabilidad por fallo o abuso a una persona determinada con m¨¢s claridad y facilidad que antes.
El conductor que maneja la inteligencia artificial y el peat¨®n expuesto a ese tr¨¢fico, pueden ser identificados.
2. La ¨¦tica y la ley deben ser neutrales frente a la tecnolog¨ªa
Volviendo a los dilemas que gener¨® la llegada de los coches hace un siglo, en aquel momento fue crucial enfocar el debate (¨¦tico y legal) en el ser humano para poder formular leyes y normas pr¨¢cticas y aplicables. No obstante, la creaci¨®n de un sistema legal y normativo que adjudicara derechos y obligaciones s¨®lo pod¨ªa ser leg¨ªtima con una clara idea de los riesgos y de los actores involucrados. Los tribunales y la sociedad en general tardaron un tiempo en entender tanto los aspectos t¨¦cnicos del coche, como los problemas que planteaba el tr¨¢fico.
En el debate sobre la IA se pide a la gente una mayor competencia t¨¦cnica. Sin embargo, no necesitamos saber c¨®mo funciona un avi¨®n para subir a uno
Los primeros intentos regulatorios nos parecer¨ªan hoy en d¨ªa grotescos. Sobre todo por la imposici¨®n de obligaciones a actores incapaces de ejercer un control adecuado sobre la m¨¢quina. En Reino Unido, por poner un ejemplo, se requer¨ªa al conductor que, antes de circular por un municipio, lo notificara al alguacil para que este, armado con dos banderas rojas, pudiera marchar ante el coche y advertir a los peatones.
El sistema legal que trataba de regular el tr¨¢fico atribuy¨® la responsabilidad exclusivamente al conductor. Sin embargo, en aquellos tiempos las calles se caracterizaban por su falta de previsibilidad: las se?ales de tr¨¢fico a¨²n no hab¨ªan sido inventadas, los ni?os jugaban en la calzada, los carruajes de caballos se desbocaban al o¨ªr los motores, y los peatones eran incapaces de calcular la velocidad a la que se acercaban los coches. Todo esto hac¨ªa que la responsabilidad asignada al conductor fuese desproporcionada. Desde el punto de vista fisiol¨®gico, era imposible reaccionar ante tanto imprevisto.
El pragmatismo y el sentido de justicia social llevaron al canadiense James Couzens a inventar un sistema de se?ales y reglas de tr¨¢fico para coordinar a peat¨®n y conductor. Couzens dimiti¨® de su puesto como vicepresidente de finanzas en Ford y empez¨® a trabajar para el Ayuntamiento de Detroit (EE?UU), capital mundial automovil¨ªstica en aquel entonces. Cigarro en mano, Couzens revolucion¨® las infraestructuras de transporte. En primer lugar, identific¨® las situaciones en las que la responsabilidad reca¨ªa en el peat¨®n, y cre¨® se?ales y zonas para poder cruzar las calles.
Al principio, la resistencia por parte de la sociedad fue grande. Las normas y obligaciones para los peatones no estuvieron exentas de controversia: el concejal Sherman Littlefield las tach¨® de denigrantes al ¡°tratar a los ciudadanos de a pie como ganado¡±. Couzens no se dej¨® amedrantar e impuso sus normas por decreto. El tiempo le dio la raz¨®n, demostrando la efectividad de su propuesta, que acab¨® convirti¨¦ndose en el modelo internacional. Couzens tambi¨¦n se encarg¨® de crear un plan de control y gesti¨®n del tr¨¢fico que permitiera prescindir de la presencia de la polic¨ªa en caso de falta de personal. As¨ª fue c¨®mo Detroit se convirti¨® en cuna del avance tecnol¨®gico, con ideas revolucionarias como el sem¨¢foro autom¨¢tico en los a?os veinte.
Es destacable la poca atenci¨®n que Couzens prest¨® al autom¨®vil como tecnolog¨ªa en s¨ª a la hora de concebir sus reglas de tr¨¢fico: las normas y limitaciones no ata?¨ªan al aspecto t¨¦cnico, sino ¨²nicamente a su uso en el espacio p¨²blico. Por ejemplo, las medidas para restringir la velocidad no prohib¨ªan el desarrollo de motores con m¨¢s caballos de fuerza, sino que limitaban el uso del acelerador por parte del conductor. Gracias a ello las leyes y normas establecidas por Couzens no tuvieron que ser modificadas con cada cambio tecnol¨®gico, ya que siempre permit¨ªan una recontextualizaci¨®n del uso de la tecnolog¨ªa. El hecho de que las normas de tr¨¢fico establecidas fuesen tecnol¨®gicamente neutrales es el motivo por el que un siglo despu¨¦s siguen vigentes y, en su esencia, no han perdido actualidad.
En el campo de la IA se est¨¢n estudiando leyes y principios ¨¦ticos que se puedan aplicar a los c¨®digos de programaci¨®n. Un ejemplo es el principio de la ¡°minimizaci¨®n de datos personales¡±, por el cual s¨®lo se debe procesar la cantidad m¨ªnima de datos personales necesaria para ofrecer un servicio o ejecutar una tarea. Este es un principio t¨¦cnico que tiene una importancia vital y afecta al procesamiento de informaci¨®n. Por una parte, el proceso salvaguarda la privacidad de las personas implicadas. Sin embargo, esta regla puede ir, parad¨®jicamente, contra la igualdad de trato porque no tiene en cuenta el contexto. Por ejemplo, hasta hace poco m¨¢s de una d¨¦cada, los ensayos sobre el uso de beta bloqueadores (f¨¢rmacos muy utilizados en cardiolog¨ªa) se realizaban a partir de una base de datos integrada mayoritariamente por varones de la etnia europea. Sus conclusiones eran v¨¢lidas para ese grupo, pero no para mujeres o para etnias con otra variaci¨®n gen¨¦tica.
La falta de informaci¨®n de determinados grupos sociales acaba generando una base de datos sesgada desde el principio: el perfil y caracter¨ªsticas de una parte de la poblaci¨®n estar¨¢ sobrerrepresentada y distorsionar¨¢ el c¨¢lculo, dando una impresi¨®n err¨®nea del conjunto. Asumir que con menos datos el riesgo de discriminaci¨®n disminuye es un mito. Dependiendo del contexto, se necesitar¨¢n m¨¢s o menos datos personales para no caer en simplificaciones que nos lleven a discriminar a determinados grupos.
El ciudadano no es quien debe entender el proceso t¨¦cnico detr¨¢s de la IA, sino los ingenieros, los expertos de marketing y los Gobiernos
Estos ejemplos son una muestra de que tenemos que cambiar de estrategia, porque hasta ahora el debate sobre la inteligencia artificial se ha centrado en la parte t¨¦cnica. Pero la historia demuestra que es posible elaborar leyes y normas sobre nuevas tecnolog¨ªas sin regular el c¨®digo matem¨¢tico en s¨ª. La ¨¦tica y el derecho convencionalmente se enfocan en el contexto social: sus principios no se aplican al proceso t¨¦cnico, sino a la situaci¨®n social en la que dicho proceso t¨¦cnico se integra. No se trata de regular la tecnolog¨ªa que permite la inteligencia artificial, sino lo que las personas hacen con ella.
3. La educaci¨®n de la sociedad para tratar nuevas tecnolog¨ªas no requiere conocimientos t¨¦cnicos
Con los coches, Couzens vio necesaria la educaci¨®n del ciudadano para que las reglas de tr¨¢fico permeasen y fuesen adoptadas por la sociedad. Asimismo, era consciente de que hab¨ªa aspectos de gran importancia ¡ªcomo aprender a calcular la distancia y velocidad de un autom¨®vil¡ª que s¨®lo se pod¨ªan resolver con la integraci¨®n de dichas tecnolog¨ªas en la vida cotidiana y la familiarizaci¨®n de uso. Couzens no crey¨® que fuese necesario entender los mecanismos del autom¨®vil m¨¢s all¨¢ de su funciones operativas, es decir, frenar, acelerar o cambiar una llanta. Tanto en el derecho como en la ¨¦tica rige la premisa ultra posse nemo obligatur, t¨¦rmino jur¨ªdico que afirma que nadie est¨¢ obligado a m¨¢s de lo que puede hacer. Los conocimientos necesarios para entender los mecanismos de un coche transcienden el sentido com¨²n, as¨ª que nadie tiene el deber de conocerlos.
En el debate sobre la IA al ciudadano se le pide una mayor competencia a nivel t¨¦cnico. Pero los dilemas que gener¨® el autom¨®vil a principios del siglo XX prueban que este tipo de discurso no es constructivo. No necesitamos saber c¨®mo funciona un avi¨®n para poder subirnos a uno. Tampoco se nos exige saber de bioqu¨ªmica para comprar un yogur. M¨¢s all¨¢ de lo que se puede, del sentido com¨²n, nadie est¨¢ obligado a saber.
La IA permite detectar patrones de comportamiento humano e identificar diferencias en la actuaci¨®n de distintos grupos (mujeres, etnias, clases sociales, entre muchos otros). En base a ello, el equipo de personas que usa dicha tecnolog¨ªa puede decidir discriminar de forma m¨¢s o menos leg¨ªtima, ofrecer servicios o informaciones diferentes, manipular la atenci¨®n y hacer sugerencias distintas. Se debe tener tambi¨¦n en cuenta la discriminaci¨®n involuntaria e impl¨ªcita, y por ello resulta imprescindible una evaluaci¨®n constante de la tecnolog¨ªa. Para ello los expertos no s¨®lo deben disponer de una sensibilidad ¨¦tica general, sino en particular en lo relativo a la discriminaci¨®n involuntaria que puede resultar a partir de sesgos en el dise?o o en las bases de datos con las que opera la IA.
El uso de esta tecnolog¨ªa para amplificar o compensar la discriminaci¨®n depende del grupo de seres humanos que la utilice. El ciudadano no es quien debe entender el proceso t¨¦cnico detr¨¢s de la IA para poder usarla. Son los ingenieros, los cient¨ªficos de datos, as¨ª como los departamentos de marketing y los Gobiernos que usen o tengan que regular dichas tecnolog¨ªas, quienes deben comprender la dimensi¨®n social y ¨¦tica de la inteligencia artificial.
Lorena Jaume-Palas¨ª es directora ejecutiva de AlgorithmWatch y miembro del Grupo de Sabios sobre Inteligencia Artificial y Big Data del Gobierno espa?ol.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.