El peligro de vivir en una sociedad digital dise?ada para manipular
Las promesas de la biotecnolog¨ªa, la neurociencia o la inteligencia artificial requieren inculcar h¨¢bitos morales a los responsables de cada avance para asegurar un futuro m¨¢s justo e inclusivo
La b¨²squeda constante de una sociedad en la que los algoritmos cada vez pesan m¨¢s o en el que existan seres humanos mejorados plantea reflexiones morales que en muchas ocasiones llegan con retraso. Resulta fundamental tener claros los l¨ªmites antes de que la ciencia haga posible ciertos avances.
Elena Postigo, profesora de Bio¨¦tica de la Universidad Francisco de Vitoria, advierte de estos peligros: ¡°Los avances en biotecnolog¨ªa y neurociencia nos acercan cada vez m¨¢s a esa idea de transhumanos con capacidades aumentadas, pero los planes de estudio no ense?an h¨¢bitos morales para que los cient¨ªficos desarrollen una conciencia cr¨ªtica sobre sus quehaceres¡±. La profesora intervino recientemente en un debate sobre tecno¨¦tica organizado por la Fundaci¨®n Telef¨®nica.
Seg¨²n Postigo, es necesario fijar estos l¨ªmites antes de que las leyes, las normas deontol¨®gicas o los protocolos de actuaci¨®n regulen los posibles conflictos derivados de alterar nuestras bases biol¨®gicas, como una nueva estratificaci¨®n social con profundas desigualdades.
"Criticar la tecnolog¨ªa es la mejor manera de amarla¡± Jaron Lanier
Para ello, la formaci¨®n de los m¨¦dicos, biotecn¨®logos y cient¨ªficos debe ir acompa?ada de una reflexi¨®n antropol¨®gica en torno a qui¨¦nes somos, hacia d¨®nde vamos, qu¨¦ medios debemos utilizar para ello y cu¨¢les ser¨¢n los instrumentos m¨¢s adecuados para evolucionar teniendo en mente conceptos como lo deseable, lo mejor, lo responsable, lo prudencial, lo justo, el respeto de las libertades o la protecci¨®n de los m¨¢s vulnerables. ¡°Tiene que ser una reflexi¨®n intr¨ªnseca, consustancial al mismo quehacer de esos profesionales y que debe darse a la par de sus investigaciones, nunca despu¨¦s¡±, apunta Postigo.
Ese mismo retraso a la hora de someter a juicio la tecnolog¨ªa es lo que ya ha propiciado ¡°una sociedad digital dise?ada para manipular¡±, seg¨²n Jaron Lanier. Este fil¨®sofo, m¨²sico e investigador pionero en el ¨¢mbito de la realidad virtual afirma que criticar la tecnolog¨ªa es ¡°la mejor manera de amarla¡±, puesto que ¨²nicamente a trav¨¦s del debate podremos cambiar el rumbo y crear un nuevo mundo virtual que sea sostenible, as¨ª como ¡°menos oscuro y alocado¡±.
En este contexto, Lanier hace un llamamiento para acabar con ¡°esos enormes sistemas algor¨ªtmicos¡± que nos esp¨ªan para implantar t¨¦cnicas de adicci¨®n y de modificaci¨®n del comportamiento similares a las que convierten a las personas en lud¨®patas: ¡°Hemos permitido que las grandes compa?¨ªas, con una enorme sed de datos, implanten un modelo de negocio que domina internet y que est¨¢ impulsando los sistemas de inteligencia artificial, con lo que nos acercamos a la creaci¨®n de un nuevo orden econ¨®mico donde lo importante es captar informaci¨®n pero sin darle ning¨²n valor a las personas¡±.
Lanier considera que salir de esta situaci¨®n es complicado, dado que nos enfrentamos a una adici¨®n ¡°a gran escala¡± donde casi nadie quiere hablar del problema al haberse creado grandes intereses comerciales. Pero aun as¨ª se muestra optimista y conf¨ªa en que las voces cr¨ªticas acabar¨¢n por impulsar el uso de la tecnolog¨ªa de una forma positiva.
Se trata de una opini¨®n compartida por el experto en identidad y marcas Andy Stalman, que aboga por recuperar la capacidad de duda, de criticar para mejorar: ¡°Debemos dejar a un lado la dictadura del algoritmo y poner en valor la democracia de las personas¡±. Seg¨²n Stalman, hoy en d¨ªa una de las cuestiones que debe preocuparnos es qui¨¦nes son los encargados de programar los algoritmos. ¡°?Qu¨¦ diferencias hay entre una misma inteligencia artificial (IA) cargada por distintos gobiernos? Estamos depositando recursos y energ¨ªas en las nuevas tecnolog¨ªas, pero no debemos desatender los grandes desaf¨ªos como sociedad y humanidad¡±, se?ala.
- Una IA razonada, transparente y justa
Precisamente, a mediados de septiembre IBM respondi¨® a algunas de estas reivindicaciones con el lanzamiento de un servicio que detecta autom¨¢ticamente los posibles sesgos introducidos al programar una IA y proporciona la explicaci¨®n sobre las decisiones tomadas a partir de algoritmos. Se trata de una soluci¨®n automatizada que no solo describe qu¨¦ criterios y factores de confianza utilizan los algoritmos para llegar a una recomendaci¨®n, sino que tambi¨¦n detecta resultados potencialmente injustos y detalla qu¨¦ otros datos deben a?adirse al modelo con el fin de resolver los sesgos identificados.
¡°La inteligencia artificial no puede ser una caja negra. Si una soluci¨®n concreta de IA no puede explicar c¨®mo y con qu¨¦ criterios elabora sus recomendaciones, no deber¨ªa utilizarse. Solo la IA razonada, transparente y justa sobrevivir¨¢¡±, afirma Marta Mart¨ªnez, directora de IBM en Espa?a, Portugal, Grecia e Israel.
Seg¨²n Mart¨ªnez, el objetivo final de esta propuesta es que las personas, y no la tecnolog¨ªa, seamos las responsables ¡°activas y ¨²nicas¡± de un futuro ¨¦tico inclusivo y mejor. En este mismo sentido, Fernando Broncano, catedr¨¢tico de Filosof¨ªa de la Ciencia en la Universidad Carlos III de Madrid, estima que ahora vivimos cada vez m¨¢s en un presente continuo porque vemos el futuro con miedo ¡°o al menos con indiferencia¡±.
Por eso, Broncano advierte de la necesidad de hacer m¨¢s deseable el d¨ªa de ma?ana, pero no en el sentido determinista de adaptarnos a lo que vendr¨¢, sino que m¨¢s bien debemos pararnos a debatir c¨®mo deber¨ªa ser la tecnolog¨ªa para que fuera posible interactuar con ella en una sociedad apetecible.
¡°Los que a¨²n tenemos alg¨²n tipo de responsabilidad en el orden intelectual, pol¨ªtico, econ¨®mico o social debemos pensar en qu¨¦ tipo de tecnolog¨ªa deber¨ªamos tener y abordar ese futuro mediante trayectorias que permitan transformar el entorno con compromisos morales que no deben separar la tecnolog¨ªa de lo human¨ªstico, lo educativo, lo cultural, lo econ¨®mico o lo pol¨ªtico¡±, aclara Broncano.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.