Mi otro yo y la crisis de Freud
Una inteligencia artificial cada vez m¨¢s personalizada plantea un dilema central: crea una r¨¦plica de nosotros mismos que reposa en un algoritmo indescifrable e invisible al com¨²n de los mortales
Abundan estos d¨ªas incansables esfuerzos para alcanzar una inteligencia artificial ¨¦tica. Hemos celebrado el aniversario de ChatGPT, el chatbot que ¡ªni m¨¢s ni menos¡ª ha logrado instalarla en la charla del caf¨¦ del barrio.
En un periodo convulsionado como pocos, hay un nuevo actor indiscutible: la inteligencia artificial, ...
Abundan estos d¨ªas incansables esfuerzos para alcanzar una inteligencia artificial ¨¦tica. Hemos celebrado el aniversario de ChatGPT, el chatbot que ¡ªni m¨¢s ni menos¡ª ha logrado instalarla en la charla del caf¨¦ del barrio.
En un periodo convulsionado como pocos, hay un nuevo actor indiscutible: la inteligencia artificial, una herramienta que lleg¨® para cambiarlo todo, tambi¨¦n a nosotros mismos. Atravesamos una crisis de identidad sin precedentes; aunque nos cueste reconocerlo, amenaza con desplazarnos impunemente del centro de la escena sin siquiera pedirnos permiso. En palabras de Ray Kurzweil, la singularidad tecnol¨®gica (el momento en el que la inteligencia humana es superada por la artificial) est¨¢ cerca.
En esta crisis de identidad del ser humano, los debates morales est¨¢n a la orden del d¨ªa: ?quiero la tecnolog¨ªa? S¨ª, pero ?hasta qu¨¦ punto y a qu¨¦ costo? M¨¢s preguntas que respuestas.
Desde hace siglos, el transhumanismo ha impulsado la reflexi¨®n sobre el mejoramiento tanto f¨ªsico como psicol¨®gico de la condici¨®n humana mediante la incorporaci¨®n de la tecnolog¨ªa. El summum: el poshumano, un ser con capacidades ampliamente extendidas. Las pr¨®tesis rob¨®ticas o descubrimientos como CRISPR combinados con la inteligencia artificial (IA) hacen que esto resulte cada d¨ªa m¨¢s pr¨®ximo.
Son justamente los recientes neuroderechos, la nueva generaci¨®n de los derechos humanos, los que intentan ponerle un coto. El peligro no est¨¢ en lo consciente y palpable. Para muestra basta un bot¨®n: Elon Musk y su empresa Neuralink ¡ªya con autorizaci¨®n de la FDA estadounidense para realizar pruebas en humanos¡ª quieren colocarnos un chip en el cerebro y fusionarnos con la IA antes de que ¡°se convierta en algo tan poderoso que destruya a la raza humana¡±. El riesgo real est¨¢ en lo imperceptible: algoritmos que logran influir en nuestros gustos, parejas, voto sin que podamos darnos cuenta.
Hemos llegado a la fiesta de cumplea?os de ChatGPT con un regalo sorpresa: FreedomGPT, un modelo similar a aquel, pero con una diferencia un tanto ¡°peculiar¡±: no tiene ning¨²n tipo de censura. Si le pedimos que describa un modelo de negocio para comercializar armas, lo har¨¢. ?Ad¨®nde nos conducir¨¢?
La se?al de la carretera advierte de que el camino lleva hacia la personalizaci¨®n absoluta. Se acaba de lanzar PinAI, un dispositivo del tama?o de un tamagotchi conectado a la red m¨®vil con el cual podemos hacer un sinn¨²mero de funciones a trav¨¦s de un asistente de voz con IA. O las gafas con IA (Ray-Ban Smart Glasses), que constituir¨¢n un filtro permanente entre la realidad y lo que vemos y hasta podr¨¢n leer nuestro iris. FreedomGPT es la frutilla del postre de este cuento de hadas: un chatbot a nuestra imagen y semejanza al que podremos, sin ning¨²n tipo de tapujos, hacerle nuestras peores confesiones y exigirle nuestros m¨¢s culposos deseos. Este di¨¢logo no solo dejar¨¢ al desnudo nuestras infames miserias, sino tambi¨¦n, y m¨¢s peligroso a¨²n, las potenciar¨¢ (el conocido ¡°bucle de retroalimentaci¨®n pernicioso¡±).
As¨ª, la IA cada vez m¨¢s personalizada presenta un dilema central. No se trata de un alter ego, sino m¨¢s bien de nuestro doble de riesgo. ?Qu¨¦ pensar¨ªa Freud sobre esto? Se crea una d¨²plica de nuestro yo, un otro yo que reposa en un algoritmo indescifrable y, sobre todo, invisible al com¨²n de los mortales. Hoy, m¨¢s que nunca, ¡°lo esencial es invisible a los ojos¡±.
?Aceptar¨ªamos controlar nuestra r¨¦plica para ser, finalmente, conscientes de nuestros prejuicios? ?C¨®mo?
El primero de los escollos lo instala la cuesti¨®n de la privacidad: ?c¨®mo consentir el control de ese sistema que sabe m¨¢s de nosotros que nosotros mismos? ?Queremos realmente ser conscientes de nuestros sesgos?
Otro interrogante est¨¢ vinculado a c¨®mo afecta esa simbiosis con nuestro otro yo a nivel ps¨ªquico (verbigracia, la autopercepci¨®n), a nuestra vida en relaci¨®n y c¨®mo contribuye a la radicalizaci¨®n de nuestros pensamientos (verbigracia, la visi¨®n de t¨²nel). La preocupaci¨®n se incrementa si pensamos en ni?os, ni?as y adolescentes que est¨¢n construyendo su personalidad en un mundo digital y jam¨¢s tuvieron el contraste con el anal¨®gico, como lo tuvimos por ejemplo nosotros los mileniales, algunos centeniales y las generaciones anteriores.
Podemos proponer dos soluciones. Por un lado, la educaci¨®n. Casos como el de Almendralejo, donde los mismos ni?os de varios colegios usaron la IA para crear im¨¢genes desnudas de sus compa?eras, nos ense?an que prohibir es absurdo. Educar y concienzar resulta obligatorio.
Por el otro, la regulaci¨®n (como la ley de IA de la Uni¨®n Europea). La reticencia a aceptarla en algunos casos es espeluznante. No se trata de prohibir a troche y moche, sino de prevenir y sancionar en caso de incumplimiento. La innovaci¨®n no est¨¢ en peligro si creamos normas con base en un enfoque interdisciplinario y el¨¢sticas al crecimiento exponencial de la tecnolog¨ªa. Tampoco se trata de que nuestras latitudes queden fuera. Parad¨®jicamente, las industrias m¨¢s reguladas (la banca, las farmac¨¦uticas) son de las que m¨¢s se lucran e innovan.
El camino pasa por auditar los algoritmos de alto riesgo. Necesitamos evaluarlos para conocer qu¨¦ principios los gu¨ªan, qu¨¦ variables los gobiernan y qu¨¦ clase de predicciones hacen. Hoy nos parece impensado; en el futuro, ser¨¢ la regla.