¡°La inteligencia artificial nos obliga a revisar nuestra idea de justicia¡±
Seg¨²n el fil¨®sofo y tecn¨®logo David Weinberger, el aprendizaje autom¨¢tico est¨¢ creando sus propios modelos para entender el mundo, un proceso que amplifica algunos errores humanos
Puedo decir algo m¨¢s sobre esto?¡± y ¡°Me he extendido demasiado¡± son dos de las muletillas con las que David Weinberger (Nueva York, 1950) finaliza muchas de sus respuestas. Este doctor en Filosof¨ªa por la Universidad de Toronto, bautizado por The Wall Street Journal como ¡°gur¨² del marketing¡±, muestra as¨ª su pasi¨®n por asuntos que conoce al dedillo gracias a una larga trayectoria que ha desarrollado en paralelo a la evoluci¨®n de internet, una herramienta que en su opini¨®n nos ha conducido hasta ¡°el mejor momento de la historia de la humanidad para convertirse en un sabio o en un perfecto idiota¡±. Si algunas de sus expresiones recuerdan a Woody Allen, no es casualidad: entre 1976 y 1983 fue uno de los guionistas que se introduc¨ªa en la mente del director para crear las historias de la tira c¨®mica Inside Woody Allen. Aunque ahora Weinberger prefiere diseccionar otros cerebros, el de las m¨¢quinas que aprenden por s¨ª solas, con el fin de estudiar c¨®mo piensan y los posibles sesgos de sus decisiones.
Ya en 1999 fue coautor del Manifiesto Cluetrain, definido como un manual sobre marketing online y en el que se abordaban las nuevas formas de comunicar y de compartir conocimientos e impresiones en internet. Casi 20 a?os despu¨¦s, al analizar c¨®mo han evolucionado esas conversaciones, se muestra optimista: ¡°Mucho de lo que estamos consiguiendo es positivo, a pesar de que resulta duro escuchar algunas conversaciones globales de las que no podemos estar orgullosos y que son fruto de la estupidez y de los privilegios de algunos. Adem¨¢s, existen conversaciones manipuladas, discontinuas u ofensivas que ser¨ªa necesario erradicar, pero aun as¨ª no quiero subestimar la capacidad de internet como herramienta de comunicaci¨®n¡±.
A ese manifiesto le siguieron otras publicaciones en solitario sobre tendencias tecnol¨®gicas, pero adem¨¢s ha trabajado como profesor universitario, articulista, vicepresidente de marketing, asesor de campa?as presidenciales en internet, codirector del laboratorio de innovaci¨®n en bibliotecas de la Facultad de Derecho de Harvard¡ Un extenso y variado curr¨ªculum hasta llegar a la actualidad, momento en el que est¨¢ centrado en su labor como investigador del Berkman Klein Center for Internet & Society de la Facultad de Derecho de Harvard.
- M¨¢quinas que juegan con sus propias reglas
La actividad de Weinberger intenta dar respuestas a c¨®mo est¨¢ cambiando la tecnolog¨ªa las relaciones humanas, la comunicaci¨®n, el conocimiento y la sociedad. Este es el motivo por el que ser¨¢ uno de los ponentes en el pr¨®ximo Foro de la Cultura de Burgos, que se celebrar¨¢ en la ciudad castellana del 9 al 11 de noviembre. En este encuentro, reflexionar¨¢ sobre la siguiente pregunta: ?seremos capaces de controlar la inteligencia artificial (IA)? Weinberger adelanta a EL PA?S RETINA que hay dos aspectos ¡°apasionantes¡± a la hora de investigar los avances del aprendizaje autom¨¢tico (el consabido machine learning) de las m¨¢quinas: los nuevos conjuntos de reglas creados por la propia IA y la redefinici¨®n del concepto de imparcialidad.
Con respecto al primer asunto, los avances tecnol¨®gicos como la inteligencia artificial aplicada al Internet de las cosas est¨¢n permitiendo que las m¨¢quinas no solo conecten entre ellas, sino que adem¨¢s creen sus propios sistemas para comunicarse y determinar c¨®mo se afectan entre s¨ª los elementos que conforman dichos sistemas. ¡°Estamos confiando cada vez m¨¢s en m¨¢quinas que extraen conclusiones de modelos que ellos mismos han creado y que a veces est¨¢n m¨¢s all¨¢ de la comprensi¨®n humana porque sus reglas conciben el mundo de una manera diferente a nuestra forma de pensar¡±, se?ala.
As¨ª las cosas, el tecn¨®logo se pregunta qu¨¦ significar¨ªa para nosotros si esos modelos con los que el aprendizaje autom¨¢tico entiende el mundo resultaran ser m¨¢s precisos o veraces que nuestra propia manera de analizar c¨®mo funciona el mundo. ¡°Es un largo debate, aunque ya estamos recurriendo a m¨¢quinas que piensan de una manera diferente a nosotros porque calculan m¨¢s r¨¢pido o porque sus respuestas suelen ser m¨¢s certeras, aunque no sepamos explicar c¨®mo lo consiguen¡±, apunta Weinberger.
- ?M¨¢s o menos imparciales que los humanos?
Ese matiz de ¡°lo inexplicable¡± enlaza con el segundo asunto de la IA que hoy en d¨ªa ocupa la mente de este fil¨®sofo: la imparcialidad. ¡°Las conclusiones de los sistemas creados por las m¨¢quinas quiz¨¢s no solo est¨¦n repitiendo los sesgos que introducimos los humanos, sino que incluso podr¨ªan amplificarlos¡±, afirma. En su opini¨®n, nuestra primera responsabilidad es averiguar por qu¨¦ el aprendizaje autom¨¢tico llega a diagn¨®sticos parciales, aunque ¡°no est¨¢ muy claro que siempre vayamos a ser capaces de detectar el punto en el que se han equivocado, precisamente porque a veces no sabemos c¨®mo entienden el mundo y esos modelos cada vez ser¨¢n m¨¢s complejos¡±.
Seg¨²n Weinberger, es necesario seguir trabajando en este concepto, lo cual ya est¨¢ generando un debate que le resulta muy enriquecedor: ¡°Admito que la IA puede amplificar las injusticias en la sociedad y que es posible que eso sea algo muy dif¨ªcil de evitar, por lo que supone un problema urgente. Pero personalmente quiz¨¢s est¨¦ m¨¢s interesado en lo que los humanos estamos aprendiendo sobre nuestro propio concepto de imparcialidad gracias a nuestro trabajo con la IA¡±.
Seg¨²n el fil¨®sofo, si el responsable de un sistema de machine learning quiere que este sea justo, primero debe decirle exactamente qu¨¦ tipo de imparcialidad debe tener en cuenta para hacer sus c¨¢lculos, as¨ª que durante los pr¨®ximos a?os asistiremos a innumerables debates en torno a lo que nos parece justo e injusto. ¡°Ya no se trata de lograr una IA justa, sino que la propia IA est¨¢ haciendo mucho por nosotros porque nos obliga a revisar las diferentes ideas de justicia que tenemos las personas¡±, concluye.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.