?Los algoritmos lo saben todo o deben ayudarles los humanos?
La nueva ciencia de datos se cuestiona cu¨¢ndo hace falta que una persona supervise una decisi¨®n automatizada como un diagn¨®stico m¨¦dico o la concesi¨®n de un pr¨¦stamo
Hay ej¨¦rcitos formados por las mentes m¨¢s brillantes de la inform¨¢tica que se han dedicado a incrementar las probabilidades de conseguir una venta. La abundancia de datos y programas inteligentes de la era de Internet ha abierto la puerta al marketing a medida, los anuncios personalizados y las recomendaciones de productos.
Ni¨¦guenlo si quieren, pero no es un hecho sin importancia. No hay m¨¢s que fijarse en la gran restructuraci¨®n, propiciada por la tecnolog¨ªa, de los sectores de la publicidad, los medios de comunicaci¨®n y la venta minorista.
Esta toma de decisiones automatizada est¨¢ pensada para eliminar a los humanos de la ecuaci¨®n, pero el impulso de querer que alguien supervise los resultados que vomita el ordenador es muy humano. Muchos expertos en datos matem¨¢ticos consideran que el marketing es una placa de Petri con pocos riesgos ¡ªy, s¨ª, lucrativa¡ª en la que poner a punto las herramientas de una nueva ciencia. ¡°?Qu¨¦ pasa si mi algoritmo se equivoca? Que alguien ve el anuncio err¨®neo¡±, comenta Claudia Perlich, una especialista en datos que trabaja para una empresa de nueva creaci¨®n que se dedica a la publicidad personalizada. ¡°?Qu¨¦ da?o puede hacer? No es un falso positivo de un c¨¢ncer de mama¡±.
Pero el riesgo aumenta a medida que la econom¨ªa y la sociedad se empapan de los m¨¦todos y la mentalidad de la ciencia de los datos. Las grandes empresas y las de nueva creaci¨®n empiezan a utilizar la tecnolog¨ªa para tomar decisiones relacionadas con el diagn¨®stico m¨¦dico, la prevenci¨®n de la delincuencia y la concesi¨®n de pr¨¦stamos. En estos ¨¢mbitos, la aplicaci¨®n de la ciencia de los datos plantea dudas sobre cu¨¢ndo hace falta que una persona supervise atentamente los resultados de un algoritmo.
Los macrodatos pueden y deben aportarnos a todos m¨¢s seguridad, oportunidades econ¨®micas y comodidad¡±
Estas dudas est¨¢n dando pie a una rama de los estudios acad¨¦micos conocida como responsabilidad algor¨ªtmica. Las organizaciones que velan por el inter¨¦s p¨²blico y los derechos civiles est¨¢n examinando detenidamente las repercusiones que tiene la ciencia de los datos, tanto por sus errores como por sus posibilidades. En el pr¨®logo de un informe del pasado mes de septiembre, Derechos civiles, macrodatos y nuestro futuro algor¨ªtmico, Wade Henderson, presidente de la Conferencia por el Liderazgo en Derechos Humanos y Civiles, escrib¨ªa: ¡°Los macrodatos pueden y deben aportarnos a todos m¨¢s seguridad, oportunidades econ¨®micas y comodidad¡±.
F¨ªjense en los pr¨¦stamos para el consumo, un mercado en el que hay varias empresas de nueva creaci¨®n especializadas en macrodatos. Sus m¨¦todos representan la versi¨®n digital del principio m¨¢s elemental de la banca: conozca a sus clientes. Estas nuevas entidades crediticias especializadas en datos aseguran que, al recopilar datos de fuentes como los contactos de las redes sociales, o incluso observar el modo en que un solicitante rellena un formulario de Internet, pueden conocer a los prestatarios mejor que nunca y predecir si devolver¨¢n el pr¨¦stamo mejor que si se limitasen a estudiar el historial crediticio de alguien.
Lo que prometen es una financiaci¨®n y una valoraci¨®n m¨¢s eficaces de los pr¨¦stamos, lo que ahorrar¨¢ a la gente miles de millones de d¨®lares. Pero los pr¨¦stamos basados en macrodatos dependen de unos algoritmos inform¨¢ticos que analizan minuciosamente montones de datos y van aprendiendo durante el proceso. Es un sistema muy complejo y automatizado (y hasta sus defensores tienen dudas).
Toman una decisi¨®n sobre usted, sin que usted tenga ni idea de por qu¨¦ la han tomado¡±
¡°Toman una decisi¨®n sobre usted, sin que usted tenga ni idea de por qu¨¦ la han tomado¡±, explica Rajeev Date, que invierte en entidades crediticias que emplean la ciencia de los datos y ha sido director adjunto de la Oficina de Protecci¨®n Financiera del Consumidor. ¡°Eso es inquietante¡±.
La preocupaci¨®n es similar tambi¨¦n en otros ¨¢mbitos. Desde que su ordenador Watson venciese a los ganadores del concurso televisivo Jeopardy! hace cuatro a?os, IBM ha llevado la tecnolog¨ªa de la inteligencia artificial basada en datos mucho m¨¢s all¨¢ de los juegos de ingenio. La asistencia sanitaria ha sido uno de los grandes proyectos. La historia del uso de la tecnolog¨ªa ¡°especializada¡± para contribuir a la toma de decisiones m¨¦dicas ha sido decepcionante; los sistemas no han sido lo bastante inteligentes ni lo bastante r¨¢pidos para ayudar de verdad a los m¨¦dicos en la pr¨¢ctica cotidiana.
Servicio m¨¦dico
Pero los cient¨ªficos de IBM, en colaboraci¨®n con investigadores de algunos grupos m¨¦dicos destacados ¡ªentre ellos la Cl¨ªnica Cleveland, la Cl¨ªnica Mayo y el Centro Oncol¨®gico Memorial Sloan Kettering¡ª, est¨¢n consiguiendo avances. Watson es capaz de leer documentos m¨¦dicos a una velocidad a la que resultar¨ªan incomprensibles para los humanos: miles de ellos por segundo, en busca de indicios, correlaciones e ideas importantes.
Se ha usado el programa para formar a los estudiantes de Medicina y est¨¢ empezando a emplearse en entornos cl¨ªnicos oncol¨®gicos para proporcionar diagn¨®sticos y recomendaciones de tratamiento, como si fuera un ayudante digital ingenioso.
IBM tambi¨¦n ha creado un programa inform¨¢tico llamado Watson Paths, una herramienta visual que permite al m¨¦dico ver las pruebas y las deducciones en las que Watson se ha basado para hacer una recomendaci¨®n.
¡°No basta con dar una respuesta sin m¨¢s¡±, afirma Eric Brown, responsable en IBM de la tecnolog¨ªa relacionada con Watson.
Watson Paths apunta a la necesidad de que haya alguna clase de traducci¨®n m¨¢quina-humano a medida que la ciencia de los datos progrese. Como dice Danny Hillis, experto en inteligencia artificial: ¡°La clave que har¨¢ que funcione y resulte aceptable a ojos de la sociedad ser¨¢ la historia que cuente¡±. No una narraci¨®n exactamente, sino m¨¢s bien una informaci¨®n de seguimiento que explique el modo en que se ha tomado una decisi¨®n automatizada. ¡°?C¨®mo nos afecta?¡±, pregunta Hillis. ¡°?Hasta qu¨¦ punto es una decisi¨®n de la m¨¢quina y hasta qu¨¦ punto es humana?¡±, a?ade.
Uno de los planteamientos es que el humano siga formando parte del proceso. Los datos y los programas inform¨¢ticos dan vida a las nuevas entidades crediticias que emplean la ciencia de los datos. Pero, en San Francisco, una de estas empresas de nueva creaci¨®n, Earnest, hace que al menos uno de sus empleados revise las recomendaciones predictivas del programa, aunque es raro que rechace lo que dictan los algoritmos. ¡°Pensamos que el factor humano siempre ser¨¢ una parte importante del proceso, ya que nos permite asegurarnos de que no nos equivocamos¡±, dice Louis Beryl, cofundador y consejero delegado de Earnest.
Pero esa postura, opinan otros, no es m¨¢s que una ilusi¨®n reconfortante; puede que sea buen marketing, pero no necesariamente buena ciencia de los datos. Afirman que el hecho de concederle a un humano capacidad de veto dentro de un sistema algor¨ªtmico introduce un sesgo humano. Al fin y al cabo, lo que promete la toma de decisiones fundamentada en los macrodatos es que las decisiones basadas en los datos y el an¨¢lisis ¡ªm¨¢s ciencia, menos intuici¨®n y menos arbitrariedad¡ª proporcionar¨¢n mejores resultados.
No obstante, aunque el optimismo est¨¦ justificado, hay un reto importante, dada la complejidad y la opacidad de la ciencia de los datos. ?Podr¨¢ una tecnolog¨ªa que promete grandes beneficios medios proteger lo suficiente al individuo de una decisi¨®n misteriosa y caprichosa que podr¨ªa tener un efecto duradero en la vida de una persona?
Una posible soluci¨®n, seg¨²n Gary King, director del Instituto de Ciencias Sociales Cuantitativas de Harvard, ser¨ªa que los creadores de los algoritmos que otorgan puntuaciones los retoquen no para obtener el m¨¢ximo beneficio o rentabilidad, sino para que el valor que conceden a la persona sea algo mayor, lo que reducir¨ªa el riesgo de equivocarse.
En el sector bancario, por ejemplo, se podr¨ªa ajustar un algoritmo para que redujese la probabilidad de catalogar err¨®neamente de aprovechado al solicitante de un pr¨¦stamo, aunque ello conlleve que la entidad crediticia acabe concediendo m¨¢s pr¨¦stamos incobrables.
¡°El objetivo¡±, dice King, ¡°no es necesariamente que un humano supervise el resultado a posteriori, sino mejorar la calidad de la clasificaci¨®n de los individuos¡±.
En cierto sentido, un modelo matem¨¢tico equivale a una met¨¢fora, una simplificaci¨®n descriptiva. Filtra, pero tambi¨¦n distorsiona un poco. Por eso, a veces, un ayudante humano puede aportar esa dosis de datos matizados que se le escapa al aut¨®mata algor¨ªtmico. ¡°A menudo, los dos juntos pueden funcionar mucho mejor que el algoritmo por s¨ª solo¡±, afirma King.
Steve Lohr, columnista de New York Times especializado en tecnolog¨ªa, es el autor de Data-ism.
? 2015 New York Times News Service
Traducci¨®n de News Clips.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.