Por qu¨¦ debemos tener en cuenta la ¨¦tica con la inteligencia artificial¡ antes de que sea demasiado tarde
Ryan Holmes, CEO de Hootsuite, sostiene que esta tecnolog¨ªa puede reflejar lo mejor de nosotros si le ense?amos c¨®mo hacerlo
En una escena memorable de la pel¨ªcula Ex Machina, el CEO de una multinacional al m¨¢s puro estilo de Google explica c¨®mo sus m¨¢quinas han aprendido a ser humanas. Durante unos segundos, dice, y sin que nadie lo supiera, encendi¨® las c¨¢maras de los smartphones de todo el mundo y recopil¨® datos. ¡°Boom. Un recurso ilimitado de interacci¨®n vocal y facial¡±.
A veces la realidad supera a ficci¨®n. La inteligencia artificial se hace m¨¢s sofisticada mientras los desarrolladores siguen reconociendo que la informaci¨®n, las im¨¢genes y los v¨ªdeos que compartimos en las redes sociales y en internet de forma voluntaria representan una de las fuentes m¨¢s ricas de datos. Una verdadera instant¨¢nea de la humanidad en cualquier momento.
Datos como estos pueden ser alg¨²n d¨ªa el alma del machine learning, una aplicaci¨®n de inteligencia artificial en la que las m¨¢quinas, al tener acceso a todos los datos, aprenden por s¨ª solas. Pero para aprender, necesitan un gran entrenamiento. En general, bastar¨ªa con analizar c¨®mo millones de personas realizamos comportamientos repetitivos ¡ªjugar a Pok¨¦mon Go, responder peticiones de atenci¨®n al cliente o etiquetar una foto de un caniche con la palabra ¡®perro¡¯¡ª para eliminar a los humanos del proceso.
Muchas de estas cosas ya se han quedado obsoletas. Apple recurre a una inteligencia artificial que ha sido entrenada innumerables veces para transcribir nuestra voz y activar Siri. Facebook la usa para aprender de las interacciones pasadas y garantizar as¨ª que los anuncios se dirijan correctamente a miles de millones de usuarios. Google ha incorporado, de alguna forma, esta tecnolog¨ªa desde el principio en sus motores de b¨²squeda.
- El peligro (y la promesa) de los datos sociales
Aplicaciones recientes de inteligencia artificial como el Tay bot de Microsoft ponen de manifiesto el gran desaf¨ªo del tratamiento los datos sociales. El chatbot Tay, implementado en Twitter a principios de 2016, aprend¨ªa de las interacciones del usuario. En su perfil pod¨ªamos leer ¡°Cuanto m¨¢s hablas, m¨¢s inteligente se vuelve Tay¡±. Pero esta aplicaci¨®n termin¨® llen¨¢ndose de comentarios racistas, antisemitas y mis¨®ginos. Aprendiendo de su entorno, Tay empez¨® a utilizar una serie de respuestas incendiarias, como ¡°Bush atent¨® contra las torres gemelas¡±, o ¡°Hitler habr¨ªa hecho un trabajo mejor que el mono que tenemos ahora¡±. Los desarrolladores de Microsoft cerraron la aplicaci¨®n apenas 16 horas despu¨¦s de su lanzamiento.
Este es solo un ejemplo, pero resalta el pr¨®ximo desaf¨ªo. Miles de millones de personas publican sus pensamientos, sentimientos y experiencias en las redes sociales todos los d¨ªas. Entrenar una plataforma de inteligencia artificial a partir de datos de redes sociales y con la intenci¨®n de reproducir una experiencia humana tiene muchos riesgos. Podr¨ªa compararse con un beb¨¦ que aprendiese solo viendo Fox News o la CNN sin la aportaci¨®n de padres y educadores. En cualquier caso, se estar¨ªa creando un monstruo.
La realidad es que, aunque los datos sociales pueden reflejar bien nuestra huella digital, no tienen por qu¨¦ ser ciertos o buenos. Algunas publicaciones reflejan un yo imaginado, tan perfecto que no parece humano. Otras, favorecidas por el anonimato, demuestran un comportamiento que raramente se ve en la vida real. En resumen, los datos sociales, por s¨ª solos, no representan ni qui¨¦nes somos en realidad ni qui¨¦nes deber¨ªamos ser.
Si profundizamos un poco m¨¢s, y por muy ¨²til que pueda ser el gr¨¢fico social a la hora de entrenar una inteligencia artificial, lo que falta es un sentido de la ¨¦tica o un marco moral para evaluar todos estos datos. De todas las experiencias humanas compartidas en Twitter, Facebook y otras redes sociales, ?qu¨¦ comportamientos deben seguirse y cu¨¢les deben ser evitados? ?Qu¨¦ acciones son correctas y cu¨¢les no? ?Qu¨¦ es bueno y qu¨¦ es malo?
- Codificar la religi¨®n en la inteligencia artificial
Buscar la forma de aplicar ¨¦tica a la tecnolog¨ªa no es algo nuevo. Ya en la d¨¦cada de los 40, Isaac Asimov formul¨® las Leyes de la Rob¨®tica. La primera ley: un robot no puede da?ar a un ser humano o permitir que sufra da?o alguno.
Estas preocupaciones ya no son ciencia ficci¨®n. Hay una gran necesidad de encontrar una gu¨ªa moral para dirigir las m¨¢quinas inteligentes con las que cada vez m¨¢s compartimos nuestras vidas. Esto se vuelve a¨²n m¨¢s cr¨ªtico a medida que la inteligencia artificial comienza a desarrollar software de aprendizaje autom¨¢tico sin orientaci¨®n humana, como es el caso del AutoML de Google. Hoy en d¨ªa, Tay es una molestia relativamente inofensiva en Twitter. Ma?ana, puede que est¨¦ ideando una estrategia para nuestras empresas o nuestros gobiernos. ?Qu¨¦ reglas debe seguir? ?Cu¨¢les debe desobedecer?
Aqu¨ª es donde la ciencia se queda corta. Las respuestas no pueden obtenerse de ning¨²n conjunto de datos sociales. Las mejores herramientas anal¨ªticas no las resolver¨¢n, sin importar lo grande que sea el tama?o de la muestra. Sin embargo, esas respuestas s¨ª podr¨ªan encontrarse en la Biblia.
Y el Cor¨¢n, la Tor¨¢, el Bhagavad Gita y los sutras budistas. Est¨¢n en la obra de Arist¨®teles, Plat¨®n, Confucio, Descartes y otros fil¨®sofos, tanto antiguos como modernos. Hemos pasado literalmente miles de a?os ideando reglas de conducta humana, los preceptos b¨¢sicos que nos permiten (al menos idealmente) convivir y prosperar juntos. Lo principal ha sobrevivido milenios con pocos cambios; una prueba de su utilidad y validez. Y lo m¨¢s importante, en su esencia, es que estas escuelas de pensamiento comparten puntos notablemente similares sobre el comportamiento moral y ¨¦tico.
A medida que la inteligencia artificial crece en sofisticaci¨®n y aplicaci¨®n, nosotros necesitamos, m¨¢s que nunca, que la religi¨®n, la filosof¨ªa y las humanidades florezcan. En muchos sentidos, el ¨¦xito o el fracaso de esta tecnolog¨ªa de vanguardia depende de la eficacia con la que apliquemos algunos de los conocimientos m¨¢s atemporales. El enfoque no deber¨ªa ser dogm¨¢tico ni estar alineado con ninguna otra corriente o filosof¨ªa concreta. Pero est¨¢ claro que es necesaria una base ¨¦tica: los datos por s¨ª solos no son suficientes.
En lugar de padres o sacerdotes, la responsabilidad de esta educaci¨®n ¨¦tica recaer¨¢ cada vez m¨¢s en desarrolladores y cient¨ªficos. Tradicionalmente, la ¨¦tica no se ha tenido en cuenta en la formaci¨®n de los ingenieros inform¨¢ticos y esto tiene que cambiar. Entender s¨®lo la ciencia no es suficiente cuando los algoritmos tienen implicaciones morales.
Como destac¨® el eminente investigador en inteligencia artificial Will Bridewell, es muy importante que los futuros desarrolladores sean ¡°conscientes de las implicaciones ¨¦ticas de su trabajo y entiendan las consecuencias sociales de lo que desarrollan¡±. Bridewell va m¨¢s all¨¢ y defiende el estudio de la ¨¦tica de Arist¨®teles y la ¨¦tica budista para que puedan ¡°seguir mejor las intuiciones sobre el comportamiento moral y ¨¦tico¡±.
A un nivel m¨¢s profundo, la responsabilidad recae en las organizaciones que contratan a estos desarrolladores, las industrias de las que forman parte, los gobiernos que regulan esas industrias y, al final, en nosotros mismos. En la actualidad, las pol¨ªticas p¨²blicas respecto a inteligencia artificial son muy recientes o ni siquiera existen. Pero se empieza a notar una preocupaci¨®n sobre este tema. Open AI, creada por Elon Musk y Sam Altman, est¨¢ presionando para que sea controlada. Los l¨ªderes tecnol¨®gicos se han reunido en la Asociaci¨®n sobre Inteligencia Artificial para explorar cuestiones ¨¦ticas. Est¨¢n surgiendo ¨®rganos como AI Now para identificar los prejuicios y as¨ª poder erradicarlos. Se est¨¢ buscando crear un marco ¨¦tico para dilucidad c¨®mo la inteligencia artificial puede convertir datos en decisiones de una manera justa, sostenible y representativa de lo mejor de la humanidad.
Esto no es un sue?o. Est¨¢ a nuestro alcance. Recientemente han aparecido algunos informes que hablaban de que el sistema DeepMind de Google se hab¨ªa vuelto "altamente agresivo" cuando se le dejaba a su libre albedr¨ªo. Los investigadores de Google hicieron que los agentes de inteligencia artificial se enfrentasen a 40 millones de partidas de un juego de ordenador donde el objetivo era recolectar fruta. Cuando las manzanas escaseaban, los agentes empezaban a atacarse entre s¨ª, matando a sus rivales, dejando aflorar los peores impulsos de la humanidad. Despu¨¦s, los investigadores cambiaron el contexto. Los algoritmos se modificaron para que la cooperaci¨®n fuera el objetivo. Finalmente, los agentes que aprendieron a trabajar juntos fueron los que triunfaron. La inteligencia artificial puede reflejar lo mejor de nosotros, si le ense?amos c¨®mo hacerlo.
Ryan Holmes es CEO de Hootsuite.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.