?Deben los Estados regular la inteligencia artificial?
El autor sostiene que las compa?¨ªas, principales beneficiarias de la IA, no deber¨ªan ser tambi¨¦n quienes determinen sus reglas de comportamiento
Deber¨ªamos dejar que las industrias m¨¢s contaminantes fijen los l¨ªmites de las emisiones atmosf¨¦ricas? ?Aprobar¨ªamos que los fabricantes de armamento dictaran las reglas de la guerra? Por el momento estamos dejando que las compa?¨ªas tecnol¨®gicas se ocupen en exclusiva del desarrollo ¨¦tico y jur¨ªdico de la inteligencia artificial (IA).
En un intento de ayudar a dar forma al futuro de la IA, en 2016, seis grandes empresas tecnol¨®gicas -Amazon, Apple, Google, Facebook, IBM y Microsoft- formaron la Asociaci¨®n para la IA -la Partnership on Artificial Inteligence- en beneficio de las personas y la sociedad con el fin de "estudiar y formular las mejores pr¨¢cticas sobre las tecnolog¨ªas de la IA". Del mismo modo, en octubre de 2017, DeepMind, una de las compa?¨ªas l¨ªderes mundial de IA adquirida por Google en 2014, present¨® un nuevo comit¨¦ de ¨¦tica "para ayudar a los tecn¨®logos a poner en pr¨¢ctica la ¨¦tica y para ayudar a la sociedad a anticipar y dirigir el impacto de la IA de manera que trabaje para el beneficio de todos".
No est¨¢ del todo claro qui¨¦n debe ser considerado responsable si la IA causa da?os: el dise?ador original, el fabricante, el propietario, el usuario o la propia IA¡±
Estas iniciativas son muy positivas pero no suficientes. El sector privado, que es el que m¨¢s se beneficiar¨¢ financieramente de cualquier decisi¨®n que se tome, est¨¢ tomando el liderazgo en cuanto a la regulaci¨®n de la IA. Pero tambi¨¦n es imprescindible que los Estados garanticen el cumplimiento del Derecho y los principios y derechos fundamentales consagrados en las constituciones nacionales y en la Carta de los Derechos Fundamentales de la Uni¨®n Europea.
Pero, ?por qu¨¦ necesitamos una regulaci¨®n jur¨ªdica imperativa? En otros trabajos me he ocupado detenidamente de las nuevas cuestiones que las leyes actuales no cubren. Por ejemplo, no est¨¢ del todo claro qui¨¦n debe ser considerado responsable si la IA causa da?os (por ejemplo, en un accidente con un coche aut¨®nomo o por una incorrecta aplicaci¨®n de un algoritmo): el dise?ador original, el fabricante, el propietario, el usuario o incluso la propia IA. Si aplicamos soluciones caso por caso, nos arriesgamos a la incertidumbre y la confusi¨®n. La falta de regulaci¨®n tambi¨¦n aumenta la probabilidad de reacciones precipitadas, instintivas o incluso alimentadas por la ira p¨²blica.
Estos temas no son solo preocupaciones doctrinales que nos entretienen a los acad¨¦micos. Los sistemas de IA ya tienen la capacidad de tomar decisiones dif¨ªciles que hasta ahora se han basado en la intuici¨®n humana o en leyes y pr¨¢cticas de los tribunales. Tales decisiones van desde cuestiones de vida o muerte, como la utilizaci¨®n de los robots asesinos aut¨®nomos en los ej¨¦rcitos, hasta asuntos de importancia econ¨®mica y social, como la forma de evitar los sesgos algor¨ªtmicos cuando la inteligencia artificial decide por ejemplo si se debe otorgar una beca a un estudiante o cu¨¢ndo se le concede la libertad condicional a un preso. Si un ser humano tomara estas decisiones, estar¨ªa siempre sujeto a una norma legal o ¨¦tica. No existen tales reglas en el presente de la IA.
La regulaci¨®n de la IA est¨¢ actualmente presidida por intereses corporativos. Y ello no siempre es conveniente. Basta con mirar a la crisis financiera mundial de 2008 para ver qu¨¦ ocurre cuando la autorregulaci¨®n de la industria se sale de control. Aunque los Estados han intervenido para exigir a los bancos que mantengan mejores activos para respaldar sus pr¨¦stamos, la econom¨ªa mundial sigue sufriendo las repercusiones de un r¨¦gimen que antes era fundamentalmente autorregulado.
La autorregulaci¨®n no basta. Si las normas son solo voluntarias, algunas compa?¨ªas de tecnolog¨ªa decidir¨¢n no atenerse a las reglas que no les benefician¡±?
Eso no quiere decir que no se est¨¦ progresando. DeepMind ha contratado a destacados analistas p¨²blicos, como el fil¨®sofo transhumanista Nick Bostrom y el economista Jeffrey Sachs, como miembros de su comit¨¦ de ¨¦tica, y la lista de miembros de la se?alada Asociaci¨®n para la IA incluye ahora a organizaciones sin fines de lucro como la Uni¨®n Americana de Libertades Civiles, Human Rights Watch y UNICEF. Sin embargo, a fecha de escribir estas l¨ªneas tan solo cuenta con representantes de nueve pa¨ªses de todo el mundo.
Por el momento, los Estados siguen intentando alcanzar a Silicon Valley en lo que respecta a la regulaci¨®n de la IA; cuanto m¨¢s tiempo esperen, m¨¢s dif¨ªcil ser¨¢ encauzar adecuadamente el futuro de la IA. En el Reino Unido existe un Comit¨¦ de la C¨¢mara de los Lores sobre IA, y la Comisi¨®n Europea ha puesto en marcha hace unos meses un grupo de expertos para debatir sobre los desaf¨ªos que plantea el desarrollo de la inteligencia artificial y su impacto en los derechos fundamentales de la Uni¨®n Europea.
Es una tarea dif¨ªcil, pero no imposible. A escala nacional, los Estados ya supervisan muchas otras tecnolog¨ªas complejas, incluyendo la energ¨ªa nuclear o la clonaci¨®n. A escala internacional, la Agencia Europea de Medicamentos (EMA) establece normas farmac¨¦uticas para 28 pa¨ªses y la ICANN regula partes clave de todo internet.
Cuando se redactan normas para los sistemas de IA, las voces de las empresas deben seguir siendo contribuyentes, pero no legisladores¡±
Es importante disponer de un cuerpo jur¨ªdico imperativo, si bien prudente y meditado. La autorregulaci¨®n no basta. Si las normas son solo voluntarias, algunas compa?¨ªas de tecnolog¨ªa decidir¨¢n no atenerse a las reglas que no les benefician, dando a algunas organizaciones ventajas sobre otras. Por ejemplo, ninguna de las principales empresas chinas de IA, como Tencent o Baidu, ha anunciado que formar¨¢n comit¨¦s de ¨¦tica o que tengan intenci¨®n de unirse a la indicada Asociaci¨®n.
Adem¨¢s, sin un marco unificado, un exceso de comit¨¦s de ¨¦tica privados tambi¨¦n podr¨ªa conducir a la existencia de demasiados conjuntos de normas. Ser¨ªa ca¨®tico y peligroso que cada gran empresa tuviera su propio c¨®digo para la IA, al igual que si cada ciudadano privado pudiera establecer sus propios estatutos legales. Solo los Estados tienen el poder y el mandato de asegurar un sistema justo que imponga este tipo de adhesi¨®n en todos los ¨¢mbitos. Por eso los Estados son soberanos, tienen Parlamentos y un Poder Judicial.
Por lo tanto, cuando se redactan normas para los sistemas de IA, las voces de las empresas deben seguir siendo contribuyentes, sin duda muy relevantes, pero no legisladores. Las compa?¨ªas tecnol¨®gicas pueden estar bien posicionadas para dise?ar reglas debido a su experiencia en la materia, pero los actores de la industria rara vez est¨¢n en la mejor posici¨®n para evaluar adecuadamente los riesgos democr¨¢ticos, morales y ¨¦ticos.
La historia muestra lo que puede suceder si los Estados se retiran y dejan que las empresas privadas establezcan sus propias normas reguladoras. Permitir que esto ocurra en el caso de la IA no solo es imprudente, sino tambi¨¦n muy peligroso.
Mois¨¦s Barrio Andr¨¦s es letrado del Consejo de Estado, profesor de Derecho de Internet y experto en Ciberderecho.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.