?Qui¨¦n es responsable de los da?os que cause un robot?
Europa se fija en las leyes de Asimov para una futura regulaci¨®n de la m¨¢quinas aut¨®nomas
El accidente de un coche aut¨®nomo de Uber el pasado 19 de marzo, con el atropello mortal de un peat¨®n que cruzaba la calle empujando su bicicleta en Tempe (Arizona-EEUU), ha vuelto a plantear una cuesti¨®n crucial sobre los robots: la responsabilidad. La UE quiere anticiparse a un futuro pr¨®ximo, en el que las m¨¢quinas tendr¨¢n un peso fundamental en los sucesos, no solo luctuosos sino tambi¨¦n sociales, econ¨®micos o pol¨ªticos.
El Parlamento Europeo, en sus recomendaciones a la Comisi¨®n para que regule el derecho civil sobre rob¨®tica, ha establecido unas premisas b¨¢sicas planteadas ya a mediados del pasado siglo por Isaac Asimov, el visionario cient¨ªfico de origen ruso fallecido en Nueva York en 1992: ¡°1? Un robot no har¨¢ da?o a un ser humano ni permitir¨¢ que, por inacci¨®n, este sufra da?o. 2? Un robot obedecer¨¢ las ¨®rdenes que reciba de un ser humano, a no ser que las ¨®rdenes entren en conflicto con la primera ley. 3? Un robot proteger¨¢ su propia existencia en la medida en que dicha protecci¨®n no entre en conflicto con las leyes primera y segunda". Estas leyes se resumen en una denominada 0:"Un robot no har¨¢ da?o a la humanidad ni permitir¨¢ que, por inacci¨®n, esta sufra da?o¡±.
Aunque el accidente de Uber sea el m¨¢s medi¨¢tico, el campo de la responsabilidad puede llegar a ser muy amplio en el futuro. ?Qui¨¦n ser¨ªa responsable de la muerte de un paciente intervenido por robots o de un diagn¨®stico o tratamiento err¨®neo en un sistema de asistencia basado en inteligencia artificial o de la destrucci¨®n de una escuela por un misil aut¨®nomo o de un siniestro causado ya no solo por un veh¨ªculo sino por un electrodom¨¦stico programado con inteligencia artificial o de un conflicto social generado o avivado por mensajes falsos automatizados?
EE UU, Jap¨®n, China y Corea del Sur ya han comenzado a legislar. "En Europa, en el ¨¢mbito de los consumidores, se aplica la directiva sobre bienes defectuosos, pero sus normas pueden estar obsoletas para los productos automatizados o aut¨®nomos en sus concretas tareas", afirma Reyes Jim¨¦nez, profesora de Derecho Internacional P¨²blico de la Universidad Pablo de Olavide. El propio Parlamento de Estrasburgo lo reconoce al reclamar un marco "adecuado, eficiente, transparente y coherente".
"La responsabilidad civil deber¨ªa individualizarse mejor, delimit¨¢ndose la que corresponde al dise?ador, al fabricante, al vendedor, e incluso al operador-consumidor final", comenta Jim¨¦nez quien defiende que las leyes deber¨ªan estar marcadas en todo momento por principios ¨¦ticos.
En la misma l¨ªnea se sit¨²an las recomendaciones europeas, que advierten de que, en cualquier caso, la regulaci¨®n no debe impedir el desarrollo de la rob¨®tica siempre que esta ¡°est¨¦ al servicio de la humanidad¡±. Es aqu¨ª donde el Parlamento Europeo ve en las leyes de Asimov la base del futuro de la rob¨®tica, en especial, en la norma 0, que engloba las restantes: ¡°Un robot no har¨¢ da?o a la humanidad ni permitir¨¢ que, por inacci¨®n, esta sufra da?o¡±.
La Comisi¨®n Europea eval¨²a la directiva 85/374/EEC sobre productos defectuosos, la que actualmente se aplica, para determinar su validez ante la programaci¨®n, la computaci¨®n en la nube, el Internet de las Cosas y los sistemas aut¨®nomos as¨ª como sobre qui¨¦n debe recaer la responsabilidad en relaci¨®n de los da?os causados por el comportamiento de un robot.
Efectos perversos en la democracia
Los sistemas de seguros que se aplican actualmente, como en el caso de los veh¨ªculos, es una de las herramientas que prev¨¦ la Comisi¨®n para extenderlos de forma obligatoria a los robots, pero admite que es insuficiente ya que hay que considerar, adem¨¢s, ¡°los impactos sociales y econ¨®micos de la inteligencia artificial¡± as¨ª como "las consecuencias en los derechos fundamentales y en la democracia".
Esta ¨²ltima cuesti¨®n es clave una vez demostrada la influencia de los ¡°bots¡± (herramientas autom¨¢ticas de difusi¨®n masiva de mensajes que inclu¨ªan falsedades) en procesos como la amenaza secesionista catalana o las elecciones en Estados Unidos.
Alejandro S¨¢nchez del Campo, jurista y autor del blog Replicante Legal, afirma que Europa plantea cuestiones fundamentales. ¡°Si el desarrollo tecnol¨®gico lleva a la inteligencia aut¨®noma, las categor¨ªas legales actuales pueden no ser suficientes¡±, advierte.
Este abogado cree que los sistemas jur¨ªdicos de ahora regulan las m¨¢quinas existentes, que no toman decisiones, por lo que la responsabilidad recae sobre el fabricante de un producto defectuoso, el operador del mismo si no ha seguido las especificaciones o sobre el afectado, por una imprudencia. En estos casos, asegurar los robots existentes, como en el caso de los veh¨ªculos, ¡°tiene sentido¡±.
Otro campo, advierte, S¨¢nchez del Campo, es la responsabilidad penal, que hasta hace poco tiempo, en Espa?a, se limitaba a las personas y se ha ampliado a las empresas. ¡°Es un debate inteligente. Aunque se tardar¨¢n a?os en desarrollar sistemas aut¨®nomos, si no empezamos ya a pensar sobre sus implicaciones legales y morales, cuando queramos regularlos puede ser tarde¡±, afirma.
¡°En el futuro, si se generalizan los dispositivos aut¨®nomos, habr¨¢ que adaptar la ley¡±, coincide ?scar-Rub¨¦n Sanz, director t¨¦cnico de Kalibo, una compa?¨ªa con seguros para productos tecnol¨®gicos. ¡°La legislaci¨®n, de alguna manera, se anticip¨® al vincular, por ejemplo, el seguro a los veh¨ªculos. En este caso, ante cualquier da?o, la v¨ªctima est¨¢ cubierta, con independencia de que se determine que la responsabilidad fue del propietario, el conductor o un defecto de la m¨¢quina. Es una ventaja, pero no es suficiente para el inmediato desarrollo tecnol¨®gico¡±, comenta.
Francisco Oliva, catedr¨¢tico de Derecho Civil de la Universidad Pablo de Olavide, coincide con la oportunidad del seguro para robots como opci¨®n para la tecnolog¨ªa actual, pero anticipa que hay que pensar ya en el futuro porque el sistema actual es insuficiente. "La ley de productos defectuosos est¨¢ pensada para un microondas, no para procesos de aprendizaje de las m¨¢quinas cuyas consecuencias son impredecibles", comenta. Oliva a?ade que ahora es el perjudicado quien tiene que probar el defecto del producto, algo de extraordinaria complejidad en sistemas rob¨®ticos avanzados. "Es una prueba diab¨®lica o imposible", advierte.
Sobre los conflictos generados por el uso de bots en acontecimientos pol¨ªticos y sociales, como el proceso catal¨¢n o las elecciones, Oliva afirma que ahora, cuando hay un responsable humano detr¨¢s de la programaci¨®n de los robots de difusi¨®n masiva, la ley es clara: "El que por acci¨®n u omisi¨®n causa da?o a otro, interviniendo culpa o negligencia, est¨¢ obligado a reparar el da?o causado". Pero admite que esa legislaci¨®n no est¨¢ preparada para un futuro de m¨¢quinas 100% aut¨®nomas. "En ese escenario, habr¨ªa que plantear la figura de la personalidad mec¨¢nica o electr¨®nica. Pero hoy es ciencia ficci¨®n", afirma.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.