M¨¢quinas que piensan y deciden
El 26 de septiembre de 1983, los sistemas de defensa de la Uni¨®n Sovi¨¦tica alertaron de un ataque con misiles trans?oce¨¢nicos procedente de Estados Unidos. Al constatar que eran solo cinco misiles, el teniente coronel Stanislav Petrov estim¨® que deb¨ªa tratarse de un error ¨C¡°nadie inicia una guerra nuclear con solo cinco misiles¡±, dijo despu¨¦s¨C y decidi¨® no activar el protocolo de defensa que habr¨ªa significado un apocalipsis at¨®mico de dimensiones planetarias. ?Qu¨¦ hubiera pasado si, en vez de Petrov, el encargado de tomar la decisi¨®n hubiera sido un ordenador?
La inteligencia artificial avanza a pasos acelerados, y con ella los dilemas derivados de dejar que las m¨¢quinas decidan por nosotros. Y no solo en el terreno militar. El tema de los coches que se conducen solos suscita hoy grandes controversias. ?Es l¨ªcito que sea el propio coche el que decida lanzar a sus ocupantes por un barranco si con ello salva la vida a los escolares que en ese momento cruzaban la carretera? ?Qu¨¦ significa exactamente que una m¨¢quina decida?
Una m¨¢quina solo decide aquello para lo que ha sido programada, explica Ram¨®n L¨®pez de M¨¢ntaras, director del Instituto de Inteligencia Artificial del Consejo Superior de Investigaciones Cient¨ªficas. Si ha sido programada para jugar al ajedrez lo hace, y lo hace bien, pero no tiene la menor idea de que est¨¢ jugando.
Cuando hablamos de aprendizaje de una m¨¢quina hablamos de programas que permiten a una m¨¢quina incorporar datos no incluidos en el momento de la programaci¨®n.
Por ejemplo, dos coches aut¨®nomos que salen de f¨¢brica con el mismo software ¨Cuno que, entre otras cosas, les permite distinguir entre una persona y un ¨¢rbol¨C pueden incorporar datos nuevos acerca de los objetos con los que se van encontrando ¨Cdistintos tipos de persona y distintos tipos de ¨¢rbol¨C. Si a partir de este aprendizaje, y en una situaci¨®n concreta, uno de los coches es capaz de reconocer a una persona y el otro no, pueden llegar a tomar decisiones diferentes. Pero siempre seg¨²n la tarea para la que fueron programados. Lo que una m¨¢quina no puede hacer es contextualizar. No tiene pensamiento consciente y por tanto no puede hacer lo que hizo el coronel Petrov, ya que ¨¦l utiliz¨® su sentido com¨²n. Se est¨¢ investigando en c¨®mo dotar a una m¨¢quina de sentido com¨²n, pero estamos a a?os luz de alcanzar alg¨²n resultado.
?Resulta conveniente pensar en dotar a una m¨¢quina de total autonom¨ªa en seg¨²n qu¨¦ campos? A d¨ªa de hoy, explica L¨®pez de M¨¢ntaras, cuando vemos en las noticias que un dron ha matado a un terrorista, suele haber una persona detr¨¢s que tom¨® la ¨Ccontrovertida¨C decisi¨®n. Hay programas que detectan comportamientos amenazantes, como el de un hombre por la calle con un fusil, pero a¨²n no se utilizan porque se equivocan mucho. ?Qu¨¦ pasa si se tratara de un ni?o con un rifle de juguete?
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.