El gran bot¨® vermell que pot aturar la intel¡¤lig¨¨ncia artificial
Deep Mind, una 'start-up' de Google, ha desenvolupat un mecanisme que pot interrompre tota la intel¡¤lig¨¨ncia dels seus sistemes en cas d'emerg¨¨ncia
Arribar¨¤ un moment en el qual les m¨¤quines superaran la intel¡¤lig¨¨ncia dels humans i aquests hauran de disposar d'un sistema de prevenci¨® per poder interrompre-les. No ¨¦s un altre gui¨® de pel¡¤l¨ªcula de ci¨¨ncia ficci¨®, sin¨® la hip¨°tesi de la qual parteix un estudi realitzat per Deep Mind, l'empresa de Google especialitzada en intel¡¤lig¨¨ncia artificial, i l'Institut per al Futur de la Humanitat (FHI, per les seves sigles en angl¨¨s) de la Universitat d'Oxford. Totes dues empreses han desenvolupat de manera conjunta un ¡°gran bot¨® vermell¡± d'emerg¨¨ncia per evitar que les m¨¤quines realitzin una ¡°seq¨¹¨¨ncia d'accions nocives¡± per a l'entorn, l'operador hum¨¤ o per a elles mateixes i poder ¡°guiar-les a una situaci¨® segura¡±.
Els desenvolupadors s'han?assegurat que les m¨¤quines no puguin aprendre a prevenir, impedir o provocar aquestes interrupcions
¡°?s improbable que els agents d'aprenentatge que interaccionen amb un ambient tan complex com el m¨®n real es comportin de manera ¨°ptima tot el temps¡±, reconeixen els autors de l'estudi Agents que es poden interrompre de manera segura. Els investigadors sostenen que han creat un ¡°marc de treball que permet a l'operador hum¨¤ interrompre de forma segura (i fins i tot de manera repetida)¡± determinats tipus d'intel¡¤lig¨¨ncia artificial. A m¨¦s, s'han assegurat que les m¨¤quines no puguin aprendre a prevenir, impedir o provocar aquestes interrupcions.?
¡°Aquest sistema d'interrupci¨® segura pot ser molt ¨²til per prendre el control d'un robot que s'est¨¤ comportant malament i que pot portar a conseq¨¹¨¨ncies irreversibles; tamb¨¦ perqu¨¨ superi una situaci¨® delicada o realitzi una tasca per la qual no havia apr¨¨s a comportar-se¡±, reflexionen els autors de l'estudi. "Per¨° no ¨¦s clar si tots els algorismes poden ser f¨¤cilment interrompibles", admeten.
"Aquest tipus de mesures serveixen per ajudar que la gent accepti la intel¡¤lig¨¨ncia artificial perqu¨¨ t¨¦ clar que sempre va a estar controlada
La investigaci¨® fa refer¨¨ncia a un tipus molt espec¨ªfic d'intel¡¤lig¨¨ncia artificial coneguda com d'aprenentatge refor?at, que combina variables per determinar de manera autom¨¤tica ¡ªsense necessitat d'un ajust espec¨ªfic¡ª el seu comportament "ideal". "?s un tipus d'intel¡¤lig¨¨ncia artificial que ha pres molta for?a, perqu¨¨ ¨¦s m¨¦s senzill desenvolupar-la. El que fa el robot ¨¦s maximitzar una esp¨¨cie de funci¨® matem¨¤tica, per¨° no ent¨¦n els conceptes sobre els quals treballa. Com que nom¨¦s ent¨¦n f¨®rmules pot ser possible que existeixi el problema potencial que decideixi ignorar o fer mal als humans que l'han programat, per¨° ¨¦s alguna cosa improbable", explica Juan Antonio Recio,?director del departament d'Enginyeria del Software i Intel¡¤lig¨¨ncia Artificial de la Universitat Complutense de Madrid.?
No obstant aix¨°, Recio sost¨¦ que aquest problema no ocorreria amb un altre tipus d'intel¡¤lig¨¨ncies que en comptes d'entendre formules, entenguessin conceptes com a hum¨¤, com ¨¦s la intel¡¤lig¨¨ncia simb¨°lica. "De totes maneres, aquest tipus de mesures serveixen per tranquil¡¤litzar la societat, per ajudar que la gent accepti aquesta intel¡¤lig¨¨ncia artificial perqu¨¨ t¨¦ clar que sempre estar¨¤ controlada, que mai se n'anir¨¤ de les mans", considera aquest expert.?
Desenvolupament d'una 'superintel¡¤lig¨¨ncia'
Aquest tipus de reflexions no s¨®n noves en el sector de la intel¡¤lig¨¨ncia artificial. El director de l'Institut per al Futur de la Humanidad, Nick Bostrom, ja descrivia com a escenari possible en el seu llibre Superintel¡¤lig¨¨ncia: camins, perills, estrat¨¨gies com que les m¨¤quines superarien els seus programadors, serien tan intel¡¤ligents i capa?os de millorar-se a si mateixes i perdrien el planeta. "Hem de saber com controlar-les. Si tens un agent artificial amb objectius diferents als teus, quan es torna prou intel¡¤ligent, ¨¦s capa? d'anticipar les teves accions i de fer plans tenint en compte els teus, fet que podria incloure amagar les seves pr¨°pies capacitats de manera estrat¨¨gica", sostenia en una entrevista amb aquest diari.
¡°Algunes persones han expressat les seves preocupacions sobre un agent superintel¡¤ligent que es resisteixi a ser apagat¡±, deien els autors en el seu estudi, encara que sense atrevir-se?a especificar quan podria passar alguna cosa aix¨ª. Altres experts en intel¡¤lig¨¨ncia artificial que Bostrom cita al seu llibre afirmen que hi ha un 90% de possibilitats que entre el 2075 i el 2090 hi hagi m¨¤quines tan intel¡¤ligents com els humans.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.