Brad Smith, presidente de Microsoft: ¡°Debemos tener una manera de ralentizar o apagar la inteligencia artificial¡±
El ejecutivo se muestra partidario de que gobiernos y sociedad civil presionen a la industria para regular la IA: ¡°Cuanto m¨¢s poderosa se vuelve una tecnolog¨ªa, m¨¢s fuertes tienen que ser los controles que la acompa?en¡±
No se puede negar que Brad Smith es abogado. El presidente de Microsoft navega con extrema cautela cuando habla sobre las turbulentas aguas en las que se encuentra inmersa ahora mismo la inteligencia artificial (IA). Es la tecnolog¨ªa m¨¢s importante que se ha creado, dice, desde la invenci¨®n de la imprenta, pero no niega que existen problemas respecto a su uso y control, desde los ciberataques por parte de pa¨ªses como Rusia o Corea del Norte, o la compleja protecci¨®n de los derechos de autor, hasta lo que es, confiesa, su gran preocupaci¨®n: el uso de...
No se puede negar que Brad Smith es abogado. El presidente de Microsoft navega con extrema cautela cuando habla sobre las turbulentas aguas en las que se encuentra inmersa ahora mismo la inteligencia artificial (IA). Es la tecnolog¨ªa m¨¢s importante que se ha creado, dice, desde la invenci¨®n de la imprenta, pero no niega que existen problemas respecto a su uso y control, desde los ciberataques por parte de pa¨ªses como Rusia o Corea del Norte, o la compleja protecci¨®n de los derechos de autor, hasta lo que es, confiesa, su gran preocupaci¨®n: el uso de deepfakes para alterar el resultado de las elecciones, en un a?o en el que pr¨¢cticamente medio planeta pasar¨¢ por las urnas. Smith (Milwaukee, EE UU, 65 a?os) present¨® el pasado viernes en la Conferencia de Seguridad de M¨²nich un acuerdo, junto con otra veintena de compa?¨ªas, para tratar de mejorar la respuesta tecnol¨®gica a estos enga?os y la transparencia de las compa?¨ªas que controlan la IA. ¡°La diferencia entre la promesa y el peligro de la nueva tecnolog¨ªa rara vez ha sido m¨¢s impactante¡±, afirma Smith.
El presidente de Microsoft, que es hoy la compa?¨ªa m¨¢s valiosa del mundo, se reuni¨® ayer en Madrid con el presidente del Gobierno, Pedro S¨¢nchez, para firmar un acuerdo en materia de uso de la IA que supone la mayor inversi¨®n de Microsoft en Espa?a en sus 37 a?os de presencia en el pa¨ªs: 2.100 millones de euros. Es una alianza muy importante, asegura Smith, porque si Espa?a ¡°no usa la IA en el gobierno, en la atenci¨®n m¨¦dica o en la econom¨ªa, no veo c¨®mo pueda sostener su crecimiento a largo plazo¡±.
Pregunta. Le he pedido a Copilot, la IA generativa de Microsoft, que hiciera una pregunta para usted. Me ha sugerido esta: ¡°?Cu¨¢l es su visi¨®n sobre el papel de la inteligencia artificial en la sociedad actual y c¨®mo cree que podemos garantizar su desarrollo ¨¦tico y responsable?¡±. No s¨¦ qu¨¦ opina de la pregunta, ?me puede quitar Copilot el trabajo?
Respuesta. No, no. Hay tres preguntas ah¨ª, las dos de Copilot y la suya. Y perm¨ªtame empezar con la suya, porque creo que es importante. Copilot es un copiloto. No es un piloto. Usted quiz¨¢ lo ha usado para preparar esta entrevista, pero es una herramienta. Le ayuda, le da ideas, pero, en ¨²ltima instancia, necesitar¨¢ usar su juicio. Y creo que eso es lo que deber¨ªamos pedir a todas las personas que utilizan esta tecnolog¨ªa: que la usen para ser m¨¢s creativos, desarrollar ideas, ayudar con la escritura, pero delegar o externalizar tu pensamiento a una m¨¢quina ser¨ªa un error.
Respecto a las otras dos preguntas, hoy y ma?ana [por ayer y hoy] anunciamos nuevas iniciativas con el Gobierno espa?ol en torno a la ciberseguridad y la IA responsable. ?Por qu¨¦ importa eso? Al final del a?o pasado, Espa?a ocupaba el cuarto lugar en Europa en el uso per capita del PIB de la IA. Pero cuando se observan las habilidades de IA, est¨¢ en el puesto 14. Y en la creaci¨®n de software basado en IA, est¨¢ en el 15. Esto muestra que hay una brecha entre el uso de la IA y las habilidades para crear IA. Espa?a es un lugar incre¨ªble para vivir. Es un pa¨ªs muy pr¨®spero en muchos aspectos, pero no est¨¢ creciendo r¨¢pidamente. La poblaci¨®n est¨¢ envejeciendo. La tasa de desempleo es del 11%. Y esos desaf¨ªos necesitan ser abordados con creatividad y urgencia. Parte de la soluci¨®n es el uso de la IA. Hay que crear los empleos del futuro.
P. Estamos fascinados y asustados con la revoluci¨®n de la IA. Usted lleva muchos a?os, m¨¢s de 30, trabajando en esta industria. ?Es realmente tan revolucionaria una tecnolog¨ªa?
R. Creo que la inteligencia artificial es el invento m¨¢s importante para la mente humana desde la invenci¨®n de la imprenta. Y eso fue hace casi 600 a?os. Piense en la imprenta y en lo que consigui¨®: hizo posible que las personas escribieran, que otras leyeran y que las econom¨ªas de mercado florecieran. Con la inteligencia artificial pasa algo muy similar, ya que es una herramienta que puede ayudar a idear de otra manera. A usted quiz¨¢ le ayud¨® a pensar en preguntas para una conversaci¨®n, y eso es una inyecci¨®n de creatividad. Es enormemente valioso para encontrar patrones en grandes cantidades de datos, para ofrecer ideas que les permitan avanzar en cuestiones como el descubrimiento de medicamentos. Si lo usamos bien, puede ser un acelerador para las personas y lo que hacen.
P. Sin embargo, el FMI alerta de que la inteligencia artificial afectar¨¢ al 60% de los empleos en las econom¨ªas avanzadas y, por primera vez, impactar¨¢ en los m¨¢s cualificados¡
R. Este un problema muy importante que debemos abordar, pero primero lo pondr¨ªa en contexto. ?Qu¨¦ porcentaje de trabajos han sido impactados por el advenimiento de la tecnolog¨ªa digital, el ordenador personal o el m¨®vil en los ¨²ltimos 40 a?os? Probablemente, sea un porcentaje a¨²n mayor. Y aun as¨ª, hemos estado adapt¨¢ndonos a este cambio durante casi toda la vida laboral de todos los que estamos trabajando hoy en d¨ªa. Muchos de estos empleos se han visto afectados y algunos desaparecieron. La verdadera lecci¨®n de los ¨²ltimos 40 a?os es que si las personas pueden mantenerse a la vanguardia en el conocimiento de c¨®mo usar la tecnolog¨ªa, es probable que tengan ¨¦xito en sus carreras. Sus trabajos pueden llevarles a lugares que no necesariamente anticiparon. Va a haber un impacto real en la forma en que trabajamos, s¨ª. Y esto deber¨ªa inspirarnos y, tambi¨¦n, alertarnos de la urgencia de aprender a usar esta tecnolog¨ªa y mejorar en lo que sea que queramos hacer.
P. Ha mencionado usted la creaci¨®n, y este es uno de los aspectos m¨¢s afectados por la IA. Su compa?¨ªa ha sido demandada por The New York Times por infracci¨®n de derechos de autor¡
R. Creo que este es un aspecto natural e inevitable de una nueva tecnolog¨ªa que impacta en c¨®mo las personas crean y distribuyen lo que escriben. Hay dos preguntas legales a las que vamos a enfrentarnos. Una es relativamente f¨¢cil y la otra es m¨¢s compleja. La f¨¢cil es preguntarse qu¨¦ haces si un sistema de inteligencia artificial genera un resultado que copia algo que est¨¢ protegido. Eso es una violaci¨®n de la ley, no hay duda al respecto. Y hemos hecho dos cosas para abordar esto. Primero, construimos una arquitectura completa alrededor de Copilot y otras herramientas [Copilot cita las fuentes en sus respuestas, a diferencia de otras IA generativas]. Y segundo, le hemos dicho a todos nuestros clientes que este es nuestro problema legal, no el suyo. Si utilizan nuestro sistema correctamente, nosotros somos los responsables, no ellos.
Y luego hay otra pregunta, m¨¢s incierta. ?Se puede entrenar en IA leyendo todas las obras del mundo? Siempre se ha entendido que puedes leer todo lo que quieras y recordar todo lo que puedas. Me reun¨ª con un funcionario del Gobierno en Alemania la semana pasada que dijo que hab¨ªa le¨ªdo, seg¨²n su estimaci¨®n, alrededor de 5.000 libros en su vida. Cuando da un discurso, no tiene que retroceder y preguntar, ?d¨®nde le¨ª esto? ?Tengo que dar cr¨¦dito a d¨®nde saqu¨¦ esta idea por primera vez? Todos tenemos el derecho, bajo la ley de derechos de autor, de leer y aprender. La cuesti¨®n es si podemos permitir que las m¨¢quinas aprendan de la misma manera. Y creo que hay un imperativo social para hacer que eso sea posible. Avanzar en las capacidades de esta nueva tecnolog¨ªa requerir¨¢ que pueda aprender ampliamente. Y m¨¢s que eso: si realmente quieres abrir esta nueva industria a desarrolladores de c¨®digo abierto y a acad¨¦micos, m¨¢s all¨¢ de las grandes empresas, es fundamental que est¨¦ abierto a ese tipo de aprendizaje. Al mismo tiempo, ninguno de nosotros deber¨ªa querer que esta nueva tecnolog¨ªa deje fuera del negocio a los creadores, entre ellos los peri¨®dicos como The New York Times. Creo que tendremos que encontrar una manera de equilibrar ese aprendizaje con brindar a los creadores la capacidad de seguir ganando un buen sustento.
P. ?Es posible que lleguen a un acuerdo, no solo con The New York Times, sino con otros creadores y autores?
R. Hay tres objetivos que debemos tener en cuenta. Objetivo n¨²mero uno: garantizar que la tecnolog¨ªa pueda avanzar y compensar a los creadores de hoy y del futuro. El n¨²mero dos es asegurarnos de que esto avance de tal forma que haga que este contenido est¨¦ disponible de manera amplia y en t¨¦rminos econ¨®micamente asequibles para todos. Y el objetivo tres es pensar en el impacto para las empresas que tambi¨¦n controlan gran parte del contenido. The New York Times puede parecer un gran propietario pero, en comparaci¨®n con YouTube, es min¨²sculo. Tenemos que pensar en otros lugares donde existen estos repositorios de contenido, y tenemos que asegurarnos de que est¨¦n abiertos, en t¨¦rminos asequibles para todos y no solo para la ¨²nica empresa que los posee, con el fin de desarrollar su propio modelo.
P. La UE se ha convertido en el primer lugar del mundo donde se regula la IA. ?Qu¨¦ opina de esta ley?
R. Necesitamos un nivel de regulaci¨®n que garantice la seguridad. A veces me sorprende cuando observo a personas en el sector tecnol¨®gico que dicen que no deber¨ªamos tener esa regulaci¨®n. Cuando compramos un cart¨®n de leche en el supermercado no nos preocupamos de si es seguro beberlo, porque sabemos que hay una base de seguridad que lo garantiza. Si esta es, como creo que es, la tecnolog¨ªa m¨¢s avanzada del planeta, no creo que sea irracional pedir que tenga al menos tanta regulaci¨®n de seguridad como la que tenemos para un cart¨®n de leche. Respecto a la ley [europea] de IA, la buena noticia es que se cree esa protecci¨®n. La ley de IA hace esto; examina los est¨¢ndares de seguridad e impone una base para estos modelos. Y no es muy diferente de lo que est¨¢ haciendo el Reino Unido o Estados Unidos.
Tambi¨¦n creo que tenemos que tener cuidado. Necesitamos tener seguridad sin crear un nivel de administraci¨®n onerosa que aumentar¨ªa los costes, especialmente para las startups. Las empresas a las que he escuchado expresar m¨¢s preocupaci¨®n sobre la ley de IA no son las m¨¢s grandes. Nosotros, francamente, tenemos la infraestructura para cumplirla. Son las startups las que quiz¨¢ no puedan. No digo esto para criticar la ley de IA, pero es lo que escucho, sobre todo en pa¨ªses como Alemania o Francia. Todo va a depender de la implementaci¨®n.
P. Usted ha defendido en el Senado de EE UU un ¡°freno de seguridad¡± para la IA. ?En qu¨¦ consiste?
R. Se trata de abordar lo que la gente a menudo describe como una amenaza existencial para la humanidad; esa IA descontrolada que buscar¨ªa extinguir a los humanos. Es lo que vemos en Terminator y otra cincuentena de pel¨ªculas de ciencia ficci¨®n. Una de las cosas que me llama la atenci¨®n, despu¨¦s de 30 a?os en esta industria, es que, a menudo, la vida imita al arte. Es sorprendente que haya 50 pel¨ªculas con el mismo argumento: una m¨¢quina que puede pensar por s¨ª misma decide esclavizar o extinguir a la humanidad, y la humanidad lucha y gana apagando la m¨¢quina. ?Qu¨¦ nos dice eso? Que tenemos que tener una forma de ralentizar o apagar la IA, especialmente si est¨¢ controlando un sistema automatizado de una infraestructura cr¨ªtica.
Hace nueve meses que present¨¦ este concepto por primera vez, y lo que me resulta m¨¢s llamativo es que, dondequiera que vaya, la conversaci¨®n es m¨¢s o menos la misma. Comienza con esta preocupaci¨®n: ¡°Dios m¨ªo, hay este riesgo existencial¡±. Y luego la gente dice: ¡°Eso est¨¢ a d¨¦cadas de distancia, no tenemos que concentrarnos en ello ahora¡±. Tenemos la capacidad de resolver m¨¢s de un problema a la vez. Resolvamos los de hoy y los de ma?ana: el mejor momento para afrontar un problema es antes de que ocurra. Sabemos c¨®mo hacerlo: cada autob¨²s y cada tren tiene un freno de emergencia.
P. Microsoft y OpenIA acaban de publicar un informe sobre c¨®mo China, Rusia, Corea del Norte e Ir¨¢n est¨¢n usando la IA para ciberataques cada vez m¨¢s sofisticados. ?Qu¨¦ se puede hacer para evitarlo?
R. Primero, necesitamos reconocer el problema. En este estudio, Microsoft y OpenAI [asociada con Microsoft] descubrieron que estos cuatro Estados estaban utilizando IA generativa en operaciones de ciberseguridad e influencia cibern¨¦tica. No vamos a permitir que actores estatales se involucren en este tipo de conducta perjudicial con el uso de nuestras aplicaciones, porque consideramos que eso, probablemente, har¨¢ da?o al mundo. Pero, adem¨¢s, necesitamos usar la IA para contraatacar y generar una protecci¨®n de ciberseguridad m¨¢s fuerte.
P. El viernes anunci¨® un acuerdo para luchar contra los deepfakes [archivos de v¨ªdeo, imagen o voz manipulados] en los procesos electorales. ?En qu¨¦ consiste?
R. Este acuerdo es muy importante. En primer lugar, porque el problema lo es. Va a haber elecciones este a?o en m¨¢s de 65 pa¨ªses y en toda la Uni¨®n Europea. Y estamos observando un r¨¢pido uso de los deepfakes para intentar enga?ar al p¨²blico sobre, por ejemplo, lo que un candidato ha dicho. Con este acuerdo tecnol¨®gico nos enfocamos en tres cosas. Una es proteger mejor la autenticidad del contenido con credenciales y marcas de agua. En segundo lugar, detectar deepfakes y eliminarlos si quieren enga?ar al p¨²blico. Y, tercero, debemos enfocarnos en la educaci¨®n ciudadana. Y esto es una prioridad enorme para Microsoft. Personalmente, es probable que yo haya pasado m¨¢s tiempo entre finales del a?o pasado y el viernes en este ¨²nico problema que en cualquier otra cosa, porque creemos que es fundamental afrontar este asunto.
Esto importa mucho porque afecta a procesos electorales pero, desafortunadamente, afecta a otros problemas tambi¨¦n, como el fraude financiero y el acoso cibern¨¦tico, especialmente a ni?os y mujeres. Esos dos grupos son especialmente vulnerables. Y deberemos hacerlo bien, porque si no el mundo ser¨¢ peor en lugar de mejor por esta tecnolog¨ªa.
P. Pero la misma industria que firma acuerdos como este pone a disposici¨®n de todo el mundo tecnolog¨ªas que provocan estos problemas. OpenIA present¨® el jueves su IA de v¨ªdeos, Sora, donde los v¨ªdeos generados por IA son casi indistinguibles de la realidad¡
R. Cuanto m¨¢s poderosa se vuelve una tecnolog¨ªa, m¨¢s fuertes tienen que ser las salvaguardias y controles que la acompa?en. Creo que todos vamos a tener que esforzarnos m¨¢s. Y la industria probablemente se beneficiar¨¢ si tambi¨¦n est¨¢ presionada por el Gobierno y la sociedad civil, porque la magnitud de la responsabilidad y el impacto potencial son muy altos. Despu¨¦s del Compromiso de Christchurch [un acuerdo de empresas y gobiernos para eliminar contenido violento y extremista de internet tras la matanza del mismo nombre que se produjo en 15 de marzo de 2019 en Nueva Zelanda], todos tuvimos que adaptarnos. Y creo que vamos a necesitar adaptarnos de nuevo. Lo que espero es que recordemos que se necesit¨® un tiroteo masivo transmitido por internet para abrir los ojos a la gente sobre lo que podr¨ªa salir mal. Estoy animado por el acuerdo del viernes, pero vamos a tener que ir a¨²n m¨¢s r¨¢pido. Y lo m¨¢s importante: vamos a tener que reunir a m¨¢s gente. El mayor error que podr¨ªa cometer el sector tecnol¨®gico es pensar que ya est¨¢ haciendo lo suficiente y que puede hacer lo que necesita si se le deja solo.
Puedes seguir a EL PA?S Tecnolog¨ªa en Facebook y X o apuntarte aqu¨ª para recibir nuestra newsletter semanal.