M¨¢quinas que se programan a s¨ª mismas: ?una ayuda para los humanos o un riesgo?
Aunque la inteligencia artificial es cada vez m¨¢s eficiente corrigiendo errores en sus l¨ªneas de c¨®digo, la intervenci¨®n humana sigue siendo imprescindible
Los primeros programadores escrib¨ªan c¨®digo a mano, garabateando s¨ªmbolos en papel cuadriculado antes de convertirlos en tarjetas perforadas que pod¨ªan ser procesadas por un ordenador. Con el paso del tiempo, las herramientas para escribir c¨®digo se han ido perfeccionando con el objetivo de hacer la tarea m¨¢s eficiente y con menos errores, hasta tal punto que incluso se est¨¢ ense?ando a m¨¢quinas a programar a otras m¨¢quinas, tal y como propone una de las ¨²ltimas investigaciones del Instituto Tecnol¨®gico de Massachusetts (MIT). Este tipo de avances abren el debate sobre si los ordenadores est¨¢n...
Los primeros programadores escrib¨ªan c¨®digo a mano, garabateando s¨ªmbolos en papel cuadriculado antes de convertirlos en tarjetas perforadas que pod¨ªan ser procesadas por un ordenador. Con el paso del tiempo, las herramientas para escribir c¨®digo se han ido perfeccionando con el objetivo de hacer la tarea m¨¢s eficiente y con menos errores, hasta tal punto que incluso se est¨¢ ense?ando a m¨¢quinas a programar a otras m¨¢quinas, tal y como propone una de las ¨²ltimas investigaciones del Instituto Tecnol¨®gico de Massachusetts (MIT). Este tipo de avances abren el debate sobre si los ordenadores est¨¢n siendo cada vez m¨¢s autosuficientes y sobre el papel que los humanos tienen en su programaci¨®n.
Trabajando con un equipo de Intel, el MIT ha desarrollado un sistema llamado Machine Inferred Code Similarity que puede leer el c¨®digo que ha escrito un humano e interpretar la orden que le est¨¢ dando al ordenador. Es decir, puede entender el c¨®digo y, gracias a ello, sugerir otras formas m¨¢s eficientes en las que se podr¨ªa programar a la m¨¢quina ofreciendo correcciones y formas de hacerlo m¨¢s r¨¢pido. Para ello, compara fragmentos del software con millones de otros programas con los que ha sido entrenado previamente.
A medida que los sistemas se vuelven cada vez m¨¢s complejos, rastrear los errores es m¨¢s dif¨ªcil para los humanos. ¡°A veces, los equipos de codificadores pueden tardar d¨ªas y d¨ªas en solucionar un solo fallo¡±, explica Justin Gottschlich, director del grupo de investigaci¨®n, en MIT Technology Review. Esto fue lo que llev¨® a Gottschlich y sus colegas a buscar una forma de automatizar el proceso.
Intel planea usar la herramienta como un sistema de recomendaci¨®n de c¨®digo para desarrolladores internos. ¡°Tambi¨¦n podr¨ªa usarse para traducir el software escrito en un lenguaje antiguo a uno m¨¢s moderno e incluso para que los humanos desarrollen aplicaciones para el m¨®vil simplemente describiendo con palabras c¨®mo quieren que sea el programa¡±, explica Gottschlich.
De momento, este enfoque se puede utilizar para que las m¨¢quinas escriban su propio c¨®digo, bas¨¢ndose en una serie de programas preexistentes ¡°con una m¨ªnima supervisi¨®n o participaci¨®n humana¡±. Esto es precisamente lo que tienen en com¨²n distintos proyectos que han trabajado en esta misma idea de automatizar la programaci¨®n de ordenadores: todos parten un input humano.
En los ¨²ltimos a?os, los ejemplos son muchos: Microsoft est¨¢ supervisando c¨®digo muy b¨¢sico escrito por m¨¢quinas en sus herramientas de desarrollo de software, Facebook trabaja con un sistema llamado Aroma que autocompleta peque?os programas y DeepMind ha desarrollado una red neuronal que puede generar versiones de algoritmos simples m¨¢s eficientes que los ideados por programadores.
Siempre es necesaria la intervenci¨®n humana, por lo que el temor a perder el control sobre la inteligencia artificial sigue siendo infundado a d¨ªa de hoy, seg¨²n la opini¨®n de los expertos.
¡°Los sistemas de inteligencia artificial que corrigen el c¨®digo de otras m¨¢quinas lo hacen respecto a un modelo dise?ado por un experto. No definen de manera aut¨®noma qu¨¦ se programa y qu¨¦ no¡±, explica Luis Gonz¨¢lez, socio responsable de Robotics en Deloitte.
El margen que estos sistemas tienen para improvisar es muy limitado. ¡°Las m¨¢quinas solo pueden tomar decisiones en el entorno para el que est¨¢n dise?adas. Por lo tanto, si una m¨¢quina tiene que hacer tornillos, nunca podr¨¢ hacer otra cosa¡±, coincide Jaime Lagunas, responsable del ¨¢rea de inteligencia aplicada de Accenture en Espa?a, Portugal e Israel. ¡°Teniendo el cuidado adecuado, no se espera, al menos con la tecnolog¨ªa actual, que puedan llegar a hacer da?o¡±.
Ambos hacen hincapi¨¦ en que la idea de perder el control de las m¨¢quinas sigue siendo un escenario de ciencia ficci¨®n y en que todav¨ªa no hemos llegado a un punto en que la creaci¨®n de inteligencia artificial autosuficiente deba ser una preocupaci¨®n real. ¡°No quiero desmerecer lo que somos capaces de hacer con la IA, pero a d¨ªa de hoy solo podemos imitar parcelas muy simples del comportamiento humano. Las m¨¢quinas son muy buenas llevando a cabo en una tarea espec¨ªfica, pero no en todo lo dem¨¢s¡±, a?ade Gonz¨¢lez.
Adem¨¢s, la inteligencia artificial aprende sobre algo que un humano ha definido, por eso, ¡°muchas empresas ya est¨¢n trabajando para asegurarse de que cualquier decisi¨®n de la IA est¨¢ basada en comportamientos ¨¦ticos por parte de los programadores de las m¨¢quinas. Sin duda, es la responsabilidad de las empresas limitar lo que pueden llegar a hacer las m¨¢quinas y c¨®mo deben actuar conforme a criterios ¨¦ticos¡±, se?ala Lagunas.