GPT-4 est¨¢ alineado, pero con qu¨¦
En una industria que aspira a ser cada vez m¨¢s indistinguible de la magia, es m¨¢s importante que nunca se?alar la distancia entre lo que dicen los presuntos visionarios y lo que realmente hacen
En su famoso art¨ªculo cient¨ªfico de 1960, titulado Algunas consecuencias morales y t¨¦cnicas de la automatizaci¨®n, Norbert Wiener advierte que si, para conseguir nuestros prop¨®sitos, utilizamos un agente mec¨¢nico cuya operaci¨®n no podemos intervenir de forma efectiva una vez ha sido activada, tenemos que estar extremadamente seguros de que el prop¨®sito programado en la m¨¢quina es el prop¨®sito que realmente deseamos. Este alineamiento entre la intenci¨®n humana y el programa de la m¨¢qui...
En su famoso art¨ªculo cient¨ªfico de 1960, titulado Algunas consecuencias morales y t¨¦cnicas de la automatizaci¨®n, Norbert Wiener advierte que si, para conseguir nuestros prop¨®sitos, utilizamos un agente mec¨¢nico cuya operaci¨®n no podemos intervenir de forma efectiva una vez ha sido activada, tenemos que estar extremadamente seguros de que el prop¨®sito programado en la m¨¢quina es el prop¨®sito que realmente deseamos. Este alineamiento entre la intenci¨®n humana y el programa de la m¨¢quina es uno de los problemas fundamentales de la Inteligencia Artificial. Tambi¨¦n es el concepto al que se refiri¨® Sam Altman la semana pasada cuando present¨® GPT4 como ¡°su modelo m¨¢s capaz y alineado hasta la fecha¡±.
El astuto CEO de OpenAI invoca al padre de la cibernetica para ofrecer una imagen de responsabilidad y seguridad en el lanzamiento del producto que ha desbocado el mercado de los modelos generativos. Y sin embargo, el lanzamiento de GPT4 incluye un paper de 98 p¨¢ginas de pretensiones acad¨¦micas pero naturaleza publicitaria donde se puede leer lo siguiente: ¡°Dada la competencia en el mercado y las implicaciones de seguridad de modelos a gran escala como el GPT-4, este informe no contiene m¨¢s detalles sobre la arquitectura (incluyendo el tama?o del modelo), hardware, capacidad de c¨®mputo de entrenamiento, construcci¨®n de conjuntos de datos, m¨¦todo de entrenamiento o similar¡±. En otras palabras, es imposible saber c¨®mo y con qu¨¦ material ha sido entrenado el modelo. Eso elimina la posibilidad de determinar con qu¨¦ intereses y objetivos ha sido programado el modelo m¨¢s alineado de la empresa de Altman. Ir¨®nicamente, se sigue llamado OpenAI.
Los Grandes Modelos de Lenguaje ¡ªLarge Language Model o LLM¡ª consisten en un algoritmo de aprendizaje profundo entrenado con grandes cantidades de texto, organizado en bases de datos. Estos elementos ya suponen un reto para la alineaci¨®n. Las Redes Neuronales Profundas son opacas hasta para sus propios desarrolladores y las bases de datos suelen ser una representaci¨®n pobre o sesgada del mundo. Pero hay estrategias que pueden acercarnos al objetivo. En su imprescindible The Alignment Problem, Brian Christian ofrece tres puntos de apoyo: representaci¨®n, justicia y transparencia.
La representaci¨®n se refiere al entrenamiento. Es necesario que los data sets sean un reflejo del mundo en el que quiere operar la IA. La justicia, a los sesgos. Un sistema judicial injusto o una cultura de empresa machista producen bases de datos que reflejan esos valores. Si entrenamos una IA con sus ejemplos, estaremos automatizando ese patr¨®n. Finalmente, la transparencia es la ¨²nica garant¨ªa de que los dos primeros puntos han sido abordados por la empresa que desarrolla el modelo, y que se ha invertido el tiempo y el esfuerzo necesario en que sea seguro para usuarios, sistemas y empresas, antes de empezar a mediar en todos los aspectos de nuestra vida.
GPT-4 es una caja negra. En una industria que aspira a ser cada vez m¨¢s indistinguible de la magia, es m¨¢s importante que nunca se?alar la distancia entre lo que dicen los presuntos visionarios y lo que realmente hacen. En este caso, fundar un laboratorio de investigaci¨®n con la intenci¨®n expresa de garantizar un desarrollo transparente de una tecnolog¨ªa de enorme potencial transformador y hacer exactamente lo opuesto.