El pasado día 22 de marzo salía a la luz una carta en la que se pedía parar por al menos 6 meses el entrenamiento y desarrollo de aquellas herramientas de Inteligencia Artificial más potentes que GPT-4. La misiva ya ha sido firmada por casi 24000 personas entre los que encontramos a grandes protagonistas del mundo tecnológico como Elon Musk. Pero ¿Tiene sentido la petición? ¿Es viable? ¿Realmente son tan peligrosas estas herramientas?
Los riesgos que se señalan
Empecemos por la última pregunta tratando de entender cuáles son los riesgos argumentados en el texto. Para ello es necesario hacer una pequeña aclaración previa. Esta carta no hace referencia a todo lo que hoy en día llamamos IA (cuando a veces ni siquiera lo es) y que encontramos detrás de muchos desarrollos científicos. En este sentido, las herramientas matemáticas y estadísticas que permiten tomar decisiones y entender mejor el mundo que nos rodea, llevan siglos entre nosotros, incluso antes de que Ada Lovelace creara el primer código de ordenador o Alan Turing soñase con una máquina capaz de aprender y comunicarse.
Las herramientas que según el texto suponen realmente un peligro son aquellas que conocemos como “de caja negra” y que nos pueden llevar de alguna manera a lo que se conoce como Inteligencia General Artificial (AGI por sus siglas en inglés). Es decir, hablamos de herramientas que puedan llegar a aprender por sí mismas y tomar decisiones propias. Para entender a que nos referimos podemos hacer un símil con nuestras redes neuronales (no obstante, también reciben ese nombre). Sabemos que las neuronas se conectan y que la información pasa de unas a otras procesando los datos para dar una respuesta. Pero lo cierto es que, hoy en día, no conocemos con exactitud cuál es el detonante que hace que sea una neurona y no otra la que se activa. Así pues, en las redes neuronales artificiales puede pasar un poco lo mismo y perdemos la perspectiva, no solo como usuarias si no también como programadoras, de lo que puede estar pasando ahí dentro.
Estamos hablando de herramientas que podrían superar las capacidades del actual ChatGPT-4 generando todo tipo de textos, códigos de programación e, incluso imágenes en conjunción con otras IAs similares como DALL·E, Stable Diffusion o Midjourney. Efectivamente, estas herramientas pueden suponer la aparición de noticias falsas difícilmente distinguibles de las reales y que, de esta forma, pueden generarse de manera mucho más rápida. Además, si esto impacta sobre una sociedad con poca cultura estadística y poca capacidad crítica, estas herramientas pueden suponer una fuente de sesgos y bulos que podrían llegar a atentar contra la democracia, sin ser comparables a otras campañas de desprestigio y noticias falsas que ya se han utilizado para tratar de influir en resultados electorales. Muy interesante a este respecto la opinión del divulgador experto en IA, Carlos Santana (DotCSV).
Sin embargo, de ahí a que esta IA pueda alcanzar conciencia de sí misma, acabar con nuestros puestos de trabajos y hacernos perder el control de nuestras sociedades al más puro estilo HAL-9000, tal y como se deduce del texto, hay un trecho largo. Un trecho que, por supuesto, debemos vigilar pero sin olvidarnos de todo lo que pueden aportarnos.
El potencial
Es importante mencionar el increíble potencial que estas herramientas pueden tener en la mejora de la educación. Y sí, ya sé que hay muchas personas profundamente preocupadas por que el alumnado pida a ChatGPT sus trabajos, pero, ante esa opinión siempre me viene a la mente la misma comparación… ¿Qué pasó cuando aparecieron las primeras calculadoras? ¿Y los primeros softwares que permitían resolver ecuaciones complejas? Seguro que alguien pensó que se acababa el cálculo mental, que todo estaba perdido, quizás hay quien lo sigue pensando, pero ¿nos imagináis calculando a mano una estructura para un edificio? No ¿verdad? Quizás, en este aspecto, el reto se encuentra en concienciar al alumnado de cómo funcionan estas herramientas, que pueden ser útiles para empezar un trabajo pero que deben comprobar cada dato, cada resultado y ser conscientes de los sesgos para evitarlos. ¿Y si resulta que así ganamos tiempo para generar una ciudadanía con una mejor capacidad crítica? Además, estas herramientas pueden suponer un cambio en el modo de aprendizaje y, como dice mi buena amiga y experta en pensamiento computacional Belen Palop, al enseñar al alumnado cómo usarlas, podemos ganar mucho más de lo que, aparentemente, perdemos.
Otros riesgos importantes: Los sesgos y el cambio climático
Y hablando de sesgos, más que la aparición de una AGI, lo que a mí me resulta realmente preocupante es el uso indiscriminado de herramientas que, vestidas de IA, hacen un uso de grandes bases de datos sin preocuparse por las consecuencias de su uso, sobre todo cuando, como comentábamos antes, se trata de algoritmos de caja negra.
Por ponerlo blanco sobre negro… si la IA tiene como objetivo decidir sobre una contratación, sobre otorgar una hipoteca o sobre la admisión en una frontera, no sabemos si en el proceso de que nos diga que sí o que no han jugado un papel cuestiones como el género, la etnia, la nacionalidad, el nivel socioeconómico etc. Esto supone que estos sistemas van a amplificar los sesgos existentes en los datos (que los hay, y muchos) y que no vamos a ser capaces de establecer medidas de control sobre esos estos. Sobre este tema es muy recomendable escuchar el episodio que recientemente dedicó a la IA el programa CarneCruda.
Además, el enorme consumo energético que supone el entrenamiento de los modelos tipo GPT-4 es también una posible fuente de preocupación que no se está poniendo lo suficiente sobre la mesa.
Pero, ¿La podemos parar?
Entendidos sus riesgos, que existen y no son solo los que nos cuenta la carta, y su potencial, que es enorme, la pregunta es si podemos / debemos pararla y, en tal caso, ¿por cuánto tiempo y con qué fin?
La respuesta a esta pregunta para mí es clara: da igual si debemos o no, la cuestión es que no podemos. No podemos igual que no se pudo parar la revolución industrial e igual que cuando pensamos en parar las emisiones de carbono nunca hay acuerdo y, si no somos capaces de acordar parar algo que sabemos que nos está matando, cómo vamos a parar algo sobre lo que solo tenemos intuiciones de hasta dónde puede llegar.
Lo que sí podemos hacer
Lo que sí es importante es que nos pongamos las pilas para cambiar lo que está a nuestro alcance y, sobre todo, al alcance de nuestros gobiernos. No podemos permitir el desarrollo indiscriminado de este tipo de sistemas sin que tengamos ningún tipo de control, así como no dejamos que un medicamento salga al mercado sin haber pasado todos los controles para ello. Necesitamos crear agencias de control y estudio de la IA como la que actualmente se ha establecido en A Coruña. Dotarlas con personal competente y diverso (sin diversidad hay sesgos que no se perciben) de todas las disciplinas y, en especial, de las Matemáticas, la Estadística, la Computación, la Psicología, la Sociología o la Ética; de recursos económicos y, sobre todo, de voz, de voto y de capacidad de acción. Este tipo de agencias no pueden ser una mera entidad consultiva.
Además, es importante formar a los futuros ciudadanos y ciudadanas con una visión crítica que pasa por dar una mayor importancia, a las matemáticas y la estadística (gran olvidada en los planes educativos actuales) incluyendo en las aulas herramientas digitales y pensamiento computacional que mejore las competencias en algoritmia y programación del alumnado, con planes de actualización para el profesorado que ayuden a que todas y todos tengamos una mejor formación para entender y filtrar lo que de bueno y de malo nos trae la IA que llega imparable.
En definitiva, no frenemos el avance, aprovechemos sus ventajas, entendamos sus riesgos, regulémoslo y acompañémoslo… eso sí ¡tiene que ser YA!
2 Replies to “¿Parar la IA?”