El inefable problema de la inteligencia artificial
Las nuevas tecnologías no se pueden dejar libres, considera Jesús Savage, de la Facultad de Ingeniería
Las inteligencias artificiales deben ser reguladas, “las nuevas tecnologías no se pueden dejar libres”, considera Jesús Savage Carmona, profesor e investigador de la Facultad de Ingeniería de la Universidad Nacional.
Cuando “aparecieron los automóviles no existían reglamentos, el tránsito era libre, hasta que empezaron los choques y se hizo un reglamento. Aquí será el mismo proceso: se debe tener un reglamento. No es la herramienta, sino el uso que se le da, a lo que hay que tenerle cuidado”.
¿Hay que temerle?
El académico recuerda que semanas atrás, Elon Musk, fundador de Tesla, Steve Wozniak, cofundador de Apple, y más de mil expertos hicieron una carta en la que piden detener el desarrollo de sistemas de inteligencia artificial poderosos, como es el caso de ChatGPT. “Lo que debemos preguntarnos no es si es peligroso per se, si no ¿por qué lo pidieron, y qué peligros representan para ellos?”
“Considero que en parte tienen razón –señala el investigador–, el problema con sistemas como ChatGPT es que puede proliferar la desinformación y la propaganda, además de que se convierten en un monopolio de manejo de la información. Es decir, falta transparencia de los desarrolladores, lo que puede derivar en que se convierta en un mecanismo para manipular la información.”
Como ejemplo, Savage recuerda: “Me parece que hay una demanda de un político australiano porque salió un artículo producido con ChatGPT en el que decían mentiras de él. Esto pasa porque esta herramienta usa la información que hay en internet, así que si encuentra una página que dice mentiras, tomará la información como verdadera. Ese es el riesgo que se corre, aunque no por eso deja de ser una buena herramienta”.
Indica que “ChatGPT es una red neuronal profunda y hay que ver sus características: contiene 96 capas con 175,000 millones de parámetros. Los servidores de esta empresa de inteligencia artificial, que está en Silicon Valley, estuvieron entrenando al sistema más de un año con oraciones. Son redes neuronales conocidas como retroalimentadas; se pueden meter oraciones de forma secuencial y obtienes otras oraciones en la misma forma, pero ellos las transformaban para que no fueran secuenciales. Las obligaban a estar en paralelo y eso apura el proceso; entonces, en el entrenamiento se basaron en páginas existentes, y si la información es incorrecta nos lleva a resultados incorrectos”.
ChatGPT no es infalible
Esta herramienta puede dar información imprecisa, dependiendo de lo que encuentre en internet, y de la interacción con los usuarios. El académico refiere: “Le pregunté: ¿quiénes desarrollaron al robot Justina? La respuesta fue que Jesús Savage, lo cual es cierto, y otro doctor que está en el Cinvestav, que no tiene nada que ver. Le hice ver que la respuesta fue incorrecta y me ofreció una disculpa, y me volvió a dar otros investigadores que no tienen relación. ¿Por qué se equivoca? Porque hace una búsqueda de lo que encuentra en internet y lo relaciona, en este caso de Justina, y lo toma como cierto”.
Para Savage “la apuesta que está haciendo Microsoft con su buscador Bing es que, por ejemplo, cuando yo hago una búsqueda con Google me sale una lista de lugares en los que podría estar la información que estoy buscando. Ahora con ChatGPT él realiza la búsqueda por ti y te da un resumen, se corre un riesgo de que tú como humano no puedes seleccionar la información correcta”.
Es como “un buscador potenciado, un buscador que cuando le metes una oración genera otras oraciones; no tiene conciencia y hay que declararlo, es sólo un generador de oraciones”, añade.
Sesgo en la programación
Mauricio Jacobo, egresado de la Facultad de Ingeniería y candidato a doctor en Inteligencia Artificial por la Universidad de Manchester, habla del sesgo que puede haber en la programación de estas herramientas: “El problema no es la herramienta, sino que la humanizamos demasiado. Entre el marketing y la desinformación están creando mucho miedo y fe al mismo tiempo. Se le están agregando atributos humanos a un sistema que se basa en la probabilidad de las palabras en una selección de textos”.
No es que el sistema sea racista, abunda, “sino que la información para entrenar esa IA es racista. Para entrenarla se necesita información que no puede ser imparcial porque todas nuestras tendencias van a salir. El peligro es querer utilizar la herramienta para tomar decisiones. Por esa razón, ya hay filósofos que analizan qué cualidades debe tener la información para entrenar estos sistemas. Cambridge ya tiene un programa de IA y ética, que seguro se replicará pronto en otras universidades”, concluye.
(Con información de Gaceta UNAM)