El riesgo de la Inteligencia Artificial y el factor humano

Google anunció una iniciativa de investigación cuyo objetivo es encontrar la manera de poner a la gente en el centro del desarrollo de la inteligencia artificial (IA), proporcionándole a los ingenieros mejores herramientas para controlar la tecnología y asegurar que el individuo común no esté en desventaja por las decisiones que provienen de las máquinas inteligentes.

La idea “surgió de una serie de preguntas que comenzaron a salir desde varios rincones de Google, acerca de la interacción de los seres humanos con la IA”, dice Fernanda Viégas, una de las investigadoras detrás del plan.

La postura de Google sobre los posibles efectos negativos de la IA, refleja una preocupación más general en el mundo de la tecnología, respecto de que los métodos utilizados por las empresas, para construir nuevos productos, tal vez no sean los adecuados para controlar la nueva tecnología.

El uso de datos incompletos o distorsionados para capacitar a los sistemas de IA, por ejemplo, puede tener como resultado una “forma de pensamiento” sesgado en las máquinas, y es difícil someter al escrutinio externo a los algoritmos utilizados.

Incluso, cuando los sistemas de IA funcionan de manera efectiva, se corre el riesgo de integrar opiniones que pone en desventaja a algunos grupos de personas, e, incluso, pueden marginar a los humanos por completo, en lugar de alentar nuevas formas de interacción con las computadoras.

El objetivo debe ser crear “sistemas de IA que se centren en las personas” y “democratizar” la tecnología, al hacerla comprensible para los ingenieros y las personas. Viégas y su colega científico e investigador de Google, Martin Wattenberg, escribieron en un blog sobre la iniciativa de investigación anunciada el lunes.

El llamado de Google se da después de que, el año pasado, hubo un intento concertado de Microsoft para dar un enfoque más humanista a su propio desarrollo de IA. Satya Nadella, director ejecutivo, comparó la urgencia de la transformación con los procesos de desarrollo de Microsoft de hace 15 años, después de que la primera ola de virus informáticos expuso la necesidad de un software más robusto.

“¿Cómo podemos asegurarnos de que esta tecnología beneficie y fortalezca al mundo?”, preguntan Viégas y Wattenberg

Su llamado es un eco de la creciente preocupación sobre la dificultad de explicar cómo funcionan los sistemas de inteligencia artificial, algo que podría llevar a una falta de confianza en sus resultados, lo que frena su uso.

En un intento para superar este problema, la división de investigación del Departamento de Defensa de EU respaldó estudios sobre cómo hacer que el “pensamiento” de los sistemas de IA sea más comprensible para los humanos.

En el primer producto de este nuevo esfuerzo, llamado People+AI Research, Google anunció el lanzamiento de dos herramientas de software que, dice, les dará a los desarrolladores “una visión clara de los datos que utilizan para capacitar a los sistemas de IA”. Eso refleja una “necesidad más fuerte no solo para depurar el código, sino también los datos”, dicen.

(Con información de The Financial Times)

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Social Media Auto Publish Powered By : XYZScripts.com