Los SIA no reemplazan la cognición humana
Los sistemas de IA requieren estar supervisados y subordinados a las personas, señaló Jorge Enrique Linares Salgado
Humanos y máquinas deben colaborar, no competir. Los sistemas de inteligencia artificial (SIA) no deben reemplazar la cognición humana y requieren estar supervisados y subordinados a las personas, señaló Jorge Enrique Linares Salgado, académico y exdirector de la Facultad de Filosofía y Letras de la UNAM.
En este ámbito, los humanos siempre deben actuar y decidir, añadió en el Seminario TIC, organizado por la Dirección General de Tecnologías de la Información y Comunicación, donde se abordó el tema de Los desafíos de la ética en la inteligencia artificial.
El académico adscrito al Colegio de Filosofía de la Facultad refirió que actualmente los SIA ya superan a la inteligencia humana en el procesamiento de datos masivos o big data, porque lo hacen casi de forma instantánea. “Ninguna persona puede procesar tan rápido la información como las computadoras, y ahora lo hacen esos sistemas con algoritmos, los cuales pueden clasificar, ordenar, comparar y, en ese sentido, comienzan a tomar decisiones”.
El experto en ética de la ciencia y la tecnología, y filosofía de la tecnología, explicó que la IA, o cognición humana simulada, replica por medios tecnológicos y digitales los comportamientos y capacidades inteligentes que, normalmente, poseemos los seres humanos.
Dichos sistemas se pueden utilizar para mejorar todo tipo de servicios, estudios, cálculos, planeación y organización con herramientas digitales; para propiciar un nuevo modelo de servicios sociales mediante bases de datos y una red de asistencia pública; generar información de interés para investigaciones y monitoreo en ámbitos públicos o privados; o establecer bases de datos para desarrollar sistemas comerciales con la información de usuarios.
Linares Salgado señaló que no hay que perder de vista que los sistemas de IA son mercantiles, incluso, son bienes de capital y están en un mercado capitalista, entonces, la gran mayoría de los desarrollos e innovaciones provienen de empresas privadas y no de instituciones públicas.
El universitario refirió que el desarrollo tecnológico e industrial desde el siglo XX ha tenido una lógica de crecimiento imparable y de aceleración, y eso impide que las personas podamos evaluar con detenimiento los riesgos que se están produciendo. “Se invisibilizan y a veces es difícil descubrirlos hasta que se convierten en daños”.
Entre los desafíos y riesgos de la inteligencia artificial se encuentra que las máquinas inteligentes y los SIA pueden restringir la autonomía de las personas, afectar su capacidad de decisión y razonamiento, o influir en la política y en la toma de decisiones empleando sesgos discriminatorios en sus algoritmos.
Asimismo, enumeró, obstruir derechos fundamentales como el de la privacidad y la intimidad; suplantar a muchos trabajadores humanos en tareas automatizables; exacerbar las desigualdades sociales y económicas; dañar el clima y el ambiente con un uso desproporcionado de energía y agua; y mayor contaminación.
Pero el principal riesgo, consideró el especialista, es que los SIA no sean en el futuro tan inteligentes, adaptables, sensibles, empáticos y deliberativos como pueden ser la mayoría de los seres humanos.
Según la Organización para la Cooperación y el Desarrollo Económicos, citó, 25 % de los trabajos convencionales serán sustituidos por sistemas de IA: se crearán nuevos empleos pero la mayoría subordinados al mantenimiento de los SIA. Parece un hecho que reemplazarán a los trabajos repetitivos, peligrosos y de tareas cognitivas básicas, los que hoy realiza la mayoría de las personas.
Tales sistemas tienen consecuencias ético-políticas intencionales o no intencionadas. “No tienen conciencia o mala fe, como los humanos, pero pueden fallar”. Los errores y daños que ocasionen los SIA podrían ser muy graves y tener consecuencias, por lo que se requiere transparencia, responsabilidad y rendición de cuentas de quienes sean los responsables de su diseño, construcción y operación.
La IA, recalcó Jorge Enrique Linares Salgado, nunca deberá tomar decisiones cruciales (de vida o muerte), de gran impacto social y ambiental reemplazando a los seres humanos, ni cancelar o eludir el debate y la deliberación democrática y la participación ciudadana en la toma de decisiones.
Entre los principios éticos para la IA, “todos igualmente indispensables”, se encuentran los de protección a la privacidad y la intimidad; responsabilidad y solidaridad; evaluación y participación democrática, justicia y equidad; inclusión de la diversidad; preservación de la responsabilidad humana, y desarrollo sustentable, de acuerdo con la Declaración de Montreal para el Desarrollo Responsable de IA.
Por último, el experto universitario expuso que es conveniente que los SIA realicen funciones que las mentes humanas no pueden hacer (como los cálculos con datos masivos o descubrir patrones) y que auxilien a los humanos en tareas cognitivas potenciando sus resoluciones con datos y cálculos precisos.
“Pero no es conveniente que remplacen a las personas en tareas cognitivas complejas que ellos pueden hacer, ni que nos volvamos dependientes y subordinados a las tareas cognitivas de los SIA”, concluyó.
(Con información de La Jornada)