Niños criados por computadoras

Los niños adoran a sus nuevos hermanos robot. A medida que millones de familias estadounidenses compran asistentes de voz robotizados para apagar las luces, ordenar pizzas y revisar los horarios de una película, los niños están cooptando los gadgets para resolver las disputas en la mesa de comedor, responder a las preguntas de la tarea y entretener a los amigos en sus fiestas de pijamas.

Muchos padres se han asustado e intrigado por la manera en que estas voces desencarnadas saben todo, Alexa, de Amazon, Google Home o Cortana, de Microsoft están afectando el comportamiento de sus hijos, haciéndolos más curiosos, pero menos corteses.

En sólo dos años, la promesa de la tecnología ya ha superado las expectativas­. Los discapacitados utilizan asistentes de voz para controlar sus hogares, pedir comida y escuchar libros. Los cuidadores de los ancianos dicen que los dispositivos les ayudan con la demencia, recordando a los usuarios qué día es o cuándo tomar la medicina.

Para los niños, el potencial de interacciones transformadoras es dramático —en el hogar y en las aulas. Pero los psicólogos, los tecnólogos y los lingüistas sólo están empezando a reflexionar sobre los posibles peligros que circundan a los niños que interactúan con la inteligencia artificial (AI), sobre todo cuando atraviesan etapas importantes de su desarrollo social y del lenguaje.

“La forma en que reaccionan y tratan a esta entidad no humana es, para mí, el tema más importante”, dijo Sandra L. Calvert­, psicóloga de la Universidad de Georgetown­ y directora del Children’s Digital Media Center. “Y cómo afecta esto posteriormente a la dinámica familiar y a las interacciones sociales con otras personas”.

El gigante de los juguetes Mattel­ anunció recientemente el nacimiento de Aristóteles, un monitor para bebés en el hogar lanzado este verano que “conforta, enseña y entretiene”, usando AI de Microsoft­. La compañía dice: “Aristóteles fue diseñado específicamente para crecer con un niño”.

Quienes impulsan esta tecnología dicen que los niños suelen aprender a adquirir información usando la tecnología predominante del momento. Pero ¿qué pasa si estos gadgets alejan a los niños de situaciones en las que aprenden importantes habilidades interpersonales?

No está claro si alguna de las empresas involucradas está prestando atención a este problema.

“Estos dispositivos no tienen inteligencia emocional”, dijo Allison Druin, un profesor de la Universidad­ de Maryland que estudia cómo los niños usan la tecnología. “Tienen inteligencia factual”.

Los niños sin duda disfrutan de su compañía, refiriéndose a Alexa como otro miembro de la familia.

“Nos gusta preguntarle muchas cosas al azar”, dijo Emerson Labovich, un estudiante de quinto grado en Bethesda, Maryland.

Este invierno, Emerson le pidió que casi todos los días ayudara a contar los días hasta un viaje al Mundo Mágico de Harry Potter en Florida. “Ella también puede rapear y rimar”, dijo Emerson.

Los niños de hoy en día estarán formados por la AI al igual que sus abuelos fueron moldeados por la televisión. Pero no se podía hablar con un televisor.

Ken Yarmosh, un desarrollador de aplicaciones de Virginia del Norte de 36 años y fundador de Savvy Apps, tiene varios asistentes de voz en su hogar, incluidos los creados por Google y Amazon.

El hijo de 2 años de Yarmosh ha sido tan cautivado por Alexa que trata de hablar con posavasos y otros objetos cilíndricos que parecen dispositivos de Amazon. Mientras tanto, el hijo de 5 años de Yarmosh, al comparar a sus dos asistentes, llegó a creer que Google lo conocía mejor.

“Alexa no es lo suficientemente inteligente para mí”, le decía, haciendo preguntas aleatorias que sus padres no podían responder, como a cuántas millas de distancia está China.

Al hablar así de un dispositivo conectado a una pared, el hijo de Yarmosh lo antropomorfiza, lo que significa que le “atribuye características humanas a algo”, explica Alexa con alegría. Los humanos hacen mucho esto, dijo Calvert. Lo hacemos con perros, vestidos con trajes en Halloween. Nombramos barcos. Y cuando nos encontramos con robots, nosotros, especialmente los niños, los tratamos casi como iguales.

En el 2012, los investigadores de la Universidad de Washington publicaron los resultados de un estudio en el que participaron 90 niños que interactuaban con un robot de tamaño natural llamado Robovie. La mayoría de los niños pensaba que Robovie tenía “estados mentales” y era un “ser social”. Cuando Robovie fue empujado a un armario, más de la mitad pensó que no era justo. Una conexión emocional similar se está apoderando de Alexa y otros asistentes, incluso para los padres.

“Definitivamente se ha convertido en parte de nuestras vidas”, dijo la madre de Emerson, Laura Labovich, que luego se corrigió rápidamente: “Ella es definitivamente parte de nuestras vidas”.

El problema, dijo Druin, es que esta conexión emocional establece expectativas para los niños que los dispositivos no pueden o no fueron diseñados para cumplir, causando confusión, frustración e incluso cambios en la manera en que hablan o interactúan con los adultos.

El hijo de Yarmosh pensó que Alexa no podía entenderlo, pero eran los algoritmos que no podían captar el tono de su voz o la forma en que formulaba sus preguntas. Los educadores que introducen estos dispositivos en las aulas y en las bibliotecas escolares han encontrado el mismo problema.

“¿Si Alexa no entiende la pregunta, ¿es culpa de Alexa o podría ser la culpa de la pregunta?”. Dijo Gwyneth Jones, una bibliotecaria que usa el dispositivo de Amazon en la Escuela Intermedia Murray Hill en Laurel, Maryland. “La gente no siempre va a conseguir lo que están diciendo, así que es importante que aprendan a hacer buenas preguntas”.

Naomi S. Baron, una lingüista universitaria estadounidense que estudia la comunicación digital, está entre los que se preguntan si los dispositivos, incluso a medida que se hacen más inteligentes, empujarán a los niños a valorar el lenguaje simplista, y preguntas simplistas, sobre el matiz y las preguntas complejas.

Al preguntar a Alexa, “¿Cómo hacer una buena pregunta?”, ella responde: “No pude entender la pregunta que escuché”. Pero ella es capaz de responder a un derivado simple: “¿Qué es una pregunta?”.

“Una expresión lingüística utilizada para hacer una solicitud de información”, dice.

Y luego está el recableado de la comunicación adulto-niño.

Aunque el nuevo asistente de Mattel tendrá un escenario que obligue a los niños a decir “por favor” al pedir información, los asistentes de Google, Amazon y otros están diseñados para que los usuarios puedan hacer rápidamente, y sin rodeos, preguntas. Los padres están notando algunos cambios no tan sutiles en sus hijos.

En un blog publicado el año pasado, un capitalista de riesgo de California escribió que su hija de 4 años pensaba que Alexa era el mejor hechicero de la casa. “Pero temo que también está convirtiendo a nuestra hija en una rabiosa…”, escribió Hunter Walk. Porque Alexa tolera las malas costumbres.

Para hacerle una pregunta, todo lo que necesita hacer es decir su nombre, seguido de la consulta. No “por favor”. Y no “gracias” antes de pedir un seguimiento.

“Cognitivamente no estoy seguro de que un chico entienda por qué puedes mandar a Alexa, pero no a una persona”, escribió Walk. “Por lo menos, crea patrones y refuerzos. Mientras su dicción sea buena, usted puede conseguir lo que quiera sin sutilezas”.

La naturaleza personal y transaccional de la relación es atractiva para niños y adolescentes. Los padres (incluyendo a este reportero) han notado que las consultas hechas previamente a los adultos están cambiando a los asistentes, particularmente para la preparación: palabras de deletreo, matemáticas simples, hechos históricos.

O consultar el tiempo, sobre todo en invierno. En lugar de preguntar a mamá o papá la temperatura de ese día, los niños sólo van al dispositivo, tratando la respuesta como un evangelio.

Lo bueno: no más peleas sobre cómo será realmente la temperatura y lo que es apropiado llevar. Lo malo: los niños irán con sus padres menos; ambos lados pierden en términos de interacciones.

“Puede haber muchas consecuencias no deseadas en las interacciones con estos dispositivos que imitan conversación”, dijo Kate­ Darling, una profesora del MIT que estudia cómo los humanos interactúan con los robots. “Todavía no sabemos cuáles serán todas”.

Pero la mayoría de los investigadores, educadores y padres, e incluso algunos niños, ya están de acuerdo en que estos dispositivos deben ser puestos en su lugar, al igual que a un hermano sabelotodo.

Jones, la bibliotecaria, aleja a Alexa durante un par de semanas a la vez, por lo que sus estudiantes no dependen demasiado de ella. Yarmosh­, quien recientemente lanzó un proyecto de videos en línea para niños, mantiene a los asistentes fuera de las habitaciones de sus hijos. Emerson y su hermano toman un acercamiento del tipo “patio de escuela”.

Alexa, dirán, eres una burra.

Michael S. Rosenwald es reportero en el equipo local de The Washington Post. Escribe sobre la intersección entre tecnología, negocios y cultura.

(Con información de El Economista)

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Social Media Auto Publish Powered By : XYZScripts.com