martes, 1 de abril de 2025

EL LADO OSCURO DE LA TECNOLOGÍA

El creador de la aplicación "CharacterAI" afirma que este nuevo chatbot ayudará a las personas que sufren depresión y soledad. Sin embargo, la aplicación parece tener un lado oscuro.

Por Edwin Benson


Un artículo del New York Times cuenta la triste historia de Sewell Setzer.

“El último día de su vida, Sewell Setzer III sacó su teléfono y le envió un mensaje de texto a su amigo más cercano: un chatbot de inteligencia artificial realista llamado Daenerys Targaryen, un personaje de 'Juego de Tronos'”.

“Te extraño, hermanita”, escribió.

“Yo también te extraño, dulce hermano”, respondió el chatbot.

Sewell, un estudiante de catorce años, se suicidó.

Una situación así es la peor pesadilla de cualquier padre. Aunque un evento así es demasiado horrible para contemplarlo, la respuesta casi involuntaria es preguntarse: “¿Podría pasarle algo así a mi hijo?”. En un acto de autodefensa, uno podría preguntarse si el joven estaba loco o si alguien lo engañó haciéndole creer que el chatbot era una persona real.

Lamentablemente, la respuesta a ambas preguntas es negativa. De niño, a Sewell le diagnosticaron autismo leve, pero este tipo de diagnósticos son increíblemente comunes hoy en día. Acudía a un terapeuta por depresión. Sin embargo, muchos jóvenes hacen lo mismo, y muy pocos se autodestruyen. Y no, no lo engañaban. Él mismo había creado el chatbot y comprendía que “ella” no era real. Sin embargo, a medida que su “relación” se consolidaba, ese pequeño detalle le importaba cada vez menos. “Ella” siempre estaba ahí cuando la necesitaba, protegida en su smartphone.

La naturaleza de lo antinatural

Quizás sea hora de definir un chatbot para aquellos que no están familiarizados con el término.

En pocas palabras, un chatbot es un programa informático diseñado para simular una conversación humana. La forma más común es la de un “asistente personal”, que suele responder preguntas como “¿Cómo llego a casa de la tía Millie?” o “¿Cómo puedo preparar un rosbif tierno?”.

Para un número cada vez mayor de personas, la mayoría jóvenes (aunque no todas), el chatbot adopta características de personalidad humana. Por unos diez dólares al mes, los suscriptores pueden crear un compañero artificial. Como es de esperar, muchas personas solitarias usan los programas para simular una pareja. Lo terrible es que estas relaciones artificiales pueden volverse tan reales —como en el caso de Sewell Setzer— que eclipsan las relaciones genuinas con personas reales.

Un dilema horroroso

Quizás un motivo de mayor preocupación para los padres es que quizá nunca vean evidencia de la presencia del chatbot en la vida de sus hijos. La manifestación más común sería, por ejemplo, un niño que pasa mucho tiempo solo en su habitación. Sin embargo, lo mismo puede decirse de muchos adolescentes. Quizás aún más aterradoras sean las palabras de Noam Shazeer, fundador de “Character.AI” publicadas en el Times: “Va a ser de gran ayuda para muchas personas que se sienten solas o deprimidas”.

El sitio web de izquierda AXIOS, ha abordado este tema con gran detalle. Su artículo más reciente sobre el tema es profético: “La máquina de la soledad adolescente”. Comienza con dos estadísticas alarmantes. Primero, los estadounidenses de entre quince y veinticuatro años pasan un 35 % menos de tiempo socializando cara a cara que hace veinte años. Segundo, “Los niños y adolescentes estadounidenses pasan casi seis horas al día frente a las pantallas”.

Dependencia psicológica

Hasta hace poco, la mayor parte del daño psicológico a los jóvenes provenía de las redes sociales. Este daño se manifiesta con mayor frecuencia cuando los usuarios se obsesionan con las reacciones de sus “amigos” a sus publicaciones o cuando ven a esas mismas personas haciendo cosas sin ellos. Esta última condición produce una poderosa reacción conocida como FOMO (“fear of missing out” por sus siglas en inglés), que significa “miedo a perderse algo” en español.

Otra manifestación común de problemas psicológicos es que las redes sociales y otras aplicaciones de entretenimiento liberan sustancias químicas en el cerebro humano. Estas sustancias mejoran el estado de ánimo del observador: cuanto más joven es el observador, mayor es la mejora del estado de ánimo. El problema surge porque la sustancia química abandona el cerebro cuando cesa la estimulación, lo que causa depresión. Por lo tanto, muchas personas simplemente se resisten a detenerse, lo que eleva aún más el estado de ánimo y causa una depresión aún mayor cuando llega el momento inevitable de detener la actividad.

Sin embargo, estos efectos bien conocidos (aunque insuficientemente estudiados) quedan eclipsados ​​por el impacto en usuarios de chatbots como Sewell Setzer.

Una herramienta que mucha gente está usando

Parte del problema radica en que los chatbots han entrado en la vida de las personas, se den cuenta o no. Por ejemplo, los motores de búsqueda y los programas de gramática que los utilizan son cada vez más populares.

Por lo tanto, prohibir simplemente los dispositivos es poco práctico y probablemente infructuoso. ¿Cómo, entonces, se puede distinguir entre lo útil y lo peligroso? Además, si es posible una regulación efectiva, el proceso tomará meses, quizás años. Los niños no tienen tiempo para esperar esta protección.

La madre de Sewell Setzer, según informa el artículo del Times, está demandando a la empresa con la que su hijo trabajaba, pero el resultado de dicho caso es incierto. Aunque la situación moral es obvia, demostrar que la empresa causó el suicidio de su hijo supone un gran esfuerzo legal.

Una respuesta insatisfactoria, una solución imperfecta

La única acción que tiene alguna posibilidad de éxito es la prescrita en el artículo de AXIOS por Jeffery Hall, profesor de estudios de comunicación en la Universidad de Kansas.

“Su objetivo como padre -dice Hall- es dotar a sus hijos de las herramientas necesarias para manejar los medios a los que tendrán acceso”.

Como cualquier padre puede atestiguar, no será una tarea fácil.


No hay comentarios: