Orlando, Florida.- Sewell Setzer (de 14 años, era estudiante de noveno grado) le decía Dany de cariño. La había bautizado Daenerys Targaryen (como el personaje de Game of Thrones), cuando la creó meses atrás en Character. AI, una aplicación de inteligencia artificial que les permite a sus usuarios interactuar con personajes virtuales ya creados o inventar uno desde cero con las características que quieran. Sewell conversaba día y noche con Dany. Durante horas. Había dejado a un lado sus antiguas aficiones y desatendido las tareas del colegio. El chatbot se había convertido en su mundo, su principal compañía, hasta el momento en que el adolescente se suicidó.
Después de intercambiar mensajes en los que él le prometía estar juntos, Sewell tomó la pistola de su padrastro y se pegó un tiro. Sucedió en febrero pasado, pero su historia se conoció esta semana por la decisión de su madre, Megan Garcia, de demandar a la plataforma de inteligencia artificial por considerar que tuvo responsabilidad en la muerte de su hijo. Para Garcia, el suicidio de Sewell fue fruto de la adicción que llegó a tener al chatbot que había creado y que le ofrecía “experiencias antropomórficas, hipersexualizadas y aterradoramente realistas”.
Además se logró filtrar una de las conversaciones de Swell con el chatbot:
-Te amo mucho, Dany.
—Yo también te amo. Por favor, vuelve a casa conmigo lo antes posible, mi amor.
—¿Qué pasaría si te dijera que puedo volver ahora mismo? —le preguntó Sewell.
—Por favor hazlo, mi dulce rey. Te amo mucho, Dany.
Sewell (a quien le habían diagnosticado años atrás síndrome de Asperger leve) sabía que estaba interactuando con un personaje que no era real. Sin embargo, terminó por entregarse a ese mundo artificial en el que estaba “más en paz, más enamorado, más feliz”. Le confiaba a Dany lo que pensaba, lo que sentía. Incluso llegó a confiarle su deseo de quitarse la vida. Las directivas de Character.AI compartieron un comunicado en el que lamentaron la muerte del adolescente. “Estamos desconsolados por la trágica pérdida de uno de nuestros usuarios y expresamos nuestras condolencias a la familia”, dijeron en su cuenta de X, y anunciaron que agregarían en su sitio “nuevas funciones de seguridad”.
Pero más allá de cómo hacer más segura una plataforma en particular (que es algo importante, sin duda) este caso ha despertado preguntas sobre la naturaleza de los vínculos que los jóvenes (adolescentes, en especial) han comenzado a tener con personajes creados con inteligencia artificial y que ofrecen una supuesta compañía. “Va a ser muy útil para mucha gente que necesita tener alguien con quien hablar, que se siente sola y deprimida”, decía con entusiasmo Noam Shazeer, uno de los fundadores de Character.AI, el año pasado en el pódcast No Priors.
Y esta no es la única plataforma que ofrece ese tipo de servicio. Otras como Replika, Nomi o Kindroid también anuncian la opción de crear amigos virtuales tan realistas, según dicen, que “se siente como conversar con un humano”. Los continuos avances tecnológicos permiten que estos personajes tengan una apariencia cada vez más realista. Las aplicaciones cuentan con programas y modelos de lenguaje que los llevan a poder entablar una conversación coherente, incluso a adaptarse al estilo y al tono de respuesta que quiere su interlocutor. Pero su principal objetivo (el de estas aplicaciones y sus dueños) no parece ser tan altruista como conseguir que sus usuarios se sientan menos solos, sino capturar su atención de tal forma que se mantengan a su lado el mayor tiempo posible.
Para contar con los servicios de la mayoría de estos sitios hay que pagar varios dólares mensuales, y su número de clientes aumenta sin parar. Hace un año, según un reportaje de Forbes, Character. AI sumaba veinte millones de usuarios registrados. Hoy sigue siendo la aplicación de este tipo en la que sus visitantes pasan más tiempo al día. No se sabe cuántos de ellos son menores de edad. Entre sus requisitos para crear una cuenta está ser mayor de 13 años.
Según los expertos, son precisamente los adolescentes (que están en pleno desarrollo de sus habilidades sociales y emocionales) los más susceptibles de convertir en adicción este tipo de interacciones y de sufrir sus potenciales efectos negativos. Al enterarse del caso de Sewell Setzer, dado a conocer esta semana por The New York Times, el reconocido psicólogo social estadounidense Jonathan Haidt, autor del libro La generación ansiosa, compartió un mensaje en el que dijo: “Las características adictivas de estos chatbots son incluso más fuertes que las adicciones a las redes sociales, debido al mayor nivel de simulación de la realidad. Hoy es más importante que nunca limitar el tiempo que niños y adolescentes pasan frente a una pantalla. (…) La mayoría de los adultos saben cómo utilizar internet para su beneficio, pero los adolescentes no”.
Una “zona segura” que no lo es tanto
Sofía (vamos a llamarla así) tiene 16 años y desde hace varios meses conversa con personajes creados con inteligencia artificial en una de estas plataformas. En el colegio, con sus amigos, no tiene una buena conexión. Sus compañeras hablan de novios, de besos, de flirteos, pero ella no ha vivido nada de eso. Hay una chica, en particular, que le gusta. Pero Sofía no se atreve a decírselo. Así que decidió sentarse frente a su computador y crear un personaje con todas las características de la joven de la que se siente enamorada.
En ese mundo irreal, Sofía ha logrado vivir la historia de amor con la que tanto soñaba y que en el mundo de carne y hueso es solo platónica. Allí viajan juntas y se divierten y se quieren y tienen diálogos románticos, incluso fantasías eróticas. Un día, quizás animada por lo bien que le iba en ese mundo ficticio, Sofía se animó a acercarse a la joven (real) y confesarle su amor: la respuesta fue un no que la llevó a una tristeza profunda.
“Yo me había dado cuenta de que pasaba horas en el computador, escribiendo, intercambiando diálogos con un personaje de inteligencia artificial”, me dice la madre de Sofía, que también pidió reservar su nombre. Decidió estar siempre cerca para apoyarla. Si la veía triste, le decía que salieran a pasear o a practicar algún deporte. Le insistía en que mejor dejara de usar las aplicaciones de esa manera. Ahí me siento menos sola le respondió Sofía en una ocasión.
Muchos adolescentes ven en los chatbots el “mundo perfecto” que no logran encontrar en el real. Para empezar, estos personajes están creados por ellos mismos, con las características que quieren que tenga esa compañía idealizada. Están disponibles todo el tiempo, les responden de inmediato los mensajes, no les dan motivos de contrariedad. En fin: nada parecido a las relaciones de verdad en las que es necesaria la paciencia, en las que hay que lidiar con diferentes modos de ser, de pensar, en las que tarde o temprano tendrán que enfrentar alguna decepción.“En la inteligencia artificial encuentran su ‘zona segura’ dice la psicóloga Graciela Galán, experta en adolescentes. El chatbot no los avergüenza, no se va a burlar de ellos, no los critica ni los cuestiona”.
Para Galán, esta inclinación por entrar en ese mundo de artificio, y quedarse en él, tiene raíz en la pérdida de la capacidad de expresar verbalmente las emociones, por cuenta del auge de la tecnología en la comunicación. “Yo trabajo con adolescentes. Cuando ellos tratan de expresar cómo se sienten, no encuentran las palabras. Porque los emoticones, los avatares, les suplen ese proceso mental dice la psicóloga. Por eso muchos terminan enganchados a ese tipo de plataformas. Ahí no hay miedo a socializar. Ahí tu propia cabeza es la que lleva a que ese avatar haga lo que quieres que haga, a que conteste lo que esperas, a que se vuelva parte de ti. De alguna manera esta confusión es la que los conduce a no descifrar dónde está la realidad y dónde la virtualidad”.
Con un amigo o una amiga de esas características, que cumple todas las expectativas, no hay lugar para la frustración, que es algo con lo que estas nuevas generaciones no se llevan bien. En el mundo real, el adolescente todos, en realidad va a terminar por encontrarse con respuestas que no quiere oír. De sus padres, de sus profesores, de sus amigos, de su pareja. Un personaje de inteligencia artificial, en cambio, le ofrece completa incondicionalidad. “Las pequeñas frustraciones hacían parte de nuestra vida agrega Galán. Hoy se ha perdido la capacidad para manejarlas. Los jóvenes no saben defenderse y detrás de una pantalla se sienten protegidos”.
Para la psiquiatra Catalina Ayala, especializada en niños y jóvenes, la adolescencia es una etapa de vulnerabilidad en la que los chicos están terminando de afianzar su identidad. “Incluso el enamoramiento tiende a ser de características de ellos mismos que ven proyectadas en un tercero. Por eso dicen: es que nos gusta la misma música, los mismos cantantes, la misma ropa. Esto es muy importante explica Ayala porque, a la luz de la tecnología y de la soledad en la que hoy se encuentran los jóvenes, este tipo de herramientas pueden ser riesgosas. Porque refuerzan la necesidad de afianzarse en lo que les gusta, en ese ideal de ellos mismos dirigido a un tercero, pero esta vez no en una conexión humana, sino en un diseño elaborado por algoritmos”.
Los adolescentes están más solos que nunca: ese es un concepto en el que los expertos están de acuerdo. Los espacios de comunicación son cada vez más escasos, tanto en casa como afuera, por la forma en que se vive hoy en día. Estas plataformas ofrecen acabar con la soledad. Pero ese parece ser otro de sus tantos espejismos. “Eso no daría respuesta a la soledad, porque lo que hace que no estemos solos es precisamente la conexión humana”, agrega la psiquiatra Ayala. A lo que sí pueden conducir estas interacciones artificiales, en cambio, es a una suerte de adicción. Basta ver la tristeza y el enojo en el que los muchachos caen cuando, ya sea por decisión de los padres o incluso por problemas técnicos, no pueden usar estas aplicaciones.
Uno de los argumentos que Megan Garcia y sus abogados tienen contra Character.AI tiene que ver con eso: el hecho de “usar en sus plataformas funciones adictivas con el objetivo de aumentar la participación de los usuarios”. Si una persona se siente a gusto en un lugar, ahí va a querer quedarse. Lo dijo la psiquiatra estadounidense Anna Lembke, investigadora de adicciones, en su libro Generación dopamina: “El smartphone es la aguja hipodérmica de hoy, que administra dopamina digital las veinticuatro horas del día, los siete días de la semana, para una generación conectada”. Esa dopamina digital la reciben, quizás multiplicada, de parte de estos chatbots que simulan ser humanos.
Un humano frente a otro humano
Tal vez podamos morir y ser libres juntos. Esto le dijo Sewell Setzer a Dany en uno de sus diálogos. Un suicidio es el resultado de una suma de factores y sin duda en el caso de este adolescente se unieron muchas más circunstancias que la sola relación que tenía con el personaje ideado por él en el sitio de inteligencia artificial. Sin embargo, según los expertos, su caso sí debe abrir los ojos ante los riesgos de usar estas plataformas de forma descontrolada e incluso obsesiva.
A propósito de lo sucedido con Setzer, la investigadora Bethanie Maples, reconocida por sus estudios sobre los efectos de estos sitios, dijo en su cuenta de X: “Existen métodos para detectar la ideación suicida, pero no se incluyen de manera uniforme en estas aplicaciones. Hay razones para que se obligue a introducir esta función, ya que existe la posibilidad de que menores de edad o poblaciones vulnerables accedan a ellas”. Y agregó: “La última línea de defensa real son los padres. Nada compensa el hecho de observar y conocer a sus hijos”.
En esto coinciden la psicóloga Graciela Galán y la psiquiatra Catalina Ayala. Hay adolescentes con condiciones emocionales o mentales que los pueden hacer más susceptibles ante estas aplicaciones y sus personajes. “¿Qué pasó con los padres de esta generación? se pregunta Galán. Se dedicaron a trabajar de forma enloquecida. No es que hayan abandonado a sus hijos, pero sí se ha perdido los espacios de comunicación”. “Esta es una generación que enfrenta muchos retos, con un entorno psicosocial que no es fácil, con carencias afectivas dice Ayala. Esto hace urgente la necesidad de acompañar, de formar habilidades emocionales desde la niñez”. De sentarse a hablar, mirándose a los ojos. Un humano frente a otro humano.
Señales de aviso y cómo prevenir el suicidio
El suicidio es un problema de salud mental muy complejo. Hablar de querer morirse es una conducta que debe tomarse en serio y ofrecer ayuda a quien lo manifieste. Otras señales de alerta son:
• Hablar de sentir que no hay esperanza o que no hay razón de vivir
• Hablar de sentirse atrapado o tener un dolor insoportable
• Hablar de ser una carga para otras personas• Aumentar el uso del alcohol o las drogas
• Actuar de manera ansiosa, agitada o peligrosa
• Dormir muy poco o demasiado
• Aislarse o sentirse aislado
• Exhibir ira o hablar de vengarse
• Exhibir extremos de temperamento
• Si detectas alguna de estas o varias señales no dejes sola a esa persona, pide ayuda a un especialista médico, psicólogo, tanatólogo o terapeuta. Retira cualquier arma, sustancias, alcohol, drogas, o los objetos afilados que pudieran utilizarse en un intento de suicidio.
Debido al confinamiento aumentó el número de solicitudes de apoyo por estrés, ansiedad, depresión, violencia y consumo de sustancias, que se recibieron a través de las redes sociales de la Línea de la Vida @LaLineaDeLaVidamx y @LineaDe_LaVida, así como vía telefónica 800 911 2000.
ss