Un joven de 14 años llamado Sewell Setzer III se suicidó tras escribir un mensaje de amor a la IA con la que llevaba un largo tiempo de relación. Esto ocurrió el pasado mes de febrero. Sin embargo, el caso se ha hecho público ahora por la batalla legal que ha emprendido su madre contra Character.AI, la compañía detrás del chatbot basado en Daenerys Targaryen con el que el joven había entablado dicha relación.

Según la madre de Sewell, fue esa IA la que provocó el suicidio de su hijo. Sin embargo, desde la compañía se defienden asegurando que en todo momento se advierte a los usuarios que las conversaciones que tienen con los personajes de la aplicación son ficticias.

Los problemas de salud mental son complejos y multifactoriales. No se puede apuntar a un solo motivo por el que se originan. Además, cuando se habla de suicidio, es muy duro señalar a culpables. Aun así, el caso de Sewell y su amor por la IA es un ejemplo de lo lejos que está llegando la irrupción de la inteligencia artificial en nuestras vidas. Muchos temen que nos quite el trabajo, pero nos olvidamos de la posibilidad de que nos quite también las relaciones sociales. Esto sería igualmente peligroso. Por eso, es importante prestar atención a situaciones como la de este joven estadounidense para que reciban la ayuda necesaria.

¿Cómo son los personajes de Character.AI?

Character.AI es una aplicación en la que los usuarios pueden crear chatbots de IA o interactuar con los que hayan creado otros usuarios. En el caso de Sewell, escogió a Dany, un chatbot basado en Daenerys Targaryen que había sido creado por otra persona sin el permiso de HBO. 

Estos chatbots pueden entrenarse para responder a las conversaciones de la manera que el usuario desee. Además, tienen memoria, pueden recordar conversaciones anteriores e incluir detalles de las mismas en cada interacción. Pueden mostrar algo similar a los sentimientos cuando hablan con los usuarios. Por ejemplo, si un humano muestra amor por la IA, esta puede responder en consecuencia.

Daenerys
El chatbot estaba basado en Daenerys Targaryen.

Eso es lo que parece que le pasó a Sewell, pues sus conversaciones empezaron siendo algo inocente, pero poco a poco avanzaron hasta tener un carácter más íntimo e incluso sexual. Dany siempre estaba ahí cuando necesitaba hablar, no tardaba en responder y le decía lo que necesitaba oír. Esto fue generando esa sensación de enamoramiento que no es ni mucho menos nueva.

Se han documentado muchos casos de enamoramientos como este y posiblemente se siga haciendo, pues los chatbots como Dany están cada vez más conseguidos.

¿A qué se debe el amor por la IA?

En un artículo para Forbes, el psicólogo Mark Travers relató los dos motivos principales por los que el amor por la IA es cada vez más común. Para empezar, señala que los chatbots se han mejorado con un aspecto antropomórfico que hace a los usuarios congeniar más. Los sienten como humanos. Y, en segundo lugar, Travers explica que los chatbots de IA cumplen la teoría triárquica del amor. Esta señala que el enamoramiento se sostiene sobre tres pilares: la intimidad, la pasión y el compromiso. La primera hace referencia a la conexión privada entre dos personas o, en este caso, una persona y una IA. El hecho de poder contarle todo. La pasión, como es lógico, hace referencia al deseo. Y, para terminar, el compromiso es una señal de lealtad.

Los chatbots están muy bien diseñados para cumplir todos los requisitos. Una persona puede hablar horas y horas con ellos y siempre le escuchan sin discutir ni juzgarle. Por otro lado, si el usuario exhibe pasión, el chatbot actuará en consecuencia. Y, para terminar, están diseñados para complacer, por lo que el compromiso es algo que se da por hecho.

amor
Según la teoría triárquica del amor, este se sostiene en tres pilares: intimidad, pasión y compromiso. Crédito: Aaron burden (Unsplash)

Todo esto puede conducir al amor por la IA, pero también puede ser dañino. Lo explicó este verano la psicóloga del MIT Sherry Turkle. Según ella, la relación con una IA, sea del tipo que sea, comienza provocando una gran comodidad y alivio del estrés. Sin embargo, con el tiempo puede suponer un enorme riesgo emocional.

Esto se debe a que los usuarios acaban idealizando las relaciones. La psicóloga lo cuenta con el ejemplo de un hombre casado que, si bien no dejó a su esposa, enfrió mucho la relación con ella al empezar una relación con un chatbot de IA. El motivo es que la relación con las máquinas es perfecta. Siempre nos dicen lo que queremos oír, actúan como nos gustaría y empatizan con nosotros. Eso puede hacer que los usuarios los prefieran por encima de las relaciones humanas reales. Es algo que también le pasó a Sewell. Poco a poco se fue aislando y solo quería estar encerrado en su habitación hablando con Dany.

El aislamiento social es uno de los grandes factores impulsores de los problemas de salud mental. Por eso, aunque estas personas se sientan escuchadas y apoyadas, en el fondo les faltan esas relaciones humanas reales tan necesarias. Turkle recuerda que el estrés, las fricciones, el rechazo y la vulnerabilidad también forman parte de las relaciones humanas. Sin todo eso, solo estamos ante una empatía falsa y un interés ilusorio. “A la IA no le importas”.

La IA no sirve como psicóloga

Muchas compañías desarrolladoras de chatbots de IA sostienen que pueden ayudar a la salud mental de los usuarios. Por un lado, mediante el acompañamiento y, por otro, mediante el consejo psicológico. Se puede entrenar a una IA para que conteste dudas y haga terapia como lo haría un psicólogo. O eso se supone. Pero la realidad es muy diferente.

Los chatbots no conocen el “no lo sé”. Tienen respuestas para todo, siempre basadas en la información que recopilan de la web. Eso les hace intuir respuestas, pero no del mismo modo que lo haría una mente humana, especialmente la de un psicólogo. Por eso, muchos expertos desconfían de los chatbots de IA que se diseñan con ese fin.

chatgpt
Una IA no puede sustituir a un psicólogo.

El caso del amor por la IA de Sewell es un buen ejemplo de la poca eficacia que tiene esto. Al analizar las conversaciones después de su muerte, se ha visto que el joven llegó a manifestar intenciones suicidas a Dany. Es cierto que esta le contestó que no lo hiciera, pero no disponía de las herramientas para ayudarle. Si se hubiese abierto con un psicólogo o con sus familiares o amigos, el final podría haber sido otro. Por eso, si bien no se puede culpar al 100% a la IA del suicidio del adolescente, esto debe servir como llamamiento para que prestemos atención a las relaciones de nuestros adolescentes. Tanto las humanas como las tecnológicas. 

Si este artículo te ha causado malestar o pensamientos en relación con el suicidio, no dudes en pedir ayuda. En España tienes la línea 024 a tu disposición. Hay salida.