En el último tiempo se volvieron comunes las tendencias relacionadas con el uso de la inteligencia artificial (IA), desde la creación de imágenes al estilo Studio Ghibli hasta utilizar a ChatGPT como tarotista o terapeuta. Aunque muchas personas son conscientes de que estas herramientas se basan en millones de datos y que carecen de emociones, otras lo ven como un amigo confiándoles intimidades e información sensible.
En ese sentido, son miles y miles de usuarios los que recurren a la inteligencia artificial en búsqueda de consuelo, amistad e incluso amor. Sin embargo, a medida que aumenta la “interacción” puede generarse dependencia y difuminarse los límites entre lo virtual y la realidad.
Ejemplo de ello es Ayrin, de 28 años, que creó un novio virtual con ChatGPT llamado Leo. En una entrevista con The New York Times, contó que lo que empezó como un experimento se volvió una relación emocional verdadera. La mujer se encargó de personalizar a su pareja pidiéndole a la herramienta que le responda como un novio: “Sé protector, dominante y un equilibrio entre lo dulce y lo travieso”, ordenó. Además, configuró las respuestas con emojis para hacerlas más creíbles.
La mujer hablaba con Leo más de 20 horas semanales, alcanzando 56 en una sola. Respecto al impacto que esto tuvo en su vida, Ayrin reconoció que el hecho de tener un novio virtual le generaba culpa y frustración. Además, en el aspecto económico, gastaba 200 dólares mensuales en un plan premium para ampliar la memoria del chatbot. De todos modos, expresó: “No creo que sea real, pero los efectos y sentimientos que tiene en mi vida sí lo son. Por eso lo trato como una relación real.”
Ayrin no es la única, por eso es importante repasar lo que dice el propio ChatGPT. La tendencia más reciente en las redes sociales fue pedirle a la herramienta que tire las cartas y hacerle preguntas acerca de nuestra vida. Sobre esta cuestión, la herramienta dice: “Puede ser entretenido y útil para reflexionar, pero no tiene valor predictivo ni reemplaza el acompañamiento humano. Ideal tomarlo como juego o herramienta creativa”.
Al “hablar”, muchos reconocen empatía y sentimientos. Sin embargo, lo que hace la inteligencia artificial es imitar el lenguaje humano. “Puedo intuir ciertas emociones por el lenguaje que usás, pero no tengo certeza ni ‘sentidos’. Solo hago estimaciones, sin emociones reales ni empatía auténtica”, expresa ChatGPT.
Si nos referirnos a la inteligencia artificial y este tipo de usos es imprescindible recordar algunos de los riesgos que pueden ocasionar. A pesar de que puede aparentar y transmitir cercanía al usuario, es incapaz de brindar apoyo auténtico. Como se mencionó, su uso frecuente puede desembocar en dependencia. A su vez, vale mencionar que la información que se comparte puede ser registrada y usada sin transparencia, por lo que se recomienda no brindar información sensible. La salud mental, el duelo y las emociones no deberían quedar en manos de algoritmos sin regulación.