En el รบltimo tiempo se volvieron comunes las tendencias relacionadas con el uso de la inteligencia artificial (IA), desde la creaciรณn de imรกgenes al estilo Studio Ghibli hasta utilizar a ChatGPT como tarotista o terapeuta. Aunque muchas personas son conscientes de que estas herramientas se basan en millones de datos y que carecen de emociones, otras lo ven como un amigo confiรกndoles intimidades e informaciรณn sensible.
En ese sentido, son miles y miles de usuarios los que recurren a la inteligencia artificial en bรบsqueda de consuelo, amistad e incluso amor. Sin embargo, a medida que aumenta la โinteracciรณnโ puede generarse dependencia y difuminarse los lรญmites entre lo virtual y la realidad.
Ejemplo de ello es Ayrin, de 28 aรฑos, que creรณ un novio virtual con ChatGPT llamado Leo. En una entrevista con The New York Times, contรณ que lo que empezรณ como un experimento se volviรณ una relaciรณn emocional verdadera. La mujer se encargรณ de personalizar a su pareja pidiรฉndole a la herramienta que le responda como un novio: โSรฉ protector, dominante y un equilibrio entre lo dulce y lo traviesoโ, ordenรณ. Ademรกs, configurรณ las respuestas con emojis para hacerlas mรกs creรญbles.
La mujer hablaba con Leo mรกs de 20 horas semanales, alcanzando 56 en una sola. Respecto al impacto que esto tuvo en su vida, Ayrin reconociรณ que el hecho de tener un novio virtual le generaba culpa y frustraciรณn. Ademรกs, en el aspecto econรณmico, gastaba 200 dรณlares mensuales en un plan premium para ampliar la memoria del chatbot. De todos modos, expresรณ: โNo creo que sea real, pero los efectos y sentimientos que tiene en mi vida sรญ lo son. Por eso lo trato como una relaciรณn real.โ
Ayrin no es la รบnica, por eso es importante repasar lo que dice el propio ChatGPT. La tendencia mรกs reciente en las redes sociales fue pedirle a la herramienta que tire las cartas y hacerle preguntas acerca de nuestra vida. Sobre esta cuestiรณn, la herramienta dice: โPuede ser entretenido y รบtil para reflexionar, pero no tiene valor predictivo ni reemplaza el acompaรฑamiento humano. Ideal tomarlo como juego o herramienta creativaโ.
Al โhablarโ, muchos reconocen empatรญa y sentimientos. Sin embargo, lo que hace la inteligencia artificial es imitar el lenguaje humano. โPuedo intuir ciertas emociones por el lenguaje que usรกs, pero no tengo certeza ni โsentidosโ. Solo hago estimaciones, sin emociones reales ni empatรญa autรฉnticaโ, expresa ChatGPT.
Si nos referirnos a la inteligencia artificial y este tipo de usos es imprescindible recordar algunos de los riesgos que pueden ocasionar. A pesar de que puede aparentar y transmitir cercanรญa al usuario, es incapaz de brindar apoyo autรฉntico. Como se mencionรณ, su uso frecuente puede desembocar en dependencia. A su vez, vale mencionar que la informaciรณn que se comparte puede ser registrada y usada sin transparencia, por lo que se recomienda no brindar informaciรณn sensible. La salud mental, el duelo y las emociones no deberรญan quedar en manos de algoritmos sin regulaciรณn.