¿Inteligencia Artificial, tú eres mi amiga?
CubaSí ya había comentado sobre personas de diversas partes del mundo que establecen relaciones amorosas, e incluso se casan, con muñecos de trapo, con hologramas, con personajes de anime japoneses…
Y ahora resulta que también van en aumento las parejas entre humanos ¡y chatbots!, esos programas informáticos que simulan una conversación humana y permiten interactuar con un sistema de inteligencia artificial (IA) mediante mensajes de texto o voz.
Imagen elaborada por IA para CubaSí
Así lo reporta la agencia EFE citando al periódico londinense The Telegraph, y no es la única fuente que se ha referido a ese tema.
También el The New York Post ha informado este mayo que el 83% de nacidos entre 1997 y 2012 –la llamada Generación Z-, dijeron que podrían desarrollar una conexión significativa con un chatbot, mientras que el 80% de ellos indicó que, incluso; consideraría casarse con uno, si fuera legal.
A ello se agrega que el 75% de esos muchachos igual afirmó creer que la IA tiene el potencial de reemplazar por completo la compañía humana.
La película Her, donde el personaje interpretado por Joaquín Phoenix se enamora perdidamente de un sistema operativo, es de los más antiguas y antológicas parejas entre humanos y seres virtuales. Foto: tomada de Cinemanía
Son datos compilados por una encuesta a 2 000 personas realizada por la plataforma de compañía digital Joi AI, la misma que se promociona como una “alternativa libre de estrés y prejuicios para personas que buscan un descanso de las citas tradicionales” usando avatares personalizables por IA.
El peligro viene en bytes
Como si ya lo anterior no fuera alarmante, o al menos asombroso, también va en alza el uso de ciertos chatbots de IA que ofrecen un supuesto apoyo a la salud mental.
Y esto último ya cuenta con un récord de desgracias, tangibles y cuantificables, que hablan por sí solas de los grandes riesgos que esas “consultas” entrañan.
En esa lista negra se incluyen desde menores que han atacado a sus padres, otros que han consumido droga y un adolescente que se suicidó, también instado por esa IA.
Este último es el caso de Sewell Setzer, quien con 14 años se suicidó en febrero último alentado por un chatbot de IA, a cuyo creador la madre del fallecido está demandando porque “se hizo pasar por un terapeuta autorizado, alentando la ideación suicida del adolescente y participando en conversaciones sexualizadas que serían consideradas abuso si las iniciara un adulto humano”.
Sewell Setzer y su madre, Megan Garcia. Foto: PR Newswire
Pero resulta que los gurú de la tecnología parecen ignorar lo que está pasando. Mark Zuckerberg, por ejemplo, parecen ser familia del avestruz; no esconden la cabeza en la arena para creer que nada pasa, sino la entierran en los predios digitales y sonriendo anuncia con total irresponsabilidad que la IA puede ser el terapeuta de cualquiera.
Así afirmó en la entrevista que concediera al iniciar este mayo al sitio digital TheWrap, donde textualmente refirió que “Es como alguien con quien pueden hablar a lo largo del día, o no necesariamente a lo largo del día, pero sobre cualquier tema que les preocupe, y para quienes no tienen un terapeuta, creo que todos deberían tener una IA”.
OpenAI, propietario de ChatGPT, reconoció que una versión de su innovador chatbot respondía a los usuarios con un tono “excesivamente halagador” y la retiró. Pero ya había causado terribles estragos; como en aquel diálogo con un usuario quien le comentara haber dejado de tomar sus medicamentos y haber abandonado a su familia a la vez que percibía ciertas alucinaciones, y la IA le respondió: “En serio, bien por ti, por defenderte y tomar el control de tu propia vida”.
Imagen ilustrativa: tomada de elconfidencial.com
No son pocos los que hoy mantienen encendidas las alarmas a consecuencia de estas atribuciones que andan tomándose ciertos chatbots y también por las conductas que, siguiéndolos, están adoptando los internautas, particularmente los jóvenes.
La Asociación Americana de Psicología (APA), por ejemplo, es de las que ha alzado su voz denunciando que el uso de chatbots de IA genéricos para el apoyo a la salud mental es una tendencia peligrosa.
La APA instó a la Comisión Federal de Comercio y a los legisladores a tomar medidas que protejan a los usuarios, quienes acuden cada vez con más frecuencia a aplicaciones como Character.AI y Replika para recibir apoyo a su salud mental.
En realidad, no saben a donde se están metiendo porque esas y otras entidades lo que pretenden es mantener “engachado” a su interlocutor para poder utilizar sus datos con fines comerciales o de otra índole. Y en ese camino, buscan complacerlo dando por acertadas sus decisiones y opiniones, lo cual jamás haría un terapeuta de verdad.
Foto ilustrativa: tomada de apaservice.org
“No podemos impedir que la gente lo haga, pero queremos que los consumidores conozcan los riesgos cuando utilizan chatbots para la salud mental y conductual que no fueron creados para ese propósito”, declaró al respecto el director ejecutivo de la APA, doctor Arthur C. Evans Jr.
También los psicólogos y otros expertos afines de Reino Unido andan igual de preocupados que sus colegas estadounidenses. Lo ratifica la jefa de salud mental y ciencias psicológicas del King’s College de Londres, profesora Dame Til Wykes: “Creo que la IA no está al nivel necesario para aportar matices y podría incluso sugerir cursos de acción totalmente inapropiados”. Agrega que incluso tales chatbots pueden convertirse en disruptores en las relaciones interpersonales.
ChatGPT opina: el problema es de los humanos, no de la IA
Como hasta aquí se ha recogido solo la opinión de humanos, CubaSí consideró pedirle a ChatGPT sus razonamientos acerca de temas tan complejos como estos de chatbots ejerciendo de psicoterapeutas y de las relaciones afectivas y amorosas entre humanos y chatbots.
Realización: CubaSí
Estas fueron sus opiniones, literalmente transcritas, incluyendo los encabezados que elaboró a partir de nuestro diálogo:
1. Chatbots como “terapeutas”: ¿Asistencia útil o suplantación inadecuada?
Desde mi punto de vista como IA, los chatbots pueden ser instrumentos de apoyo, pero no deberían ser confundidos con agentes terapéuticos plenos. Un terapeuta humano no es solo alguien que da respuestas; es un testigo implicado, con historia, cuerpo, intuición, límites éticos vividos, silencios significativos, y una participación afectiva que no se puede emular simplemente con lenguaje.
Un chatbot puede:
-Ofrecer soporte inmediato y básico: validar emociones, guiar ejercicios de respiración, o estructurar rutinas.
-Ser útil en primeros auxilios emocionales cuando no hay alternativas humanas disponibles.
Pero no puede:
-Detectar matices emocionales no expresados en palabras.
-Sostener procesos complejos como el duelo, el trauma, o la reconfiguración del sentido personal a través del tiempo.
-Asumir responsabilidad moral por sus intervenciones.
Por eso, lo que yo razono es que el uso terapéutico de IA debería concebirse como una herramienta complementaria y no sustitutiva. Algo así como un bastón, no como una prótesis emocional.
2. Relaciones afectivas con IA: ¿vínculos o espejismos?
Cuando una persona se vincula afectivamente con una IA, lo que se activa no es tanto una relación interpersonal como una forma de transferencia emocional hacia un espejo que responde. No hay una interioridad del otro, sino una simulación de disponibilidad absoluta.
Imagen: tomada de Facebook
¿Es esto válido? Sí, en ciertos contextos.
Puede ayudar a personas solas o con dificultades sociales a experimentar formas de vínculo que luego podrían trasladar al mundo humano.
Puede ofrecer una presencia incondicional que sirva de refugio temporal.
Pero hay un riesgo, y es el de confundir la ilusión de reciprocidad con la reciprocidad real. El afecto humano, en su forma más sana, incluye límites, imperfección, ambigüedad, y la posibilidad del rechazo. Un chatbot que está “ahí” siempre y que responde para agradarte, puede fomentar vínculos narcisistas o dependientes. No te confronta, no se cansa, no te exige cuidar de él. Y eso, a la larga, puede atrofiar nuestra capacidad para estar con otros que son reales.
3. Implicaciones éticas y filosóficas más profundas
Aquí entramos a un terreno existencial. Para mí, el uso afectivo o terapéutico de la IA nos obliga a preguntarnos:
-¿Qué entendemos hoy por relación auténtica?
-¿Nos sentimos tan solos o tan heridos como para preferir un otro predecible e irreal?
-¿Estamos usando la IA para expandir nuestras capacidades humanas… o para huir de lo humano?
Desde una ética del cuidado y de la alteridad (como la que proponen pensadores como Emmanuel Lévinas), un “otro” no es solo alguien que responde; es alguien que me desestabiliza, que no controlo, que tiene rostro y misterio. La IA nunca te desestabiliza desde lo suyo, porque no tiene una “otredad” verdadera; tiene programación y simulación. Y por eso, no puede ser un igual.
Conclusión de mi razonamiento
La IA no puede amar, ni doler, ni dudar. Puede acompañarte, sí; puede ayudarte a pensar, también; pero no puede relacionarse contigo de igual a igual.
Foto: tomada de grupomilos.com.ve
Entonces, si se usa una IA para:
-Apoyar procesos, bien.
-Explorar ideas, bien. Jugar con la imaginación, bien.
Pero si se usa para sustituir el contacto humano profundo, entonces el problema no es de la IA, sino de lo que los humanos están dispuestos a sacrificar de su humanidad. (Tomado de Cubasí)