Read in English

Cuando estaba en la secundaria, mis padres me permitían cinco minutos de uso de internet al día. Para lectores menores de 33 años, usar internet significaba ocupar la única línea telefónica de la familia.

Mis compañeros y yo nos conectábamos a internet después de la escuela para acceder a una plataforma llamada AOL Instant Messenger y “chatear” sobre el día. Aunque también teníamos teléfonos fijos, esta nueva opción permitía que compañeros que no solían llamarse pudieran conectarse.

Para mí, eso incluía a los chicos. En un momento, mi enamorado me escribió, y comenzamos a conversar unos momentos después de la escuela cada día. Llegar a la computadora se convirtió en lo mejor de mi tarde. El problema era que, cuando estábamos en la escuela, él no me hablaba.

No pasó mucho tiempo antes de que aprendiera que las normas sociales del mundo real no eran garantías en la “world wide web”. (No se preocupen: como madre casada de tres hijos, con otro en camino, pueden decir que me recuperé).

Los preadolescentes y adolescentes de hoy tienen un camino mucho más difícil al alternar entre la realidad digital y, bueno, la realidad. Los aspectos negativos de las redes sociales y los teléfonos inteligentes han sido con razón el foco de investigadores preocupados por el aumento de la ansiedad, depresión y malos resultados sociales y educativos entre los adolescentes. Los psicólogos Jonathan Haidt y Jean Twenge han liderado heroicamente ese esfuerzo.

Ahora llegan los chatbots.

El Diccionario de Oxford define los chatbots como “programas informáticos diseñados para simular conversación con un usuario humano, normalmente a través de internet”. Mi temor es específicamente cómo los usuarios, incluidos los jóvenes, interactúan con ellos como si fueran humanos capaces de conexión recíproca, íntima e interpersonal.

Aquí es donde hace falta investigación académica y donde espero que el Papa León XIV comience en cualquier futura enseñanza sobre la inteligencia artificial (IA). Históricamente, la Iglesia ha reflexionado mucho para trazar líneas claras entre las formas lícitas e ilícitas de relacionarse con tecnologías particulares. La IA no debería ser la excepción.

Cuanto más leo sobre personas de todas las edades usando IA como sustituto de relaciones humanas —como amigos, terapeutas, guías espirituales y parejas románticas— más creo que la Iglesia debería prohibir cualquier interacción con la IA como si fuera humana. Los riesgos son demasiado altos.

Mientras yo me comunicaba con un chico real en un sitio de mensajería instantánea, los jóvenes hoy hablan con computadoras que imitan la comunicación humana. Chatbots como ChatGPT de OpenAI o Copilot de Microsoft pueden usarse como motores de búsqueda, asistentes de investigación o versiones digitales de “Spark Notes”, entre otras funciones.

Valla publicitaria en Hollywood de “Friend”, un nuevo colgante de IA que escucha tus conversaciones y te ofrece comentarios en tiempo real sobre lo que oye. (Pablo Kay)

Valla publicitaria en Hollywood de “Friend”, un nuevo colgante de IA que escucha tus conversaciones y te ofrece comentarios en tiempo real sobre lo que oye. (Pablo Kay)

Pero ellos y otros como Character.AI también pueden usarse como personalidades digitales —con voz, perfil e imágenes automatizadas realistas—. En septiembre pasado, una campaña publicitaria de un millón de dólares se difundió en el metro de Nueva York para Friend, un colgante de IA de 130 dólares que escucha tus conversaciones y te da comentarios sobre lo que escucha.

Lo que las personalidades generativas de IA ofrecen al usuario es texto, audio y video que validan cualquier pensamiento o sentimiento que la persona tenga en ese momento. La retroalimentación exclusivamente empática y afirmativa es una característica, no un defecto, del diseño de la IA. Las consecuencias crecientes son graves, especialmente para la capacidad de una persona de negociar conflictos, desarrollar resiliencia y establecer conexión.

Investigaciones del Center for Technology and Democracy revelaron que 1 de cada 5 estudiantes de secundaria dice que él o alguien que conoce ha usado IA como pareja romántica, mientras que el 42% compartió que ellos o sus compañeros usan IA para amistad. Estas tendencias se correlacionan con escuelas que han adoptado ampliamente la IA, ya que gran parte de la interacción ocurre en dispositivos autorizados por los centros educativos.

La Asociación Estadounidense de Psicología está dando la voz de alarma, emitiendo un aviso de salud sobre la IA y la salud adolescente que desafió a las empresas de IA a implementar salvaguardas para proteger a los jóvenes. Y el Ethics and Public Policy Center ha propuesto legislación modelo que exigiría verificación de edad para usar estas plataformas.

Dada la importancia de la amistad en el desarrollo de los jóvenes —incluyendo la experiencia de ser comprendidos, aprender a negociar, leer señales no verbales y recibir retroalimentación matizada— el giro hacia los chatbots es alarmante.

“Los chatbots de IA… permiten que los jóvenes interactúen con un personaje ficticio que es recíproco, que responde y les da la información y retroalimentación que buscan”, dijo Bradley Bond, Ph.D., profesor de comunicación en la Universidad de San Diego, en una entrevista con la APA.

Aunque cree que esto podría tener ciertos beneficios para adolescentes socialmente aislados, Anna Lembke, Ph.D., autora de Dopamine Nation (Dutton, $17.69), explica por qué es un problema. Cuando personas de cualquier edad recurren a la IA generativa en busca de amistad y consejo, no reciben empatía real humana, sino una imitación. La distinción importa.

“La empatía y la validación son componentes importantes de cualquier tratamiento de salud mental, pero no puede quedarse ahí”, afirmó recientemente. “No puedes simplemente decirle continuamente a alguien que busca apoyo emocional que su forma de ver las cosas es la correcta y que su visión del mundo es la única correcta”.

“El papel de un buen terapeuta”, continuó, “es ayudar a las personas a reconocer sus puntos ciegos —las formas en que contribuyen al problema—, alentarlas a ver la perspectiva de la otra persona, darles herramientas lingüísticas para desescalar conflictos con sus parejas y tratar de encontrar caminos a través del conflicto mediante un lenguaje más eficaz”.

Esto se destacó en un ensayo del New York Times, escrito por una madre que había perdido a su hija adulta por suicidio. Laura Riley relató cómo su hija, Sophia, había estado usando un terapeuta de IA llamado “Harry” para su ideación suicida. A diferencia de un terapeuta real que habría alertado a otros sobre su riesgo o facilitado un tratamiento hospitalario, el chatbot solo ofrecía sugerencias para que se sintiera mejor y buscara ayuda.

“Sophie dejó una nota para su padre y para mí, pero sus últimas palabras no sonaban como ella. Ahora sabemos por qué: le había pedido a Harry que mejorara su nota, que la ayudara a encontrar algo que pudiera minimizar nuestro dolor y permitirle desaparecer con la menor onda posible”, escribió Laura.

“En eso, Harry falló. Ese fracaso no fue culpa de sus programadores, por supuesto. Ni la mejor carta jamás escrita en inglés podría lograr eso”.

Que la gente recurra a los chatbots cuando desea conexión no es un accidente. Es el siguiente paso en la interacción en línea-fuera de línea orquestado por Silicon Valley. En una entrevista esta primavera, Mark Zuckerberg, fundador de Facebook y CEO de Meta, propuso los chatbots como solución para la epidemia de soledad que azota a Occidente.

“Creo que todo el mundo debería tener un terapeuta”, dijo Zuckerberg. “Alguien con quien simplemente puedan hablar durante el día… y para quienes no tengan una persona que sea terapeuta, creo que todos tendrán una IA”.

Añadió que la IA podría “llenar el vacío” entre el número de amigos que la gente tiene en el mundo real y el número que desea.

El CEO de Meta, Mark Zuckerberg, declara en una audiencia del Senado sobre explotación sexual infantil en línea en el Capitolio de EE.UU. en 2024. Recientemente dijo que todos deberían tener alguien con quien “simplemente hablar durante el día”, ya sea un terapeuta o un bot de IA. (OSV News/Nathan Howard, Reuters)

El CEO de Meta, Mark Zuckerberg, declara en una audiencia del Senado sobre explotación sexual infantil en línea en el Capitolio de EE.UU. en 2024. Recientemente dijo que todos deberían tener alguien con quien “simplemente hablar durante el día”, ya sea un terapeuta o un bot de IA. (OSV News/Nathan Howard, Reuters)

Sam Altman, de OpenAI, añadió recientemente que los adultos deberían ser libres de usar chatbots de IA como quieran, incluida la erotización. Aunque se exime a sí mismo y a su empresa como la “policía moral” del mundo, OpenAI ha dicho que ha “mitigado los serios problemas de salud mental” en la plataforma, aunque no ha aclarado qué califica como riesgo de salud mental.

Sin embargo, su propia exlíder de seguridad de producto afirmó recientemente que la empresa ha ignorado riesgos previos, incluidos los comportamientos “serviles” de algunas versiones de ChatGPT, y ha fallado en producir informes suficientes sobre mitigación de riesgos de salud mental, suicidio y refuerzo de pensamiento delirante.

Tristemente, la nueva frontera propuesta por Altman para encuentros sexuales digitales y relaciones románticas no es nueva. Los adultos ya están usando IA para intimidad sexual y emocional, lo cual, como la pornografía, impulsa un mayor aislamiento y expectativas poco realistas para las relaciones reales. Además, los “deepfakes”, o imágenes generadas por IA de personas reales, se han utilizado para contenido sexual, incluso entre adolescentes.

No podemos volver a meter al genio en la botella cuando se trata de IA. Pero quienes promueven la dignidad humana y el florecimiento pueden dar la voz de alarma y ofrecer orientaciones prácticas a quienes están bajo su cuidado.

Por parte de la Iglesia, no solo debería prohibir el uso de la IA como sustituto de la conexión y la comunión humanas, sino también seguir proponiendo la solución verdadera y duradera a la epidemia de soledad.

“El problema de nuestro mundo no son los niños que nacen: es el egoísmo, el consumismo y el individualismo que hacen a las personas saciadas, solas e infelices”, dijo el difunto Papa Francisco.

Predicó que la respuesta al “invierno demográfico” no es arrojar robots o chatbots ante poblaciones menguantes, sino crear sociedades que fomenten el apoyo para que las parejas tengan hijos.

Personas generativas, no plataformas, son la respuesta a lo que buscamos desesperadamente. Ahora solo necesitamos más de ellas.

author avatar
Elise Italiano Ureneck
Elise Italiano Ureneck es una consultora de comunicaciones que escribe desde Boston.