Read in English

La inteligencia artificial (IA) ha dominado los titulares de las noticias en los últimos meses, sobre todo por las revelaciones y afirmaciones sobre cómo funciona la tecnología, lo que está haciendo ahora y lo que podría hacer en el futuro.

La IA promete transformar ámbitos de la vida cotidiana como el trabajo, la atención sanitaria y la educación. Dado que la IA tiene la capacidad de cambiar la forma en que los seres humanos interactúan con el mundo y entre sí, los líderes piden límites para garantizar su uso ético y evitar catástrofes en forma de regulación.

Para comprender mejor las promesas y los peligros de la IA, Angelus habló con dos católicos que han seguido el auge de esta tecnología desde distintos lugares: Justin Welter, vicepresidente senior de Gaming en el grupo de publicación de software Bidstack, ha trabajado en marketing y publicidad en Silicon Valley durante casi dos décadas, incluso para Facebook y Google. Joseph Vukov es profesor de filosofía en la Universidad Loyola de Chicago y sus investigaciones se centran en la filosofía de la mente y la neuroética.

Elise Ureneck: Empecemos por establecer una definición común de inteligencia artificial. Yo la entiendo como un proceso informático que utiliza algoritmos para reconocer patrones en grandes conjuntos de datos y presentárselos al usuario de forma ordenada y coherente. ¿Me he perdido algo?

Justin Welter: Es estadística a gran escala. Se recibe todo tipo de información y estos grandes modelos lingüísticos dicen: "Estadísticamente creemos que lo siguiente debería ser esto"... ya sea una palabra, una ecuación o un código. Determinan cuál sería el siguiente paso lógico.

Joseph Vukov: Yo añadiría que lo que cuenta como "siguiente paso" varía de un modelo a otro. Están entrenados para hacer una tarea específica, así que el siguiente paso con éxito va a ser relativo a lo que estás intentando que haga.

Algo como ChatGPT (la herramienta generativa de Open AI) está entrenado para producir un lenguaje similar al humano, por lo que lo que cuenta como éxito es si el resultado se parece o no a lo que escribiría un humano. No está entrenada para hacer otro tipo de cosas como rastrear la verdad o crear un discurso con sentido.

 

Joseph Vukov. (OSV News/Cortesía de Joseph Vukov)

Ureneck: ¿Dónde se utiliza ya la IA?

Welter: El uso que hace Google del texto predictivo en el correo electrónico, en el que Gmail ofrece sugerencias de texto para completar frases basándose en algoritmos, es un ejemplo.

En lo que respecta al espacio publicitario, aún está por determinar dónde aterrizará la IA. Me cuesta entender concretamente la diferencia entre inteligencia artificial y aprendizaje automático. Utilizamos muchos algoritmos de aprendizaje automático en la publicidad en línea para determinar qué tipo de anuncios es pertinente mostrar a alguien. También lo utilizamos para el seguimiento, para entender y asegurarnos de que a quién nos dirigimos descargó una aplicación frente a otra persona.

Siempre que haya una oportunidad de ganar dinero, habrá más desarrollo.

Vukov: La IA también opera entre bastidores, lo que plantea importantes cuestiones éticas. En los sistemas sanitarios, puede hacer cosas como leer historiales. Resulta que ciertos algoritmos de aprendizaje automático son mejores que los radiólogos a la hora de detectar diferencias entre algunos tipos de escáneres.

Se habla de utilizar la IA para ayudar a clasificar a los pacientes y determinar qué pruebas pedir o cómo podría ser un diagnóstico. Teniendo en cuenta los sesgos que pueden influir en los algoritmos, debemos estar atentos a estos aspectos. La IA podría afectar a la forma en que se administra la atención sanitaria.

Ureneck: Se habla mucho de las promesas y los peligros de la IA. El New York Times, por ejemplo, ha escrito sobre una tecnología que podría ayudar a "leer la mente" de las personas que no pueden hablar mediante el mapeo de cómo se iluminan algunas partes de su cerebro, lo cual es obviamente prometedor. Por otro lado, casi todos los desarrolladores que han concedido entrevistas han dicho algo así como: "Si no te asusta lo que pueda hacer la IA, algo va mal". ¿Qué le entusiasma de la IA? ¿Qué le asusta?

Vukov: Creo que hay potencial para que la IA proporcione capacidades a personas que de otro modo no las tendrían. Por ejemplo, la herramienta mencionada en el artículo del Times era capaz de captar la semántica de las palabras. Es una aplicación apasionante para alguien que no puede hablar.

También hay posibles aplicaciones para las prótesis. Elon Musk ha estado promocionando uno de sus muchos proyectos llamado Neuralink, un chip informático que se introduce en el cerebro. Un algoritmo podría ayudarte a comunicarte con tu prótesis y a moverte mejor de lo que permiten las prótesis actuales.

Lo que más me preocupa es la erosión de la confianza, tan esencial para la comunidad y la vida democrática. Esto ya se ve en la educación, como la pregunta: ¿Cómo sabemos si los ensayos los ha escrito un estudiante o ChatGPT? Se está socavando la confianza en la relación profesor-alumno. Se puede ver cómo esto afectará a otras relaciones. Empezaremos a preguntarnos: "¿Estoy interactuando con una persona o con un chat bot?". "¿Cómo puedo saber si lo que está escrito es por una IA o por una persona?"

Por último, existe una gran preocupación sobre cómo se entrenan los modelos. ¿Los que están entrenando a los modelos están proporcionando -intencionadamente o no- información engañosa? Puedo suponer que una herramienta se ha entrenado con información pertinente para el tema que estoy estudiando, cuando en realidad no es así. ¿Podría ser una forma encubierta de influir en la opinión de la gente?

Imagen falsa del Papa Francisco vestido de Balenciaga generada por Midjourney AI. (Pablo Xavier/Midjourney)

Welter: Mi mayor temor gira en torno a la pregunta: "¿Qué es la verdad?". Lo que más me asusta son las imágenes, como Midjourney, una herramienta que permite crear cualquier foto. Se utilizó para crear esa famosa foto del Papa y la chaqueta de Balenciaga.

Lo que va a ser interesante es lo que es real y lo que no lo es, lo que incluye también las voces.

Nuestros iPhones tienen una nueva función de accesibilidad en la que grabas tu voz durante 15 minutos y luego Siri empieza a hablar con tu voz. Me preocupa que graben mi voz en cualquier sitio, incluido mi buzón de voz. Si mi voz puede grabarse y manipularse o recrearse, podría utilizarse para cosas como acceder a cuentas bancarias. Mi voz es mi huella digital y mi código de seguridad.

Va a haber regulación. Google, Facebook... todos van a querer regulación, porque les permitirá avanzar sin tener que hacer frente a los temores del público. Creo que habrá requisitos para las marcas de agua - cada imagen o cosa creada tendrá que tener algún tipo de marca de agua que diga: "Hecho por AI".

Y hay muchos problemas de confianza en los medios de comunicación. No te puedes imaginar cómo se amplificará eso si cualquiera puede ir a Internet, crear su propia verdad, ponerla en Twitter y afirmar: "Esto es lo que está pasando en Oriente Medio o en Ucrania ahora mismo".

Ureneck: ¿Cómo cree que afectará la IA a la educación?

Welter: Creo que va a ser interesante para carreras como ingeniería. Es probable que bajemos el listón de la ingeniería o la codificación. ¿Tendrá sentido ir a una escuela de programación durante un año cuando se puede aprender a programar de forma muy sencilla en ChatGPT o Bard [la herramienta de IA generativa de Google]?

También creo que la IA ampliará la brecha entre la educación pública y la privada. Las escuelas privadas pueden permitirse tener una ratio máxima de 1 a 30 alumnos por profesor. Pueden hacer exámenes orales. Pero en algunas escuelas públicas la proporción es de 1 a 50, 1 a 60 alumnos por profesor. A medida que la IA prolifere en los ensayos y los exámenes estandarizados, habrá oportunidades para que los estudiantes aprovechen eso para hacerlo mejor.

Vukov: Estoy de acuerdo con Justin. He empezado a asegurarme de que los estudiantes entienden qué es exactamente un gran modelo lingüístico y cómo funciona el aprendizaje automático, y a la luz de eso, ayudarles a entender cuáles son sus limitaciones. ChatGPT puede hacer un trabajo realmente bueno construyendo boilerplate, B-ensayos. No puede hacer un buen trabajo incluyendo citas sólidas, o aportando la experiencia personal de alguien en el ensayo. Creo que una vez que los estudiantes entienden esto, se dan cuenta de que la IA no puede hacer lo mismo que harían en una redacción que realmente quisieran escribir.

Es un momento de cambio radical en la educación. Me obliga a reflexionar más sobre lo que estamos enseñando a los alumnos, igual que Internet nos hizo reflexionar sobre el valor de memorizar montones de información. Podemos preguntarnos si los alumnos necesitan sintetizar la información en redacciones de cuatro o cinco páginas.

La inteligencia artificial no es especialmente buena para evaluar el significado o la ética o los marcos religiosos para ver el mundo o para aportar experiencias personales a las grandes ideas. Me pregunto cómo podemos preparar a los estudiantes para que aporten a su educación y a su trabajo lo que tienen de humano.

Ureneck: El Cirujano General publicó recientemente un informe que detalla la "epidemia de soledad" en nuestra nación. Más del 75% de los adultos declaran sentirse solos. Ya sabemos que la salud mental de los adolescentes es pésima. Algunos han propuesto que los robots de inteligencia artificial podrían ofrecer algún alivio. ¿Cómo cree que la IA afectará a nuestras relaciones humanas y a nuestro bienestar?

Vukov: Yo empezaría con el test de Turing, llamado así por Alan Turing, considerado el padre de la informática. Básicamente, la prueba de Turing dice que si no puedes decir si la cosa con la que estás interactuando es un ordenador o un humano, esa cosa es consciente o sensible. Este concepto ha dado lugar al funcionalismo, una de las principales formas de entender quiénes somos hoy como seres psicológicos.

Los funcionalistas creen que lo que somos los humanos son las funciones que podemos realizar. Así que si puedes construir un programa que pueda reproducir y replicar la función, eso es todo lo que necesitas para ser un ser humano. Por eso tendemos a antropomorfizar la IA. Las llamamos Siri y Alexa. Es la consecuencia del test de Turing. Hemos reducido lo que es un ser humano a nuestra función psicológica.

Vi las audiencias del Congreso con Sam Altman (CEO de Open AI) sobre regulación, y una cosa a la que volvían una y otra vez es que necesitamos saber si aquello con lo que estamos interactuando es una IA. Lo que preocupa es que ya no podamos distinguirlo. Y esa preocupación se basa en la suposición más profunda de que la IA no es una persona.

Por supuesto, la tradición católica tiene mucho que decir al respecto.

Los humanos tienen alma; los humanos están encarnados; los humanos están hechos a imagen y semejanza de Dios. Somos más que nuestras funciones. Y por eso pensamos: "Aunque pueda actuar como un ser humano y pintar como un ser humano y hablar como un ser humano, no es de verdad".

Welter: ¿Sustituirá la IA a las relaciones humanas o resolverá la soledad? Yo no lo veo así. Creo que es importante subrayar la palabra "artificial" en inteligencia artificial. Una de las cosas que los cristianos entendemos es el autosacrificio, morir a nosotros mismos dentro del amor y todo lo que eso conlleva. No creo que eso suceda con un algoritmo. Para tener realmente una interacción con alguien o para amar a alguien hace falta que al menos una de esas personas sepa lo que significa sacrificarse.

Justin Welter. (Foto enviada)

Vukov: ¿Chatear con un chatbot por la noche podría ayudar a resolver algunos problemas de soledad? No me sorprendería que saliera algún estudio que demostrara que un chatbot es particularmente bueno en este tipo de intervención terapéutica. Pero, en última instancia, es una tirita en problemas sociales más profundos, no una solución real. Los seres humanos anhelan las relaciones y las interacciones con otros seres humanos. Y una solución superficial es algo que, en última instancia, provoca heridas más profundas.

Ureneck: Algunos creen que la mayor amenaza de la IA es la extinción humana, basándose en la premisa de que una IA podría algún día construir su propio cuerpo. Eliezer Yudkosky, considerado el padre de este campo, ha escrito: "Apágalo todo. No estamos preparados. No estamos en vías de estarlo en un futuro previsible. Si seguimos adelante con esto morirá todo el mundo, incluidos niños que no eligieron esto ni hicieron nada malo". ¿Cuál es su respuesta?

Welter: Creo que es más probable que sea la humanidad la que se destruya a sí misma que un robot de inteligencia artificial el que acabe con el mundo. Hay oportunidades para actividades nefastas. Pero dar el salto de que esto es lo que va a ser nuestra desaparición definitiva es un poco exagerado. Ese tipo de predicción hace un montón de suposiciones, incluyendo que se convierta en sensible. No creo que eso ocurra. El pecado original es probablemente más poderoso que la IA, y ahí es donde estará la batalla en última instancia.

Vukov: Estoy en la misma página que Justin. Los seres humanos estamos caídos, y nuestra caída es parte integrante de las cosas que creamos, incluida la IA. Soy un gran aficionado a la ciencia ficción, pero creo que si la IA provoca grandes cambios en la escala social, será la versión de T.S. Elliot de cómo se acaba el mundo: no con una explosión, sino con un gemido.

Mi gran preocupación no es el robot gigante pisoteando ciudades y convirtiéndonos en sus esclavos, sino más bien cosas como la propagación de la desconfianza y la desinformación, la erosión de la democracia, el fracaso a la hora de entender lo que es un ser humano de la manera que enseña la Iglesia.

Creo que existe el potencial de grandes consecuencias sociales negativas. Y en ese sentido es quizá más nefasto porque la solución no es construir un gran ejército que pueda derrotar a Terminator. Es la regulación y la articulación cuidadosa de cuáles son nuestros valores.

Los católicos y las personas de buena voluntad tienen la oportunidad de intervenir y aportar su granito de arena sobre lo que hace que un ser humano sea un ser humano, sobre por qué es importante construir verdaderas comunidades de seres humanos, por qué es importante confiar los unos en los otros, cómo es una democracia buena, sana y que funcione. Es una oportunidad para reflexionar sobre las grandes cuestiones.