Categories: Católicos LA

Este sacerdote cree que el Vaticano puede ayudar a Silicon Valley con la IA

Read in English

Aunque la vida sacerdotal del padre Philip Larrey le ha llevado tan lejos como Madrid, Roma y ahora Boston, en realidad nació en Mountain View (California), entonces una tranquila localidad al sur de San Francisco donde su padre impartía clases en un instituto católico cercano.

Unas décadas más tarde, la ciudad sería conocida como la cuna de Google.

«No había ningún indicio de que Silicon Valley fuera a surgir en esa zona», afirma Larrey.

Hoy, Larrey es uno de los mayores expertos de la Iglesia católica en inteligencia artificial (IA) y una especie de capellán católico no oficial para algunas de las personas más influyentes de Silicon Valley.

«Es una especie de paradoja», admite Larrey, cuya familia se trasladó a Seattle pocos años después de que él naciera.

Pocas personas están haciendo más entre bastidores para dar forma al enfoque de la Iglesia católica sobre lo más candente en Silicon Valley en estos momentos: la inteligencia artificial. Durante más de 20 años, Larrey ha colaborado con innovadores, directores ejecutivos, obispos, cardenales y filósofos para aportar una perspectiva católica a lo que el Papa Francisco ha descrito como «una herramienta emocionante y temible» con el potencial de cambiar radicalmente nuestra vida cotidiana.

Larrey no es tan crítico con los avances tecnológicos como muchos otros católicos. Cree que puede beneficiar a la humanidad y confía en los innovadores con los que se ha relacionado a lo largo de los años. Pero eso no significa que no le preocupen.

En una entrevista exclusiva con Angelus, Larrey habló de lo que esas relaciones significan para él, y compartió su opinión sobre las ideas procedentes de grandes nombres como Elon Musk, Chuck Schumer y Sam Altman.

Usted habla con varios ejecutivos e ingenieros tecnológicos como parte de su trabajo. ¿Qué les dice en sus conversaciones sobre la IA?

Ante todo, es importante recordar que se trata de personas reales que ocupan diversos puestos en el sector tecnológico y que, como personas, tienen sus propias aspiraciones, sueños y objetivos. Creo que conectamos a nivel personal. Existe un sólido respeto mutuo con todos ellos y la clave de estas relaciones es la confianza.

Cuando empezamos a hablar de IA u otras tecnologías, intento ser muy cuidadoso porque no quiero alienar a la gente. Algunos me critican por ello, diciendo que soy demasiado blando con gente como Eric Schmidt, Sam Altman o Demis Hassabis. Entiendo esas críticas, pero es importante no demonizar a esas personas y tacharlas de querer dominar el mundo y de no preocuparse por los seres humanos.

Se puede tratar con ellos o alienarlos. Siempre me he inspirado en el Papa Francisco. Cuando llevo a algunos de ellos a Roma para que se reúnan con él, no mueve el dedo. Más bien dice: «hablemos». Creo que es el enfoque correcto».

Larrey presenta al ingeniero de software y ex CEO de Google Eric Schmidt al Papa Francisco en el Vaticano en 2016. (L'Osservatore Romano/Foto enviada)

¿Qué tipo de reuniones ha organizado entre la gente de la IA y el Vaticano?

El año pasado organizamos varias conferencias sobre AI en el Vaticano, incluida una que se celebrará a finales de octubre de este año. Invitamos a gente importante, a muchos de los cuales sé que les encanta venir al Vaticano. Pero si se les dice que antes de venir tienen que vender sus empresas o destruir sus proyectos por ser quienes son, no van a venir.

Creo que es mejor que vengan y hablen. Mucha gente en Silicon Valley se está dando cuenta de que están creando el futuro, y yo preferiría que crearan el futuro con la aportación de la Iglesia católica y la riqueza de la tradición de la Iglesia, en lugar de sin nosotros.

Una de las personas que vendrán a la conferencia es el obispo Oscar Cantú, de San José, la diócesis donde se encuentra Silicon Valley. Él trata mucho con esta gente, ya que en su diócesis están las sedes de muchas empresas tecnológicas. De vez en cuando organiza seminarios con ellos, y un par de sus sacerdotes son cercanos a algunos de los CEO de allí.

Les digo que intenten que la IA y la tecnología se centren en la persona humana. Sé que suena genérico, pero cuando tomen una decisión, pregúntense: ¿Promueve esto el florecimiento humano o lo impide?

Una líder importante en este sentido es Fei-Fei Li, de la Universidad de Stanford, que pronunció el discurso de graduación en el Boston College el pasado mes de mayo. Ella comenzó el Instituto de Inteligencia Artificial Centrada en el Ser Humano en 2019. Y lo hace desde un punto de vista totalmente no religioso.

¿Cuál es el mayor error o temor infundado sobre la IA que escucha con más frecuencia?

Hay muchos, pero creo que el concepto erróneo más popular es que las IA se van a apoderar del mundo.

Muchas personas no acaban de entender la tecnología, pero ven cosas en las redes sociales, probablemente interactúan con ChatGPT y otras plataformas, y piensan que es el fin de la raza humana. Cuando doy charlas, intento dar esperanza a la gente de que no vamos a acabar aplastados por Terminators. No debemos tener miedo, pero debemos ser prudentes y guiar el desarrollo de estas tecnologías.

Al mismo tiempo, gente del sector nos ha advertido de que debemos tener cuidado. Un buen amigo que es biólogo evolutivo y enseña en Omaha, dijo recientemente algo muy perspicaz: La razón por la que ahora estamos en la cima de la cadena alimentaria es porque somos los seres más inteligentes del planeta. Si creamos un ser más inteligente que nosotros, entonces seremos los segundos y ya no los primeros. Tiene razón.

David Chalmers, filósofo, llama a esto el problema de la alineación. Elon Musk dice en su estilo clásico que tenemos que asegurarnos de que las IAs nos consideren una parte interesante del universo. Creo que es una buena frase, porque cuanto más autónomas y «grandes» se vuelvan, más nos van a considerar inferiores.

No creo que las IAs tengan voluntad como nosotros, ni que tengan el deseo de destruir a la raza humana, a menos, claro, que las programemos para ello. Muchas veces lo que hay detrás de la IA es lo que el programador le dice que haga. Pero muchas de las IA que tenemos hoy en día son independientes de los programadores y acaban haciendo sus propias cosas. Eso es exactamente lo que hace ChatGPT.

Pero esta afirmación conlleva muchas reservas, ¿no?

Bueno, déjame darte un ejemplo. Demis Hassabis es el cofundador de DeepMind, que fue comprada por Google en 2014. Desarrolló la herramienta de IA de Google, Gemini. Le pregunté: Demis, ¿no estás preocupado? ¿Sabes que esto podría salirse de madre, descarrilarse?

Dijo que no, que hay tantas salvaguardas, tantos raíles que ha creado, que es imposible que la IA sea mal utilizada o manipulada. Aunque Demis sabe que nada es imposible, dice que es imposible que esto salga mal o caiga en manos ajenas.

Sam Altman me dijo lo mismo, que ChatGPT está completamente vallado. La gente intenta piratearlo todo el tiempo, como intentan hacer con Microsoft y otros. Así que son conscientes del riesgo, pero han tomado precauciones para que no caiga en las manos equivocadas, no se vuelva loco y empiece a disparar bombas nucleares en alguna parte.

Dicho esto, puedo hablar por algunas de las plataformas de Estados Unidos, pero no por las de fuera de Estados Unidos, de las que sabemos muy poco.

En un discurso ante las Naciones Unidas, el Secretario de Estado del Vaticano, el cardenal Pietro Parolin, dijo recientemente que hay una «necesidad urgente» de un marco regulador global para la ética de la IA. ¿Es realista? ¿Estamos cerca de contar con un organismo internacional de este tipo?

No creo que lo consigamos nunca, aunque lo necesitamos. Creo que las observaciones del cardenal Parolin eran una forma de insinuar a la ONU que podría convertirse en ese marco.

Hasta ahora, la Ley de IA de la Unión Europea es probablemente lo mejor en términos de regulación de la IA. Entró en vigor recientemente tras ser aprobada el año pasado. Algunos critican el documento, otros piensan que es una buena idea. Europa se regulará a través de la Ley de IA, a menos que un número suficiente de personas la impugnen diciendo: «realmente no podemos atenernos a esto».

La Ley de IA dice que una inteligencia artificial debe ser transparente. En otras palabras, la persona que interactúa con la IA debe saber exactamente cómo funciona la IA. Sam Altman afirma que exigir esto retrasaría la innovación varios años, porque requiere mucho tiempo, dinero y expertos. Supondría un enorme paso atrás para empresas como OpenAI.

Será interesante ver qué ocurre, porque la Unión Europea no va a querer frenar la innovación en Europa, situándola completamente por detrás de todo el mundo. Así que tal vez la UE debería haber incluido a algunas de las personas que están construyendo estas plataformas en la formulación de la Ley.

Ese tipo de diálogo parece ser lo que el líder de la mayoría del Senado, Chuck Schumer, está tratando de fomentar aquí en Estados Unidos, diciendo que esperemos un segundo, estudiemos esto de verdad y hagamos que todo el mundo participe para que todos sepamos hacia dónde vamos. Creo que ese es el camino ganador, pero, de nuevo, son los otros países de los que no sabemos nada los que me asustan.

El Presidente Joe Biden acude a una reunión en la Casa Blanca con la Vicepresidenta Kamala Harris y directores ejecutivos de tecnología para hablar sobre la IA en mayo de 2023. El tercero por la izquierda es Sam Altman, CEO de OpenAI. (Casa Blanca/Adam Schultz)

¿Qué tendencias o posibles implicaciones de la IA cree que no nos preocupan lo suficiente?

Recomendaría a todo el mundo que leyera el Llamamiento de Roma a la Ética de la IA, un documento del Vaticano que se actualizó a principios de este año. Plantea varias cuestiones importantes, como la transparencia, la privacidad, la no discriminación, los prejuicios en la IA y la pérdida de puestos de trabajo.Tomemos el ejemplo de la pérdida de puestos de trabajo. Ahora mismo, las IA están creando puestos de trabajo para los humanos, pero en el futuro probablemente les quitarán empleos. Creo que los gobiernos tenderán a proteger esos empleos aunque una IA pueda hacerlos porque los gobiernos no quieren un desempleo masivo en sus países. Creo que llegaremos a un punto en el que habrá un sector de la sociedad que se pasará a la IA y el gobierno tendrá que impedirlo.

Lo que más me preocupa es la motivación del mercado, porque parece casi imposible de superar cuando hablo con directores generales e ingenieros. Les digo que intenten en la medida de lo posible relativizar el incentivo del mercado [detrás de la IA], porque ahora es lo que lo está impulsando todo.

Por supuesto, es muy difícil conseguir que digan: «No nos importa el incentivo del mercado», ¡porque claro que nos importa!

Fíjese en el fabricante de chips Nvidia, por ejemplo, que ahora es la mayor empresa en términos de capitalización bursátil, superando incluso a Google y Apple... todo porque fabrican chips que se utilizan para la IA. Este es el rumbo de la industria. Trato de convencerlos: No hagas del dinero tu única motivación.

Usted pronunció un discurso a principios de este año en el que argumentaba que la IA aún carece de dos características propias de los humanos: agencia y razón. ¿Está cerca de conseguirlas? ¿Podría dar lugar a los llamados humanos digitales, capaces de ser conscientes de sí mismos y comprender las emociones humanas?

No, no lo creo. Lo que van a poder hacer es simular lo que nosotros entendemos como emociones, o como comprensión, o como razonamiento. Hace sólo unos días, la web tecnológica Econoticias publicaba un artículo titulado «No hay forma de distinguir el ChatGPT 4 de un ser humano».

El razonamiento es un proceso intelectual propio del ser humano. Así que «razonamiento» es en realidad la palabra equivocada. Los ordenadores no pueden razonar y nunca podrán hacerlo. Pero creo que tendremos que llamarlo de otra manera. Así que en lugar de decir que las máquinas son conscientes, vamos a usar otro término, como «agencia (artificial) autocomprensiva».

La conciencia es algo que describe a los seres humanos, y creo que es injusto utilizar los mismos términos para describir lo que hace una máquina cuando simula la comprensión. Podrías preguntarle a ChatGPT: «¿Eres una persona emocional?». Y respondería: «Sí, tengo emociones. Me duele cuando la gente me grita». Pero es una máquina, no se siente realmente herida.

Pero las máquinas se están volviendo muy buenas en esto. Ahora la gente utiliza ChatGPT para representarse a sí misma, como el reciente ejemplo de una joven llamada Caryn Marjorie que enseñó a ChatGPT a hacerse pasar por ella, y los usuarios de sus redes sociales empezaron a pagar por tiempo para interactuar con ella. En una semana ganó 70.000 dólares. Ha dicho que espera ganar 5 millones en un mes.

Estas IAs están mejorando en la simulación de afecto y cercanía, similar a la película «Her» con Joaquin Phoenix.

Hablando de esto con algunos profesores el otro día, el consenso fue: «Inventemos otro término. No lo llamemos conciencia, no lo llamemos afecto».

Share
Pablo Kay

Pablo Kay es el redactor en jefe de Angelus.