Samuel Altman, CEO de OpenAI, la creadora de ChatGPT, en mayo de 2023 declaró ante el Senado de los Estados Unidos que la IA requiere una regulación especial paralimitar los peligros de su uso. Y agregó que “si esta tecnología sale mal, puede salir bastante mal”. Creo que cuando el líder habla de los riesgos de su sector, ha llegado el momento de tomarse el tema muy en serio.
Por su parte, ya en 2019 la Unión Europea había publicadolas Directrices Éticas para una IA Fiable. En 2024 el Parlamento Europeo aprobó tanto la ley como el reglamento para poner límites éticos y técnicos en este campo.
En ese orden de idas, en enero de 2025, antes de la elección de León XIV, la Santa Sede había publicado el documento titulado “Antiqua et Nova”. Esta publicación considera la IA como un desafío y una oportunidad. La Iglesia Católica ofrece ahí una reflexión antropológica y ética, buscando garantizar que la IA respete la dignidad humana y promueva el bien común.
León XIV, matemático de profesión, tiene una formación científica, filosófica y teológica que le permite hablar con soltura y autoridad sobre la materia. Desde sus primeras declaraciones como Pontífice, se refirió a la IA como una realidad que combina enorme potencial para los seres humanos, así como grandes desafíos éticos en su utilización.
Los dilemas y riesgos éticos que se identifican en la IA son: costo humano de la transición entre empleos que desaparecerán y empleos que surgirán; incremento de la desigualdad, ya que los países en vías de desarrollo no tienen capacidad de adaptar sus modelos de producción a la velocidad requerida dadas las deficiencias de sus sistemas educativos; el empobrecimiento de la interacción humana; la llamada “estupidez artificial”; la discriminación algorítmica; la posibilidad de los “genios malvados”; y, por supuesto, la vulnerabilidad en la custodia de información personal.
La IA como última frontera de la ciencia y la tecnología, obliga a volver la mirada hacia lo fundamental, hacia los criterios filosóficos con que se debe abordar toda capacidad instrumental.
Ante tal escenario, las directrices de la UE indican que la fiabilidad de la IA se apoya en tres componentes: a) la IA debe ser lícita, es decir, cumplir todas las leyes y reglamentos aplicables; b) debe ser ética, de modo que se garantice el respeto de los principios y valores éticos, y c) debe ser robusta, tanto desde el punto de vista técnico como social, a fin de evitar daños accidentales.
Lo interesante del tema es que, precisamente, la IA como última frontera de la ciencia y la tecnología, obliga a volver la mirada hacia lo fundamental, hacia los criterios filosóficos con que se debe abordar toda capacidad instrumental. El mundo de la IA es el mundo de los datos, de lo cambiante y del cómo mejorar la productividad. Pero para el ser humano y su sostenibilidad esto no basta. Toca hablar de filosofía: de principios de actuación, de verdades atemporales y, por supuesto, del por qué y para qué de los avances tecnológicos.
Joan Fontrodona, profesor de ética en IESE Business School, sintetiza así las consideraciones éticas aplicables: 1) no todo lo que es técnicamente posible es éticamente aceptable; 2) la técnica debe usarse siempre a favor de la naturaleza de las cosas, nunca en contra; 3) la técnica es un medio; el fin es la excelencia humana y el desarrollo de la sociedad.
Si el lector está interesado en aportar su opinión sobre el tema, quizás quiera dedicar diez minutos para participar en una encuesta anónima que estamos realizando desde UNIS Business School para entender cómo están las percepciones sobre uso y riesgos de la IA en Guatemala y resto de Centroamérica: https://es.surveymonkey.com/r/Y6NX35K
León XIV y la ética de la inteligencia artificial
Samuel Altman, CEO de OpenAI, la creadora de ChatGPT, en mayo de 2023 declaró ante el Senado de los Estados Unidos que la IA requiere una regulación especial paralimitar los peligros de su uso. Y agregó que “si esta tecnología sale mal, puede salir bastante mal”. Creo que cuando el líder habla de los riesgos de su sector, ha llegado el momento de tomarse el tema muy en serio.
Por su parte, ya en 2019 la Unión Europea había publicadolas Directrices Éticas para una IA Fiable. En 2024 el Parlamento Europeo aprobó tanto la ley como el reglamento para poner límites éticos y técnicos en este campo.
En ese orden de idas, en enero de 2025, antes de la elección de León XIV, la Santa Sede había publicado el documento titulado “Antiqua et Nova”. Esta publicación considera la IA como un desafío y una oportunidad. La Iglesia Católica ofrece ahí una reflexión antropológica y ética, buscando garantizar que la IA respete la dignidad humana y promueva el bien común.
León XIV, matemático de profesión, tiene una formación científica, filosófica y teológica que le permite hablar con soltura y autoridad sobre la materia. Desde sus primeras declaraciones como Pontífice, se refirió a la IA como una realidad que combina enorme potencial para los seres humanos, así como grandes desafíos éticos en su utilización.
Los dilemas y riesgos éticos que se identifican en la IA son: costo humano de la transición entre empleos que desaparecerán y empleos que surgirán; incremento de la desigualdad, ya que los países en vías de desarrollo no tienen capacidad de adaptar sus modelos de producción a la velocidad requerida dadas las deficiencias de sus sistemas educativos; el empobrecimiento de la interacción humana; la llamada “estupidez artificial”; la discriminación algorítmica; la posibilidad de los “genios malvados”; y, por supuesto, la vulnerabilidad en la custodia de información personal.
La IA como última frontera de la ciencia y la tecnología, obliga a volver la mirada hacia lo fundamental, hacia los criterios filosóficos con que se debe abordar toda capacidad instrumental.
Ante tal escenario, las directrices de la UE indican que la fiabilidad de la IA se apoya en tres componentes: a) la IA debe ser lícita, es decir, cumplir todas las leyes y reglamentos aplicables; b) debe ser ética, de modo que se garantice el respeto de los principios y valores éticos, y c) debe ser robusta, tanto desde el punto de vista técnico como social, a fin de evitar daños accidentales.
Lo interesante del tema es que, precisamente, la IA como última frontera de la ciencia y la tecnología, obliga a volver la mirada hacia lo fundamental, hacia los criterios filosóficos con que se debe abordar toda capacidad instrumental. El mundo de la IA es el mundo de los datos, de lo cambiante y del cómo mejorar la productividad. Pero para el ser humano y su sostenibilidad esto no basta. Toca hablar de filosofía: de principios de actuación, de verdades atemporales y, por supuesto, del por qué y para qué de los avances tecnológicos.
Joan Fontrodona, profesor de ética en IESE Business School, sintetiza así las consideraciones éticas aplicables: 1) no todo lo que es técnicamente posible es éticamente aceptable; 2) la técnica debe usarse siempre a favor de la naturaleza de las cosas, nunca en contra; 3) la técnica es un medio; el fin es la excelencia humana y el desarrollo de la sociedad.
Si el lector está interesado en aportar su opinión sobre el tema, quizás quiera dedicar diez minutos para participar en una encuesta anónima que estamos realizando desde UNIS Business School para entender cómo están las percepciones sobre uso y riesgos de la IA en Guatemala y resto de Centroamérica: https://es.surveymonkey.com/r/Y6NX35K