Expertos se reunen para abordar los riesgos éticos de la inteligencia artificial en el congreso “Humanidad y algoritmos” de la UCV
El Observatorio de Bioética de la Universidad Católica de Valencia celebró ayer el congreso ‘Humanidad y algoritmos: reflexiones bioéticas sobre la IA’. El encuentro, que congregó a un numeroso público, fue inaugurado por Jose Manuel Pagán, rector de la UCV, quien invitó a los asistentes a “educar una mirada crítica sobre la inteligencia artificial”. Para ello, instó a que “la ética esté siempre presente en este debate”, convencido de que es “la única garantía de un progreso auténtico al servicio del bien común”. Así,enfatizó en que “la universidad no debe renunciar a formar conciencias capaces de discernir”, e hizo hincapié en que “la tecnología debe estar siempre al servicio de la persona, no al revés”.
Accede a todos los vídeos de las ponencias AQUI.

Julio Tudela, director del Observatorio, aprovechó la inauguración para invitar a “poner sobre la mesa los grandes desafíos éticos que plantea la inteligencia artificial y subrayar la necesidad urgente de abordarlos desde una mirada bioética”. Asimismo, pidió “que el análisis ético avance al mismo ritmo que lo hacen las tecnologías, para evitar que los riesgos superen a las oportunidades”. Igualmente, hizo un llamamiento a “defender la libertad, la veracidad y el valor de la inteligencia humana frente a posibles manipulaciones y usos deshumanizadores de la IA”.
Eclipse de la razón
Adela Cortina, catedrática emérita de Ética y Filosofía Política de la Universitat de València (UV), fue la encargada de desarrollar la conferencia inaugural “Marco ético para una IA confiable”, en la que disertó sobre el eclipse de la razón frente al avance de la razón instrumental. Para Cortina, la razón comunicativa es importante porque es intersubjetiva, tal como detalla el filósofo y sociólogo alemán Habermas. “La creación de la ética del diálogo sustenta la creación de acuerdos en fines comunes”, apuntó. Cortina matizó que cuando hablamos de IA, en realidad debería hablarse de ella “como si fuera inteligente”, es decir, el “cómo si” debería anteponerse al término “inteligente”, ya que en realidad no lo es.
La catedrática nombró la Frankenfobia, una visión catastrófica de la inteligencia artificial que se opone a los entusiastas de la IA y que proponen educar éticamente a las máquinas según valores morales. En ambos casos, tanto la visión catastrofista como la visión entusiasta, necesitan construirse sobre criterios éticos.
Para Cortina, quien no demoniza la IA, existen distintas éticas aplicables a este fenómeno, como la ética de las superinteligencias, la ética de la inteligencia general (la inteligencia
Según la experta, en Europa ya existe un marco ético para la inteligencia artificial que utiliza las premisas del principialismo, pero añadió algunos otros principios necesarios: beneficencia, no maleficencia, autonomía y justicia. Asimismo, añadió el principio de explicabilidad, el principio de rendición de cuentas y el principio de protección de la naturaleza entre otros.
La catedrática insistió en que cuando hablamos de autonomía habría que hablar de autonomía funcional, porque la inteligencia artificial no es autónoma.
Algoritmos e IA
Enrique Estellés, profesor de Tecnologías de la Información de la UCV, basó su exposición en la estructura de los algoritmos. Para entender cómo funciona la IA, aseguró que es necesario conocer sus entrañas y los mecanismos que subyacen a estas herramientas.
Estellés explicó que los algoritmos, núcleo esencial de la inteligencia artificial, están diseñados para imitar, en la medida de lo posible, el funcionamiento neuronal del cerebro humano. Señaló además que estos algoritmos se basan en la recopilación y el análisis de datos, por lo que la calidad de dichos datos será determinante para la fiabilidad de los resultados que ofrecen en nuestras búsquedas.
Privacidad seguridad en los datos personales
En la misma mesa redonda, el director de la Cátedra de Privacidad y Trasformación Digital. Microsoft-Universitat de València, Ricard Martínez, dio algunas pinceladas del reglamento de Inteligencia Artificial y del Espacio Europeo de Datos Sanitarios, un conjunto de
normas que aseguran que los sistemas de IA son seguros, éticos y fiables, entrando en detalle sobre cuáles son los nuevos requerimientos normativos para la biomedicina.
“Es imprescindible -subrayó Martínez- proteger el bien de la comunidad, mejorar las herramientas de diagnóstico para establecer los límites de las herramientas de inteligencia artificial y sus riesgos, a la vez que sus posibilidades. También es necesario establecer un marco de gobernanza que controle el sistema, por ejemplo, estableciendo límites y prohibiciones hacia el daño intencional, evitando que estas herramientas se propongan hacer daño intencionadamente. La diversidad en la obtención de datos, la transfronterización, es decir, la globalización en el manejo de los datos, puede ser tanto una herramienta como un riesgo. Es fundamental proteger la privacidad y la seguridad en los datos personales.
El experto recordó la necesidad de constituir auditorías para analizar los procedimientos y sus resultados, su seguridad, su veracidad y su fiabilidad. También es imprescindible la regulación legal, que debe centrarse en el ser humano y promover procesos de alfabetización en inteligencia artificial.
El contacto médico-paciente
El profesor de la Universidad Pontificia Comillas-ICADE, Federico de Montalvo, se centró en la relación médico paciente, defendiendo la corporeidad, el contacto humano entre ambos: “el contacto personal es insustituible”, aseveró. De Montalvo destacó la importancia de los silencios, algo de lo que la inteligencia artificial no entiende, y a veces los silencios son tan elocuentes o más que las palabras. Estos solamente pueden darse en la relación personal, y un diagnóstico no puede reducirse a un algoritmo impersonal, aunque puede mejorarlo, pero tiene que ir unido a un relato donde el médico tiene un papel fundamental.
Autonomía frente a dignidad
José Justo Mejías, catedrático de Filosofía del Derecho en la Universidad de Cádiz, subrayó en su intervención la importancia de definir con precisión qué entendemos por dignidad humana antes de plantear cómo protegerla. “La racionalidad y la libertad -afirmó- deben estar siempre al servicio de la dignidad. Primero la dignidad, y después la racionalidad y la libertad”.
La modernidad ha priorizado la autonomía frente a la dignidad, es decir, una de las derivas de la modernidad es dar más importancia a la autonomía personal que a la dignidad humana.
El reglamento de la Unión Europea sobre IA obvia el término dignidad; sin embargo, una recomendación anterior de la Unesco, que es más completa, si menciona este término dignidad y analiza los posibles riesgos que se puede correr con estas herramientas de cara al respeto a la dignidad humana.
El catedrático recordó que la carta Antiqua et Nova del Vaticano, subraya que el sentido común fija el valor de la dignidad antes que el de la autonomía, promoviendo la humanización en el uso de estas herramientas.
Requisitos en lugar de principios
El director de la Cátedra de Bioética de la Universidad Pontificia de Comillas, Rafael Amo, instó a definir la epistemología de la inteligencia artificial, es decir, su naturaleza y sus fines, su utilidad. El bioeticista habló de los criterios éticos que deben seguirse para la utilización de la IA, entre ellos la inteligencia artificial ética, es decir, los intentos de dotar de criterios éticos a la propia inteligencia artificial. En esto, aseguró que se está trabajando actualmente:“Más que hablar de principios bioéticos, tenemos que fijar primero un marco ético en la IA, valorando el impacto en las personas y en el medio ambiente. Es más conveniente hablar de requisitos que de principios. Entre estos requisitos, que construirían lo que se ha llamado algorética, habría que recordar algunos como la explicabilidad, la autonomía, la privacidad, la robustez, la justicia, la sostenibilidad, el bienestar o la rendición de cuentas. Todo esto habría que promoverlo desde la inteligencia artificial”.
La autonomía del médico, en peligro ante la IA
Luis Echarte, profesor de la Universidad de Navarra, reflexionó sobre la autonomía del médico frente a las herramientas de inteligencia artificial, que —aunque resultan fascinantes para muchos profesionales— pueden llegar a eclipsar el papel del facultativo. Advirtió que, ante la potencia de estas tecnologías, existe el riesgo de reducir en exceso la función del médico, simplificándola hasta el punto de delegar decisiones que le son propias.
Señaló que el principialismo, como corriente dominante en la bioética, está impregnando las estructuras éticas de la IA, lo que puede llevar a una visión reduccionista de la ética médica.
Asimismo, alertó sobre el peligro de una excesiva dependencia de la IA, incluso por parte de los comités éticos, que podrían acabar delegando parte de su labor en estos sistemas. Finalmente, subrayó que se está infravalorando la dimensión ética de la relación médico-paciente, que es esencial para el ejercicio pleno y humano de la medicina.
Preservación de la confidencialidad
José María Domínguez, presidente de la Comisión Central de Deontología de la Organización Médica Colegial, aprovechó este encuentro para presentar la Declaración sobre el Espacio Europeo de Datos Sanitarios elaborado por la Comisión de Ética y Deontología de la OMC. Domínguez puso al día a los asistentes sobre las precauciones que el Consejo General de médicos observa en los documentos de la Comunidad Europea para la regulación ética de la IA. “La preservación de la confidencialidad en el manejo de los datos no parece asegurado, por lo que los médicos debemos exigir más rigor en el manejo de los datos cuando no hay autorización preceptiva de los pacientes”.
“Real” versus “virtual”
El secretario general de la Fundación Vaticana RenAIssance y coordinador del Secretariado de la Pontificia Academia para la Vida, Andrea Chucci, coincidió en su exposición con Adela Cortina en no denominar como IA a lo que no deja de ser un conjunto de procesos inteligentes o pseudo inteligentes. Esta no debe verse en ningún caso como un problema, como algo limitante, sino que deben plantearse los límites éticos como propuestas positivas. Ciucci adoptó una postura optimista con respecto a las herramientas
de inteligencia artificial. En este sentido, subrayó que el desarrollo tecnológico contribuye al desarrollo verdaderamente humano, por tanto, no hay que demonizar la inteligencia artificial, sino encauzarla y aprender a utilizarla en la era digital.
No obstante, advirtió que parece que la distancia va tomando prioridad frente a la relación personal, es decir, la era digital promueve las relaciones a distancia más que las relaciones cercanas. “Es necesario subrayar que somos más que nuestros datos, más que nuestra huella digital”.
La verdad basada en la frecuencia de datos, algo muy peligroso ante lo que es necesario crear un espíritu crítico, sabiendo formular adecuadamente las preguntas sin establecer un escenario de confrontación entre humanidad y algoritmos. Tenemos que defender a la humanidad frente a los abusos, fruto de una razón tecnocientífica que puede convertirse en una nueva religión. Una solución puede ser adecuar sistemas locales frente a los sistemas globales, porque son más respetuosos con estas características culturales localizadas.
El experto criticó asimismo la división de “real” versus “virtual”, recordando que en realidad, lo virtual también forma parte de la realidad, por lo que no habría que establecer estos límites tan separadores. Esto fue discutido después por Alfonso Ballesteros, Profesor de la Universidad Miguel Hernández y Vicente Bellver, Catedrático de la Universitat de València, quienes protagonizaron la última mesa del congreso.
Humanidad y algoritmos
Bellver no se opuso a las nuevas tecnologías, pero sí manifestó su preocupación por la velocidad de implantación de la inteligencia artificial. “Esta se está produciendo ante una actitud acrítica por parte de la población, y esto es muy peligroso, porque puede conducir a procesos muy destructivos como situaciones de soledad, aislamiento y búsqueda de autosatisfacción.“Es necesario preguntarse si la IA contribuye o no al progreso verdadero, al progreso humano”.
Ballesteros, al igual que su compañero de mesa, fue más cauto en su visión de la IA frente al optimismo manifestado por Ciucci, alertando de la hiperinnovación, es decir, “parece que innovar ya es un valor en sí mismo y no toda innovación supone un progreso, por lo tanto, tenemos que ser precavidos. Es necesario establecer tiempo para pensar”. En la opinión del profesor de la Universidad Miguel Hernández, la globalización de los datos crea polarización en el aspecto social y político y promueve la soledad. Se está proliferando la utilización de chatbots, programas informáticos diseñados para simular una conversación con una persona, como sustitutos de las relaciones personales. Esto constituye una pésima noticia, porque pueden promover el autoritarismo y la desestructuración social.