diumenge, 5 d’octubre del 2025

¿QUINA ÈTICA EN UN TEMPS DE POSTVERITAT I INTELIGÈNCIA ARTIFICIAL?

Vivim en una època travessada per dos fenòmens que redefineixen el vincle entre l’ésser humà, la veritat i el saber: la postveritat i la intel·ligència artificial (IA). Tots dos posen a prova la nostra manera de concebre la responsabilitat, el discurs i la relació amb l’altre. És per això que l’ètica, més que mai, esdevé imprescindible: no com a codi moral fix, sinó com a brúixola capaç de guiar-nos enmig d’un paisatge dominat pel simulacre i l’automatització.

 El temps de la postveritat

 El concepte de postveritat es va popularitzar a partir de la dècada de 2010 per descriure un fenomen en què “els fets objectius tenen menys influència en la formació de l’opinió pública que les crides a l’emoció i a la creença personal”. En aquest sentit, com observa Byung-Chui Han a Infocracia (2022), les xarxes socials converteixen la informació en flux incessant de dades sense jerarquia, on “el soroll substitueix el sentit”.

Això té conseqüències polítiques i ètiques: si els discursos ja no s’avaluen pel seu vincle amb la veritat, sinó pel seu efecte immediat, el vincle social esdevé fràgil. Habermas, a Teoria de l’acció comunicativa (1981), ja advertia que la democràcia només pot sostenir-se en la confiança en un espai de diàleg racional i no manipulat. En l’era de la postveritat, aquest fonament es veu erosionat.

 La intel·ligència artificial: potència i risc

 La IA obre oportunitats inèdites en medicina, economia o educació, etc. Però també planteja dilemes ètics i polítics de gran magnitud. Nick Bostrom a Superintelligence (2014) adverteix dels riscos d’una tecnologia que pot escapar al nostre control. D’altra banda, Shoshana Zuboff, a The Age of Surveillance Capitalism (2019), mostra com els algoritmes no només processen dades sinó que configuren comportaments i anticipen decisions, posant en qüestió la llibertat individual i la conflictivitat per la degradació i manca de regulació de normes socials (anòmia).

Els problemes ètics de la IA es poden resumir en tres eixos:

a)  Responsabilitat: ¿qui respon quan un algoritme discrimina o pren una decisió errònia? 

b) Transparència: ¿cóm podem garantir que els processos de decisió automatitzats siguin, justos, comprensibles i verificables?

c)  Justícia: com evitar que la IA amplifiqui desigualtats ja existents?

Una ètica de la responsabilitat i de l’escolta

 Davant aquest escenari, l’ètica no pot limitar-se a regular la tecnologia a posteriori. Cal una ètica proactiva, capaç d’acompanyar la invenció i l’ús de les eines.

Això implica:

a) Responsabilitat en el discurs: sostenir la paraula com a acte i no com a simple transmissió de dades. Lacan recordava que “el subjecte és responsable del que diu”(Écrits, 1966). En temps de postveritat, això és més vigent que mai.

b) Escolta de l’altre: en un món saturat d’informació, l’acte d’escoltar esdevé un gest ètic i polític. Emmanuel Levinas, a Totalitat i infinit (1961), situava l’ètica en el rostre de l’altre: reconèixer-lo és resistir a la seva reducció a dada o perfil.

c)  Centralitat de la dignitat humana: com recorda Martha Nussbaum (Creating Capabilities, 2011), tota tecnologia ha de posar en el centre la capacitat humana de viure amb dignitat i llibertat.

Més enllà del simulacre, de l'aparença

 L’era de la postveritat i la IA ens desafia a replantejar el lloc del subjecte en relació amb el saber, el discurs i la tècnica. El repte no és només tecnològic, sinó profundament ètic: fer que la tecnologia no substitueixi la responsabilitat humana, sinó que la reforci.

Es tracta de recuperar la veritat no com a certesa absoluta, sinó com a compromís amb la paraula i amb l’altre. Estar a l’aguait per tal de controlar que la nostra societat no es converteixi en un desert de simulacres, d'aparences, on la tècnica governi sense criteri.