Este sitio web puede utilizar algunas "cookies" para mejorar su experiencia de navegación. Por favor, antes de continuar en nuestro sitio web, le recomendamos que lea la política de cookies.

"És important humanitzar la intel·ligència artificial"

El professor de la UOC Miquel Seguró ressalta la importància de les regles ètiques

TONI COMTE

Whatsapp
La intel·ligència artificial s’ha posat sovint al servei de la salut de les persones. FOTO: GETTY IMAGES/ISTOCKPHOTO

La intel·ligència artificial s’ha posat sovint al servei de la salut de les persones. FOTO: GETTY IMAGES/ISTOCKPHOTO

El professor d’Arts i Humanitats de la Universitat Oberta de Catalunya (UOC) Miquel Seguró (Alger, 1979), ha assenyalat en declaracions a Efe que cal humanitzar la intel·ligència artificial (IA) i establir unes regles ètiques perquè la seva utilització sigui beneficiosa per a la humanitat.

«Un avanç tecnològic per si sol no genera benestar, per a això cal triar quina finalitat se li dóna i per això és important humanitzar la intel·ligència artificial», ha dit Seguró. Davant el creixement del sector, aquest expert creu que cal establir unes regles ètiques per controlar el seu ús i saber «qui decideix quins beneficis ha de proporcionar la IA i qui rep aquests beneficis».

Miquel Seguró, autor del llibre sobre filosofia La vida también se piensa, planteja quatre reptes ètics sobre la IA: saber a quins interessos respon, entendre que darrere d’ella hi ha una responsabilitat humana, concretar el seu ús polític i obrir el camp de la IA del càlcul i l’eficàcia a altres tipus d’intel·ligència. Segons el professor, «la racionalitat no és només càlcul, eficàcia i eficiència, també té altres cares com les emocions i és important preguntar-se quin ús es vol fer de la IA i introduir una idea de raó més complexa». «La idea d’eficiència sola no pot resoldre tot el trencaclosques de les relacions socials», adverteix Seguró, que assegura que hi ha espais com les relacions humanes o laborals on «entren en joc intel·ligències més empàtiques i més emocionals que introdueixen l’error com a factor de aprenentatge».

Equilibri

«En l’entorn laboral actual on s’exigeix eficiència màxima, es beneficia la lògica de la productivitat, però en aquest entorn hi ha problemàtiques que no es poden solucionar amb la creació de seqüències lògiques», avisa el professor. Malgrat tot, Seguró considera que la virtut està en el terme mig: «ni es pot donar per fet que la IA deshumanitza i és un fracàs, ni pensar que el solucionarà tot, l’important és obrir el tema i introduir complexitat en el debat».

«Hi ha visions que veuen positiu delegar en tot a la IA, però no es pot confiar en un algoritme que prengui decisions per les persones perquè la responsabilitat sempre serà humana, no d’un robot», exposa Seguró.

L’exemple de l’algoritme Compas als Estats Units, creat per ajudar a jutges a decidir sobre la llibertat condicional, il·lustra aquest perill, quan es va comprovar que tenia un biaix racista en basar el seu càlcul en dades de departaments policials que, històricament, havien condemnat més persones negres.

Usos polítics

Per casos com aquest Seguró incideix en la necessitat d’entendre que «la IA no és una eina neutral, creure-ho és fer-se trampes al solitari perquè cal evitar que la IA doti d’objectivitat a prejudicis, cal comprendre que l’element humà sempre ha». «Aquest és el futur i se li està donant una importància a la IA que obliga a anar amb peus de plom i conèixer quines pautes se li atorguen i quines conclusions s’extreuen d’aquestes eines», adverteix Seguró. Per això, un dels reptes ètics és «conèixer quins usos polítics es van a fer d’aquesta intel·ligència i qui vigilarà que es faci servir de manera equitativa». «Tot en la vida té una derivada política i és una il·lusió pensar que el mateix procés tecnològic aclarirà els dubtes, la política la fan els éssers humans i darrere sempre hi haurà d’haver algú que decideixi», diu Seguró.

Temas

Comentarios

Lea También