La intel·ligència artificial, diuen, és com Prometeu amb wifi: ens porta el foc, però potser també ens crema. Uns hi veuen la culminació del progrés; altres, l’inici del control total per les grans tecnològiques. Els primers parlen de miracles, els segons de distopies. Mentrestant, la majoria no sap ben bé què pensar, però ja fa servir ChatGPT per escriure informes o per buscar receptes amb el que queda a la nevera. A València, en un congrés sobre drets humans i IA, han recordat una cosa elemental: la IA no és un ésser autònom. No pensa, no sent, no decideix. Som nosaltres —programadors, empreses, usuaris....— els qui hi deixem escrita la nostra manera d’entendre el món. Per tant, quan un algoritme discrimina, no és un error tècnic: és un reflex moral. Darrere d’un algoritme sempre hi ha una visió de l’ésser humà. Per desgràcia, sovint ens veuen com una màquina d’estímuls i respostes. Consumidors obedients. Treballadors mesurables. Ciutadans previsibles.
A les empreses, la IA ja contracta i acomiada. Si diu que en Joan val 90 punts i la Maria 70, el cap de recursos humans pot fer veure que decideix, però la decisió ja està presa. La IA també cura. Diagnostica càncers abans, troba molècules per a nous fàrmacs, preveu epidèmies. Aquest progrés no és gratis, però. El preu és la privacitat, la desigualtat i, sobretot, les nostres dades. Ho deia Ignacio Gil: «no serem lliures mentre les dades siguin mercaderia».
Europa, que potser encara té una mica de senderi, ha emès una nova normativa sobre IA que no és perfecta, però almenys posa límits: prohibeix el reconeixement facial massiu i la puntuació social a l’estil xinès o com el de l’episodi Nosedive de la sèrie Black Mirror. Pot semblar burocràcia, però és civilització. Però no n’hi ha prou. L’algoritme que ens vigila s’alimenta de nosaltres mateixos. Si compartim massa, si acceptem sense llegir, si deixem que la màquina decideixi per nosaltres, el problema no és la IA: som nosaltres.