Ciència
Karina Gibert, catedràtica d'informàtica: «Hem posat la IA a les mans de tothom sense explicar-ne les limitacions»
L'experta en intel·ligència artificial analitza les oportunitats i els perills d’una tecnologia que ha revolucionat el dia a dia de la ciutadania i en reclama un ús responsable en una conferència a El Círcol.

La catedràtica d’Informàtica, Karina Gibert, a El Círcol.
La catedràtica d’Informàtica Karina Gibert (Figueres, 1967) ha construït la seva trajectòria professional al voltant de la intel·ligència artificial (IA), molt abans que aquesta tecnologia revolucionés el dia a dia de la ciutadania. Impulsora del centre de recerca en ciència de dades i intel·ligència artificial de la UPC, i actual degana del Col·legi Oficial d’Enginyeria Informàtica de Catalunya, aquesta trajectòria li ha valgut reconeixements com la Medalla d’Honor del Parlament de Catalunya. Una de les poques veus femenines d’un sector clarament masculinitzat, Gibert combina la recerca amb la reflexió crítica sobre els límits i riscos de la IA. De tot això i més n’ha parlat aquesta setmana en una conferència celebrada a El Círcol.
Com concep la intel·ligència artificial?
Com totes les tecnologies molt potents i disruptives, la intel·ligència artificial sempre va acompanyada d’oportunitats i riscos. Si la fas servir bé, pot generar molt de benefici i benestar; si la utilitzes malament, pot descarrilar. Estem en un moment en què és molt fàcil d’utilitzar, molt àgil, i tothom s’hi atreveix. Però necessitem prendre consciència que tenim a les mans una eina potent i perillosa, i que si no la fem servir bé podem travessar línies vermelles que ens portin a escenaris que no ens convenen.
Com quins?
La IA s’ha posat al mercat de forma massiva i gratuïta, sense explicar les seves limitacions, i la societat l’ha fet servir com si fos un Google millorat, quan no ho és. Això ha portat gent a prendre decisions basades en informació falsa, fins i tot en casos judicials. La clau és trobar aquesta línia tan fina entre una tecnologia que ajuda a desenvolupar-se i genera progrés i una tecnologia que pot vulnerar drets fonamentals, generar desigualtats socials o afectar la privacitat.
Cal regular l’accés a la IA, tal com proposa el Govern amb les xarxes socials?
De la mateixa manera que a un nen de tres anys no li poses un ganivet de carnisser a les mans, amb la intel·ligència artificial passa una mica el mateix. Hi ha edats i nivells de maduresa en què una persona està preparada per fer-ne un ús responsable, i d’altres en què no. Això no vol dir que no es pugui utilitzar amb infants: per exemple, un videojoc educatiu per aprendre a comptar pot incorporar IA sense posar ningú en perill. La qüestió és adaptar-ne l’ús al moment vital i al nivell de responsabilitat de cada persona.
En quins àmbits de la nostra vida la veurem cada vegada més present?
En tots. La IA és una tecnologia transversal: pot ajudar a gestionar millor l’agenda del dia a dia, el trànsit d’una ciutat, les llistes d’espera dels hospitals o el diagnòstic d’un tumor. Amb la IA generativa, a més, s’ha trencat una barrera clau: la de la relació amb les màquines. Ara hi podem parlar com parlaríem amb una persona.
Com pot transformar això el dia a dia de les persones?
Pot servir per reduir l’escletxa digital. Hi ha gent gran o col·lectius vulnerables que no saben ni demanar una ajuda a l’administració perquè els sistemes són massa complexos. Si ho poden fer parlant, això pot transformar completament la relació entre persones i tecnologia.
La IA és conscient del que li preguntem?
Consciència no en tenen gens. A més, hi ha moltes classes d’intel·ligència artificial. La que ara surt constantment als mitjans -els xatbots generatius com ChatGPT- és una tecnologia molt recent. La IA existeix des de fa dècades i ja resol molts problemes reals. El problema d’aquesta generativa és que construeix respostes per probabilitats, no per comprensió. No entén el que li preguntes ni el que respon: sap com s’escriu bé un text, però no si és cert.
Aquí entra en joc l’ètica i la responsabilitat.
Exacte. Parlem d’ús ètic i responsable, que vol dir saber què estàs fent. Una pauta bàsica és no utilitzar mai la IA fora de la teva zona de coneixement, perquè no la pots supervisar. Un metge especialitzat en pulmons pot detectar errors si li demana coses de pneumologia, però no si li pregunta sobre traumatologia. Per tant, no s’ha d’utilitzar la IA en àmbits que no controles, perquè perds la capacitat de validar-ne les respostes.
Hi ha hagut una manca de responsabilitat per part de les grans empreses tecnològiques?
Clarament. Una empresa privada va decidir llançar aquesta tecnologia al mercat sense valorar prou les conseqüències. Ja ha arribat massivament a la ciutadania, amb milions d’usuaris setmanals. Ara el repte és aprendre a utilitzar-la amb criteri i amb un ús responsable.
El debat sobre si la IA eliminarà llocs de treball és constant.
Aquest no és un debat tecnològic, sinó organitzatiu. Cada vegada que una tecnologia facilita una tasca, allibera temps de les persones. El que l’empresa fa amb aquest temps no depèn de la tecnologia, sinó de les seves decisions. Pots aprofitar-lo per millorar l’atenció al client, per treballar amb més qualitat o per reduir plantilla. Per tant, el problema no és la IA, sinó com s’organitza el treball.
En l'àmbit personal, com ha viscut fer carrera en un sector tan masculinitzat?
Durant molts anys he estat l’única dona en equips de recerca. Això fa que sovint la teva mirada sigui minoritària i costi que s’escolti. És fonamental tenir dones als equips tecnològics perquè aporten perspectives diferents. Estem construint una societat digital i la seva infraestructura serà la tecnologia i la IA. No ens podem permetre que aquesta societat es construeixi sense mirada femenina, perquè això genera desigualtats.
Europa hauria d’invertir fort en sobirania tecnològica?
Sens dubte. Amb la globalització vam externalitzar moltes parts clau de la tecnologia, i ara depenem d’altres potències. Ho vam veure amb la crisi dels xips durant la pandèmia. Europa ha d’enfortir la seva indústria tecnològica si vol tenir capacitat real de decisió. Si no tens alternatives pròpies, no pots negociar. És un joc geopolític complex: si depens de tecnologies estrangeres que no comparteixen els teus valors ètics, acabes acceptant les seves regles. Per això cal apostar per una indústria tecnològica forta a casa nostra.