Opinión

Creado:

Actualizado:

Una investigació publicada recentment a Science introdueix un element especialment incòmode per als de «la tecnologia és neutra, depèn de com la fas servir». El valor del treball no és tant el que confirma —que la polarització emocional és modulable— sinó com ho confirma: manipulant en temps real el que veu l’usuari al seu feed sense el vistiplau de la plataforma. Per primer cop es prova, amb rigor experimental, que allò que ens apareix a la pantalla modela la manera com percebem l’altre. Els participants es van dividir en dos grups i es van ajustar de manera artificial els continguts que rebien. A uns els arribava un degoteig de piulets orientats a inflar la distància afectiva. Als altres, un flux desintoxicat, pensat per reduir-la. El resultat és clínic: els del primer grup acaben més carregats de ràbia i desconfiança cap als diferents; els del segon, més calmats i oberts a escoltar. Fins a quin punt la nostra corba emocional es pot deformar tocant un parell de rodes de l’engranatge algorítmic! L’estudi no es limita a culpabilitzar l’usuari: reconeix que som els primers a cercar confirmacions, a clicar el que ens irrita o ens reafirma. Però posa el focus on fa mal: el disseny mateix de les plataformes, construïdes perquè aquest comportament natural esdevingui un negoci. Si la discòrdia reté, la discòrdia s’amplifica. Així el nostre feed esdevé una màquina d’electrocutar emocions. Hi ha, però, una esquerda de llum. Si el dany és modelable, també ho és el remei. El mateix procediment que bufa la toxicitat pot, en teoria, rebaixar-la i frenar el bombardeig de continguts inflamables, moderar la barreja, recuperar espai per a la calma. La pregunta és qui ho farà. Esperar que les mateixes plataformes renunciïn a un disseny que els genera beneficis és com confiar que un taller il·legal t’arreglarà el Ferrari. No és bona idea. L’única via realista és la regulació. És el que han fet a Austràlia: des d’avui, els menors de 16 anys no poden accedir a les xarxes socials.

tracking