Ricardo Baeza-Yates: «El metaverso podría ser el comienzo de Matrix»

Entrevista al director de investigación en el Institute for Experiential AI en la Northeastern University y profesor a tiempo parcial de la Universitat Pompeu Fabra

07 marzo 2022 08:21 | Actualizado a 08 marzo 2022 10:28
Se lee en minutos
Participa:
Para guardar el artículo tienes que navegar logueado/a. Puedes iniciar sesión en este enlace.
Comparte en:

La Autoritat Catalana de Protecció de Dades (APDCAT) organizó esta semana, en el marco del  Four Years From Now (4YFN) del Mobile World Congress (MWC), la sesión titulada Inteligencia Artificial, una mirada ética. La ponencia principal estuvo a cargo de Ricardo Baeza-Yates, director de investigación del Institute for Experiential AI de la Northeastern University (EEUU).

La Unión Europea cuenta con la propuesta de regulación de la Inteligencia Artificial más elaborada hoy en el mundo. ¿Está bien encaminada?

Hablando en particular de la regulación europea, pienso que debería ser una regulación por sector económico y no por tecnología.

¿Por qué?

Es como lo que sucede con los Derechos Humanos: no se puede matar a una persona, y da lo mismo lo que uses para ello. Es algo que se ha hecho en alimentación, en salud... ¿Por qué no aquí? Lo importante es que la regulación fuera independiente de la tecnología, incluso de la tecnología futura. Luego, en la propuesta de regulación de la UE, está la cuestión de que hablan de casos de riesgo: mucho, poco... y sin riesgo. Pero el riesgo es una variable continua.

¿A qué se refiere?

Estamos poniendo divisiones, pero el sesgo cognitivo de las personas va a llevar a muchos a evaluar ese riesgo en la categoría más baja, porque hay un conflicto de interés con lo que se está haciendo. Después hay aspectos como que, por ejemplo, en protección de datos, la regulación es la misma para todos. Lo que tiene que cumplir el kiosco de la esquina es lo mismo que una multinacional, y eso no tiene sentido. Y otros muy difíciles de hacer cumplir, como el artículo cinco, que dice que tú no puedes hacer daño psicológico o físico a ninguna persona. ¿Cómo lo haces para no mostrar una publicidad de comida rápida a una persona obesa, por ejemplo? Eso es muy difícil de hacer cumplir.

¿Pero hay que regular?

Que hay que regularlo, seguro. Lo que queremos saber es qué pasa cuando no funciona. Qué es lo que hay que informar al usuario. Porque yo no me subiría a un ascensor que funcione en el 99% de los casos, si me lo dicen así. Quiero que me digan que en el 1% de los casos, ese ascensor se queda parado.

¿Mata la innovación la regulación?

Eso es una falacia. Regular, lo que genera es innovación positiva. Las innovaciones más interesantes han sido cuando más problemas ha habido, haciendo que la gente encuentre caminos nuevos. La regulación podría incluso generar más innovación, y positiva.

«La regulación de la Inteligencia Artificial debe ser por sector económico, no por tecnología»

IBM ha venido a esta edición del MWC con un robot de Boston Dynamics y el concepto de cobot, donde insisten en la importancia de que haya un humano detrás. ¿Debe ser siempre así?

Hay que tener más que a un humano siempre involucrado. Nosotros somos los dioses de los robots y debemos estar siempre en control, por esto mismo las tres famosas leyes de la robótica de Isaac Asimov. 

Joanna Bryson defendía en un artículo que los robots deberían ser tratados siempre como esclavos. ¿Lo comparte?

Yo no diría ‘esclavos’, pero sí estar siempre al servicio de las personas. Nosotros podemos definir que un robot nunca pueda tener derechos, sino que esté al servicio de las personas. En este sentido, me gusta el concepto de cobot, porque mejora la productividad humana con habilidades que los humanos no tenemos.

«Regular genera innovación positiva»

Son una herramienta y como tales deberían ser vistos siempre. ¿Qué sucede con los robots sociales, si establecemos un vínculo emocional con ellos, igual que con una mascota?

Que son vínculos que uno decide crearlos. Si uno lo ve como una mascota, es porque quiere verlo como tal. Pero eso tiene que ver con sesgos personales. Hay el sesgo de antropomorfizar las cosas, y es dañino. Pero es que además anticipa cosas que no van a pasar en mucho tiempo. El problema es que tenga los mismos derechos que las personas. Hay que poner límites y dejarlo muy claro. Mi utopía sería que, por ejemplo, todos los trabajos que no nos gusta hacer, porque son repetitivos y tediosos, los hiciesen los robots, y nosotros los humanos nos centrásemos solo en lo que quisiésemos hacer.

«Los robots deben estar siempre al servicio de las personas»

Por ejemplo, ¿vivir en el metaverso?

El metaverso, dependiendo de cómo se trabaje, puede ser el comienzo de Matrix. Creo que en el  futuro habrá jóvenes conectados doce horas al día en el metaverso, y eso no estará muy lejos de Matrix. Imagínese a todas las personas que hoy, en lugar de mirar todo el tiempo el móvil como hacen, estuviesen mirando en unas gafas de Realidad Virtual. Hay un peligro de que, pensando en el negocio, eso pueda suceder. Pero antes hay que regular la realidad, legislando zonas grises tecnológicas.

O zonas oscuras, como los robots militares...

Siempre la ética va corriendo detrás de la tecnología, y por eso las armas químicas se regularon después de la Primera Guerra Mundial y las armas nucleares después de Hiroshima y Nagasaki, en Japón. La cuestión es: ¿Tenemos que esperar una matanza con drones para regular? Tenemos que aprender de la Historia, y habría que regularlo.

Comentarios
Multimedia Diari