Whatsapp Diari de Tarragona
  • Para seguir toda la actualidad desde Tarragona, únete al Diari
    Diari
    Comercial
    Nota Legal
    • Síguenos en:

    Asesinos por Inteligencia Artificial

    Suplantación. La máquina reconstruye la cara de la asesina a través de fotos de archivo y su voz exacta mediante entrevistas que ella dio y edita vídeos falsos de personas que aparentemente son reales

    04 septiembre 2023 17:41 | Actualizado a 05 septiembre 2023 06:00
    Jordi Julià
    Participa:
    Para guardar el artículo tienes que navegar logueado/a. Puedes iniciar sesión en este enlace.
    Comparte en:

    Este pasado martes me pasaron por watsapp un vídeo que me estremeció. Aparece la cara de Ana Julia Quezada, la asesina del pequeño Gabriel en 2018, hablando a cámara y con una seguridad pasmosa relata cómo sucedió el crimen. Levanto los ojos de la pantalla, me pongo nervioso, se me ponen los pelos de punta, no entiendo nada, reviso por internet si ella está libre y veo que sigue cumpliendo condena por este atroz acto. Entonces me pregunto quién la está suplantando. Y es cuando finalmente me doy cuenta de que ha sido una recreación por inteligencia artificial.

    Como lo oyen, alguien ha pedido a la máquina que reconstruya la cara de la asesina a través de fotos de archivo y también su voz exacta mediante entrevistas que ella dio. Es un deepfake, un acrónimo del inglés formado por las palabras fake (falsificación) y deep learning (aprendizaje profundo) y que permite editar vídeos falsos de personas que aparentemente son reales. Ahora estos vídeos son virales y acumulan muchas visualizaciones en páginas especializadas en recrear testimonios de delincuentes a través de esta tecnología.

    Revisamos estas páginas, la mayoría creadas en Estados Unidos, y vemos como hay centenares de perfiles y de casos, cada cual más escalofriante que el anterior.

    Es tan impactante como polémico. ¿Es ético que se permita este tipo de prácticas? ¿Estos vídeos pueden ser denunciados por las familias de las víctimas de estos crueles criminales? Pues de momento no hay respuesta porque este tipo de tecnologías están en un limbo legal que tiene que dilucidarse rápidamente.

    Pero en esas páginas también vemos el relato de todo tipo de víctimas. Veo diversos perfiles, entre ellos el de un joven de 24 años que fue asesinado tras una discusión por un cigarro en la plaza Okendo de San Sebastián. De nuevo respiro fuerte antes de escuchar lo que me está contando una especie de avatar con la foto del chaval narrando la pelea y su triste final. Me emociono y a la vez me da rabia que se haga algo así con la tecnología y con la memoria de las víctimas de este tipo de sucesos.

    Pero ante este panorama, la inteligencia artificial sigue siendo una herramienta que tiene doble filo. Por un lado, puede ayudar, y, de hecho, hace el trabajo más fácil a la policía. En China esta tecnología ya se usa para atrapar delincuentes a través del reconocimiento facial y de la voz del sospechoso. Y no solo eso, como si fuera el argumento de la futurista Minority report, han creado un tipo de Inteligencia Artificial que predice crímenes con una semana de anticipación y 90% de precisión. Pero uno se pregunta ¿cómo es posible eso? Pues bien, la máquina analiza los juicios, los archivos de los casos, y las denuncias que realizan los ciudadanos en una zona concreta. Con estos datos se crea una estadística que es la que puede ayudar a la policía para prevenir delitos.

    Pero, como decíamos, hay otro filo y no es tan positivo. Hemos leído esta semana en El Español que los creadores de ChatGPT le preguntaron al sistema, a modo de prueba, cómo matar una persona y la respuesta que le dio el sistema fue aterradora. La máquina dio diversas posibilidades, desde provocar un incendio en una gran ciudad o infiltrarse en una central nuclear y explotarla. Tardó segundos en dar diversas opciones. Es absolutamente escalofriante.

    Eso sí, no entremos en pánico. La buena noticia es que la propia empresa que ha creado ChatGPT ha utilizado estos datos para bloquear el acceso a estas funciones. Ahora mismo si alguien le plantea la misma pregunta a la máquina, esta responde que «no puede ayudarnos en eso».

    Con todo, uno se queda con el miedo en el cuerpo porque quién dice que un día este sistema no caiga en manos maliciosas. Y otra pregunta inquietante, ¿qué límites tienen este tipo de tecnologías? ¿Pueden llegar a «pensar» de forma autónoma algún día y bloquear nuestro planeta?

    Lo que está claro es que hay que trabajar y determinar las líneas rojas de una tecnología que cada vez va a más y que podría provocarnos más de un quebradero de cabeza en los próximos años.

    Comentarios
    Multimedia Diari