Pruebas de posibles violaciones a los derechos humanos están en riesgo de perderse al ser eliminadas por las empresas tecnológicas, según evidenció una investigación de la BBC.
Las plataformas sociales están eliminando videos gráficos, a menudo utilizando inteligencia artificial, sin importar que imágenes que pueden ayudar a los enjuiciamientos de los perpetradores de estos abusos puedan ser retiradas sin ser archivadas antes.
Meta y YouTube afirmaron que su objetivo es equilibrar sus obligaciones de informar y de proteger a los usuarios de contenidos nocivos.
Sin embargo, Alan Rusbridger, que forma parte del Consejo de Supervisión de Meta, aseveró que la industria está siendo “demasiado cautelosa” en su moderación.
Las empresas explicaron que tienen excepciones para el material gráfico cuando es de interés público, pero cuando la BBC intentó subir imágenes que documentaban ataques contra civiles en Ucrania fueron eliminadas rápidamente.
La inteligencia artificial (IA) puede borrar contenidos nocivos e ilegales a gran escala.
Sin embargo, cuando se trata de moderar imágenes violentas relacionadas con guerras, los programas son incapaces de identificar lo que podrían ser violaciones de los derechos humanos.
Ihor Zakharenko, antiguo periodista especializado en turismo, se topó con este problema en Ucrania. Desde la invasión rusa ha estado documentando ataques a civiles.
La BBC se reunió con él en un suburbio de Kyiv donde, hace un año, hombres, mujeres y niños murieron por disparos de las tropas rusas cuando intentaban huir de la ocupación.
El hombre filmó los cadáveres -al menos 17- y los vehículos calcinados.
Quiso colgar los vídeos en Internet para que el mundo viera lo ocurrido y contrarrestar la versión del Kremlin. Pero cuando los subió a Facebook e Instagram fueron retiradosrápidamente.
Los defensores de los derechos humanos afirmaron que urge crear un sistema formal para recopilar y almacenar de forma segura los contenidos eliminados. Esto incluiría la conservación de metadatos para ayudar a verificar el contenido y demostrar que no ha sido manipulado.
“Necesitamos crear un mecanismo que permita conservar esa información para posibles ejercicios de rendición de cuentas en el futuro. Las plataformas de medios sociales deberían estar dispuestas a llegar a acuerdos con los mecanismos de rendición de cuentas de todo el mundo”, afirmó a BBC.

A %d blogueros les gusta esto: