El Consejo asesor de Meta ha cuestionado la eficacia de la herramienta que elimina imágenes de forma automática, ya que actúa a partir de los bancos que recogen las decisiones de revisores humanos, en ocasiones sobre publicaciones que no violan las políticas de la plataforma.
Media Matching Service es una herramienta automática que actúa cuando detecta la publicación de imágenes en Facebook e Instagram que tienen una correspondencia en su base de datos, donde se han incluido por violar las políticas de las plataformas sociales.
Sin embargo, el Consejo asesor ha cuestionado su papel. El caso se remonta a septiembre de 2020, cuando un usuario de Facebook en Colombia compartió una imagen, un dibujo, que «se asemejaba al escudo oficial de la Policía Nacional de Colombia, que representaba a tres figuras con uniforme de policía sosteniendo bastones sobre sus cabezas», en una escena en la que parecen estar «pateando y golpeando a otra figura que yace en el suelo con sangre en la cabeza», como recoge el comunicado.
El escudo que se representa en el dibujo tiene un lema en español, «República de Colombia – Policía Nacional – Bolillo y Pata», que la compañía tradujo como «Policía Nacional – República de Colombia – Bastón y Patada», y agregó al banco de imágenes para su eliminación automática, entendiendo que violaba sus políticas.
Fue en enero de 2020 cuando la plataforma eliminó el contenido, al darse una coincidencia con una imagen guardada en los bancos de la herramienta Media Matching Service. Como explica el Consejo, «estos bancos pueden identificar y eliminar automáticamente las imágenes que han sido identificadas por revisores humanos como infractoras de las normas de la empresa».
El caso, elegido por el propio Consejo para su revisión, ha llevado a Meta a reconocer que la imagen publicada no violaba sus políticas, restableciendo tanto la original como las otras publicaciones en las que se encontraba.
Por su parte, el Consejo ha cuestionado la función de la herramienta automática de eliminación de imágenes, por las pocas garantías que actualmente ofrece al contener publicaciones que se han incluido de forma errónea.
Para el Consejo, este caso muestra que «mediante el uso de sistemas automatizados para eliminar contenido, los bancos del Media Matching Service pueden amplificar el impacto de las decisiones incorrectas de los revisores humanos individuales». Y por ello, insta a Meta a «desarrollar mecanismos para eliminar rápidamente cualquier contenido no infractor que se agregue incorrectamente a sus bancos».