Algoritmos de Facebook eliminarían solo el 5% del contenido que incita al odio

Facebook

Facebook sigue en el ojo del huracán por las polémicas relacionadas con sus políticas de privacidad.

Ahora un nuevo informe publicado por The Wall Street Journal aseguró que Facebook es consciente de que su sistema de Inteligencia Artificial no es capaz de eliminar ni una mínima parte del contenido de odio o violencia.

De acuerdo con los documentos filtrados por el WSJ, los algoritmos de la red social no pueden detectar o diferenciar entre contenidos que tengan situaciones inadecuadas para los usuarios, por ejemplo, videos grabados en primera persona, discursos racistas, accidentes automovilísticos o, incluso, peleas de gallos.

“Cuando los algoritmos de Facebook no están lo suficientemente seguros de que el contenido viola las reglas para eliminarlo, la plataforma muestra ese material a los usuarios con menos frecuencia, pero las cuentas que publicaron el material quedan impunes”, detalló el artículo.

La red social responde

Todo esto se da en contraposición a lo que Facebook explicó en su último Informe de Cumplimiento de los Estándares Comunitarios.

La compañía aseguró que ha logrado disminuir el discurso de odio en casi un 50% durante los últimos tres años, en parte, gracias a sus sistemas de IA.

“Cuando comenzamos a informar nuestras métricas sobre el discurso del odio, nuestros sistemas solo detectaron de manera proactiva el 23,6% del contenido que eliminamos; la mayoría de lo que eliminamos fue encontrado por personas. Ahora, ese número supera el 97%”, aseguró la red social en su blog oficial.

Sin embargo, la publicación The Wall Street Journal da cuenta de que algunos empleados de Facebook señalan que la utilización de tecnologías apenas elimina entre el 3 y el 5% del contenido violento o que incita al odio.

También puedes leer: Facebook prohibirá contenidos que acosen sexualmente a celebridades

Además, en los documentos filtrados por el medio se detalla que los responsables de mantener la plataforma libre de contenido que Facebook considere ofensivo o peligroso reconocen que la compañía no está ni cerca de poder filtrarlo de manera confiable.

Por su parte, Guy Rosen, vicepresidente de integridad de Facebook, respondiendo en parte a las investigaciones del WSJ aseguró que «centrarse solo en la eliminación de contenido es la forma incorrecta de ver cómo Facebook lucha contra el discurso de odio».

Imagen: Archivo ENTER.CO

Karen Ortiz

Karen Ortiz

Periodista con énfasis en Opinión Pública graduada de la Universidad del Rosario con experiencia y conocimientos en redacción, edición y producción. Bailarina en los tiempos libres y apasionada por las buenas historias.

View all posts

Archivos