Los videos e imágenes gráficas de las secuelas de dos eventos sangrientos ocurridos este fin de semana en Texas (un tiroteo en un centro comercial y un automóvil que atropelló a un grupo de migrantes) han estado circulando ampliamente en Twitter durante los últimos dos días, lo que generó una renovada preocupación con respecto a las capacidades de moderación de la plataforma. bajo el CEO Elon Musk.

Fueron las imágenes que algunos usuarios dijo que fue empujado su feed «Para ti»lo que era presentado a principios de este año y contenido superficial basado en el sistema de recomendación de Twitter y las preferencias de un usuario basadas en las personas a las que siguen. Los usuarios pueden elegir entre el feed «Para ti» y el feed «Siguiendo», que solo muestra los tweets de las cuentas que sigue un usuario.

David Hogg, un defensor del control de armas y sobreviviente del tiroteo en Parkland, tuiteó el domingo (en respuesta a una encuesta de Musk preguntando si había logrado mejorar la plataforma en los últimos seis meses) que se habían insertado imágenes gráficas en su «Para Tú alimentas.

“Bueno, ayer vi significativamente más fotos y videos de personas que murieron en el último tiroteo masivo en Texas en mi página Para ti y en mi línea de tiempo que nunca antes”, dijo Hogg. tuiteó. «Así que no es genial en ese sentido».

Esa preocupación se ha visto contrarrestada por algunos llamados a una mayor difusión de imágenes gráficas, un argumento de hace décadas que ha cobrado nuevo impulso en los últimos años en torno al debate sobre el control de armas.

“Todo tipo de fotos y videos de ataques violentos están llenos de trampas”, dijo Eric Goldman, profesor de la Facultad de Derecho de la Universidad de Santa Clara y codirector del Instituto de Derecho de Alta Tecnología. “Por un lado, mucha o la mayoría de la gente no quiere verlo. Por otro lado, puede ser una evidencia crítica de lo que pasó y, en algunos casos, puede hacer que la gente cambie de opinión. Queremos y no queremos No quiero. No quiero que este contenido esté ampliamente disponible».

“Esto pone a los servicios de Internet en una situación sin salida”, agregó.

Los videos del centro comercial Allen, que NBC News ha visto y opta por no vincular ni incrustar, muestran cuerpos mutilados apilados uno encima del otro justo afuera del centro comercial, muchos cubiertos de sangre.

Gorjeo»política de medios confidenciales«establece que los usuarios» no pueden publicar medios gráficos o compartir desnudez adulta o violenta y comportamiento sexual en el video en vivo o en el encabezado del perfil, enumerando imágenes de pancartas o fotos de cobertura comunitaria. Tampoco se permiten medios con contenido excesivamente sangriento, violencia y/o agresión sexual, bestialidad o necrofilia. »

Twitter permite a los usuarios publicar medios «sensibles» si marcan su cuenta como tal, lo que coloca imágenes y videos detrás de una advertencia en la que se debe hacer clic antes de que se muestren los medios.

No está claro cuántos empleados de Twitter tienen que hacer cumplir estas reglas. almizcle dijo que el despidió alrededor del 80% del personal de la empresacon NBC News informando que los equipos de moderación de la compañía se han reducido.

Las búsquedas en Twitter el lunes por la mañana revelaron una amplia variedad de videos no moderados sin advertencias de contenido que parecen violar estas reglas, incluidos videos pornográficos.

Goldman dijo que no sabía cuál era el motivo de Musk, pero señaló el retroceso de la compañía en la moderación.

“La moderación del contenido ya es bastante difícil cuando se hace bien”, dijo, y agregó que la empresa tiene formas de alojar esos videos mientras protege a los usuarios. «La pregunta es, ¿por qué Twitter no puso esto detrás de una pantalla de advertencia y fue la elección equivocada?».

Ella Irwin, vicepresidenta de productos de Twitter que supervisa la confianza y la seguridad, no respondió de inmediato a una solicitud de comentarios sobre los videos de filmación del centro comercial. Musk tuiteó durante el fin de semana, ocasionalmente hablando de filmar para apoyar los esfuerzos de salud mental.

El portavoz de YouTube, Jack Malon, dijo en un correo electrónico que los equipos de confianza y seguridad de la compañía eliminaron los videos del tiroteo en el centro comercial del fin de semana que violaron las reglas de YouTube. Reglas de la comunidad.

Otro video menos gráfico mostraba sábanas blancas que cubrían cadáveres rodeados de sangre. Otro video de la cámara del tablero de un automóvil mostró el momento en que un hombre abrió fuego en el centro comercial. Otros videos provinieron de personas dentro del centro comercial que documentaron sus esfuerzos por esconderse hasta que llegó la ayuda.

Los videos de Brownsville, Texas, donde ocho personas murieron y otras 10 resultaron heridas por un SUV, también mostraron una escena brutal y sangrienta. Algunos de estos videos permanecen en vivo en Twitter y han sido vistos por NBC News.

En el caso del video del tiroteo en Graphic Mall, varias cuentas lo publicaron en Twitter en las horas posteriores al incidente. El lunes por la mañana, una búsqueda en Twitter mostró que la mayoría de esos tuits habían sido borrados, aunque no está del todo claro si fueron borrados por esos usuarios o por Twitter.

Los videos obtuvieron una respuesta rápida de muchos usuarios, algunos de ellos tuiteó almizcle directamente y pregunta para él pasar a la acción.

Este sentimiento no es unánime. Otros usuarios presionaron para que más personas vean los videos, argumentando que las imágenes perturbadoras deben ser vistas para que las personas comprendan completamente la escala de estas acciones violentas y la disponibilidad generalizada de armas de fuego en los EE. UU.

Es un punto que ha encontrado cierta tracción ya que el tema más amplio de la regulación de armas permanece congelado.

“Pensé mucho sobre si compartir el horrible video que muestra la pila de cuerpos del tiroteo masivo en el centro comercial en Allen, Texas”. tuiteó Jon Cooper, un recaudador de fondos demócrata que trabajó para el presidente Joe Biden y el expresidente Barack Obama.

“Pero tal vez, solo tal vez, la gente NECESITE ver este video, por lo que presionarán a sus funcionarios electos para que ACTUEN”, agregó.

El columnista de opinión del New York Times, Jamelle Bouie, también dijo que pensaba que la gente necesitaba ver las consecuencias de estos tiroteos, pero que también era importante saber quién los vio.

“Hace años escribí que el público necesitaba ver los resultados de nuestro experimento con la propiedad ilimitada de armas y todavía creo que eso es cierto. Esto incluye a la Corte Suprema”, Bouie tuiteó.

Emily Bell, directora fundadora del Tow Center for Digital Journalism de la Columbia Journalism School, ofreció un contrapunto.

“No hay nada virtuoso o ético en mostrar niños y adultos muertos fácilmente identificables, cuyas familias quizás aún no sepan que están muertos”, dijo Bell. tuiteó. «Es profundamente poco ético: roba a las víctimas y sus familias su privacidad y dignidad en la muerte. Solo sirve a la granja de clics de Musk».

La circulación abierta de videos gráficos después de eventos violentos es un hecho común en las redes sociales, y muchas plataformas de tecnología de consumo han trabajado para limitar mediante una combinación de intervención humana y sistemas automatizados capaces de identificar cuándo se repiten ciertos elementos multimedia. trabajo.

Muchas empresas de tecnología de consumo han invertido en esfuerzos para limitar la difusión de imágenes gráficas, especialmente después de eventos violentos. Pero la mayoría también tiene políticas que les permiten determinar si un video en particular es importante para que el público lo vea.

Entre los ejemplos más notables está el video del pistolero que mató a 49 personas en Christchurch, Nueva Zelanda, con Twitter y YouTube luchando para eliminar las copias cargadas repetidamente. Estos videos generalmente se consideran propaganda violenta.

Más recientemente, YouTube permitió que el video de la cámara del cuerpo de la policía de un tiroteo en la escuela permaneciera en línea, y la compañía dijo que el video era de interés público.

Goldman dijo que el pensamiento sobre la moderación ha cambiado desde los tiroteos en Christchurch y señaló ejemplos de fotos gráficas que ahora se consideran históricamente significativas, como la foto de «Napalm Girl».

“Ver esta foto ayudó a cambiar la visión estadounidense de la guerra de Vietnam”, dijo.

Aún así, Goldman dijo que no había un consenso claro sobre qué deberían hacer las plataformas con videos como los que surgieron durante el fin de semana.

“Los dilemas de moderación de contenido que enfrentan las empresas de Internet en estas circunstancias, no pueden complacer a todos”, dijo. «Siento que es otro momento como este».