WASHINGTON — La Corte Suprema revocó el jueves un fallo de protección legal que protege a las empresas de Internet de demandas relacionadas con contenido publicado por usuarios en un caso que involucra acusaciones de que YouTube era responsable de sugerir videos que promueven un islam militante violento.

El tribunal, en una breve opinión sin firmar, dejó abierta la cuestión legal de si las protecciones de responsabilidad en la Sección 230 de la Ley de Decencia en las Comunicaciones protegían la supuesta conducta de YouTube.

De hecho, en un caso relacionado que involucra reclamos similares contra Twitter, el tribunal dictaminó el jueves que tales reclamos no podían presentarse en primer lugar bajo una ley federal llamada Ley Antiterrorista. Como resultado, es probable que las demandas de YouTube y Twitter se desestimen sin que los tribunales tengan que abordar los problemas de la Sección 230.

La Corte Suprema devolvió ambos casos a los tribunales inferiores para su consideración adicional.

La demanda de YouTube acusó a la empresa propiedad de Google de tener alguna responsabilidad en el asesinato de Nohemi González, una estudiante estadounidense, durante los ataques de París de 2015 llevados a cabo por el grupo terrorista Estado Islámico.

En el caso de Twitter, la empresa fue acusada de ayudar e incitar a la difusión de la ideología islamista militante de una manera que contribuyó a la muerte de un ciudadano jordano asesinado en un ataque terrorista.

Los jueces dictaminaron en una votación de 7 a 2 que los familiares de Nawras Alassaf, quien fue asesinado en Estambul en 2017, no pueden continuar con las acusaciones de que Twitter, Google y Facebook fueron responsables de ayudar e instigar el ataque en virtud de la Ley Antiterrorista.

El caso de YouTube estaba siendo observado de cerca por la industria tecnológica, ya que las recomendaciones ahora son la norma para los servicios en línea, y no solo para YouTube. Plataformas como Instagram, TikTok, Facebook y Twitter hace tiempo que comenzaron a depender de motores de recomendación o algoritmos para decidir qué ve la gente la mayor parte del tiempo, en lugar de centrarse en los flujos cronológicos.

La potencial reforma de la Sección 230 es un área en la que el presidente Joe Biden y algunos de sus críticos republicanos más acérrimos están de acuerdo, aunque discrepan sobre por qué y cómo debería hacerse.

Los conservadores generalmente dicen que las empresas censuran el contenido de manera inapropiada, mientras que los liberales dicen que las empresas de redes sociales están difundiendo una peligrosa retórica de derecha y que no hacen lo suficiente para detenerla. Aunque la Corte Suprema tenía una mayoría conservadora de 6-3, no estaba claro cómo abordaría el tema.

González, de 23 años, estudiaba en Francia cuando fue asesinada mientras cenaba en un restaurante durante la ola de ataques terroristas perpetrados por el Estado Islámico.

Su familia afirma que YouTube ayudó a ISIS a difundir su mensaje. La demanda se enfoca en el uso de algoritmos de YouTube para sugerir videos a los usuarios en función del contenido que ya han visto. El papel activo de YouTube va más allá del tipo de conducta que el Congreso pretende proteger con la Sección 230, según los abogados de la familia.

La familia presentó la juicio en 2016 en un tribunal federal en el norte de California y espera perseguir las acusaciones de que YouTube violó la Ley Antiterrorista, que permite a las personas demandar a personas o entidades que «ayudan e instigan» actos terroristas.

Citando la Sección 230, un juez federal desestimó la demanda. Esta decisión fue confirmada por la Corte de Apelaciones del Noveno Circuito de EE. UU. con sede en San Francisco en una decisión de junio de 2021 que también resolvió casos similares que las familias de otras víctimas de ataques terroristas habían presentado contra empresas tecnológicas.