WASHINGTON — La Corte Suprema dictaminó el martes por primera vez sobre la cuestión oportuna de si las empresas de tecnología aún son inmunes a la responsabilidad legal en disputas que surjan del contenido problemático publicado por los usuarios.

Los jueces escucharán argumentos orales en un caso que alega que al recomendar videos que difunden ideología islamista violenta, YouTube tiene parte de la responsabilidad por el asesinato de Nohemi González, una estudiante estadounidense, en los ataques de París de 2015 perpetrados por el grupo terrorista Estado Islámico.

La cuestión es si existen límites al escudo de responsabilidad de las empresas de Internet que el Congreso promulgó en 1996 como parte de la Ley de Decencia en las Comunicaciones. La Corte Suprema nunca antes había abordado el tema, incluso cuando el poder y la influencia de Internet se han disparado.

El caso, que según las empresas de tecnología podría cambiar el funcionamiento actual de Internet, se refiere a si la Sección 230 se puede aplicar a situaciones en las que las plataformas recomiendan activamente contenido a los usuarios que utilizan algoritmos.

El nuevo problema legal ha dado lugar a algunas alianzas ideológicas inusuales, con la administración Biden y algunos de los principales legisladores republicanos, incluidos los Sens. Ted Cruz de Texas y Josh Hawley de Missouri, habiendo presentado informes que respaldan al menos algunos de los argumentos legales de la familia González.

La reforma potencial de la Sección 230 es un área en la que el presidente Joe Biden y algunos de sus críticos más acérrimos están de acuerdo, aunque no están de acuerdo sobre por qué y cómo debería hacerse.

Los conservadores generalmente dicen que las empresas censuran el contenido de manera inapropiada, mientras que los liberales dicen que las empresas de redes sociales están difundiendo una peligrosa retórica de derecha y que no hacen lo suficiente para detenerla. Aunque la Corte Suprema tiene una mayoría conservadora de 6-3, no está claro cómo abordará el tema.

Nohemí González.Estado de California a través de Facebook

González, de 23 años, estudiaba en Francia cuando fue asesinada mientras cenaba en un restaurante durante la ola de ataques terroristas perpetrados por el Estado Islámico.

Su familia afirma que YouTube, propiedad de Google, ayudó a ISIS a difundir su mensaje. La demanda se enfoca en el uso de algoritmos de YouTube para sugerir videos a los usuarios en función del contenido que ya han visto. El papel activo de YouTube va más allá del tipo de conducta que el Congreso pretende proteger con la Sección 230, según los abogados de la familia.

La familia presentó la juicio en 2016 en un tribunal federal en el norte de California y espera perseguir las acusaciones de que YouTube violó la Ley Antiterrorista, que permite a las personas demandar a personas o entidades que «ayudan e instigan» actos terroristas.

Citando la Sección 230, un juez federal desestimó la demanda. Esta decisión fue confirmada por la Corte de Apelaciones del Noveno Circuito de EE. UU. con sede en San Francisco en una decisión de junio de 2021 que también resolvió casos similares que las familias de otras víctimas de ataques terroristas habían presentado contra empresas tecnológicas.

El eventual fallo de la Corte Suprema podría tener amplias ramificaciones, ya que las recomendaciones ahora son la norma para los servicios en línea, no solo para YouTube. Plataformas como Instagram, TikTok, Facebook y Twitter hace tiempo que comenzaron a depender de motores de recomendación o algoritmos para decidir qué ve la gente la mayor parte del tiempo, en lugar de centrarse en los flujos cronológicos.

El argumento del martes es la primera parte de un doble encabezado de una empresa de redes sociales ante el Tribunal Superior. El miércoles, los jueces escucharán una apelación relacionada presentada por Twitter sobre si la empresa puede ser considerada responsable bajo la ley de terrorismo.

La misma corte de apelaciones que manejó el caso González ha sido reactivada reclamaciones presentadas por familiares de Nawras Alassaf, un ciudadano jordano asesinado en un ataque terrorista en Estambul en 2017. La familia acusó a Twitter, Google y Facebook de ayudar e incitar a la difusión de la ideología islamista militante, lo que las empresas niegan. La cuestión de la inmunidad en virtud del artículo 230 aún no se ha abordado en este caso.

La Corte Suprema se negó anteriormente a tomar casos sobre la Sección 230. El juez conservador Clarence Thomas lo criticó, citando el poder de mercado y la influencia de los gigantes tecnológicos.

david ingram contribuido.