
La Corte Suprema elude fallo sobre el alcance de la Sección 230
La Corte Suprema otorgó dos victorias a las plataformas tecnológicas el jueves al negarse en dos casos a responsabilizarlas por el contenido publicado por sus usuarios.
En un caso que involucra a Google, el tribunal rechazó por ahora los esfuerzos para limitar el alcance de la ley que libera a las plataformas de responsabilidad por el contenido del usuario, Sección 230 de la Ley de Decencia en las Comunicaciones.
En un caso separado relacionado con Twitter, el tribunal dictaminó por unanimidad que otra ley que permite demandas por ayudar al terrorismo no se aplica a las actividades ordinarias de las empresas de redes sociales.
Los fallos no resolvieron definitivamente la cuestión de qué responsabilidad deberían tener las plataformas por el contenido publicado y recomendado por sus sitios, un tema que se ha vuelto cada vez más apremiante a medida que las redes sociales se han vuelto omnipresentes en la vida moderna. Pero la decisión del tribunal de aprobar por ahora, la aclaración de la amplitud de la Sección 230, que data de 1996, fue aplaudida por la industria de la tecnología, que durante mucho tiempo ha presentado la ley como parte integral del desarrollo de Internet.
'Las empresas, los académicos, los creadores de contenido y las organizaciones de la sociedad civil que se unieron a nosotros en este caso se sentirán tranquilos con este resultado', dijo Halimah DeLaine Prado, consejera general de Google, en un comunicado.
El caso de Twitter se refería a Nawras Alassaf, quien murió en un ataque terrorista en el club nocturno Reina en Estambul en 2017 por el cual el Estado Islámico se atribuyó la responsabilidad. Su familia demandó a Twitter, Google y Facebook, diciendo que habían permitido que ISIS usara sus plataformas para reclutar y entrenar terroristas.
El juez Clarence Thomas, escribiendo para el tribunal, dijo que 'las alegaciones de los demandantes son insuficientes para establecer que estos acusados ayudaron e instigaron a ISIS en la realización del ataque relevante'.
Escribió que los acusados transmitieron cantidades asombrosas de contenido. 'Parece que por cada minuto del día, se suben aproximadamente 500 horas de video a YouTube, se publican 510,000 comentarios en Facebook y se envían 347,000 tuits en Twitter', dijo el juez Thomas. escribió.
Y reconoció que las plataformas usan algoritmos para dirigir a los usuarios hacia el contenido que les interesa.
'Entonces, por ejemplo', escribió el juez Thomas, 'es más probable que una persona que mira programas de cocina en YouTube vea videos de cocina y anuncios de libros de cocina, mientras que alguien a quien le gusta ver conferencias de profesores podría ver debates universitarios y anuncios de TED. Negociaciones.
'Pero', agregó, 'no todo el contenido de las plataformas de los acusados es tan benigno'. En particular, 'ISIS subió videos que recaudaron fondos para armas de terror y que mostraban ejecuciones brutales de soldados y civiles por igual'.
El hecho de que las plataformas no eliminaran dicho contenido, escribió el juez Thomas, no fue suficiente para establecer la responsabilidad por ayudar e instigar, lo que, según dijo, requería alegaciones plausibles de que 'prestó tal conocimiento y asistencia sustancial a ISIS que participó culpablemente en el ataque de Reina. '
Los demandantes no habían superado ese obstáculo, escribió el juez Thomas. 'Las afirmaciones de los demandantes están lejos de alegar plausiblemente que los acusados ayudaron e instigaron el ataque de Reina', escribió.
Los algoritmos de las plataformas no cambiaron el análisis, escribió.
'Los algoritmos parecen agnósticos en cuanto a la naturaleza del contenido, haciendo coincidir cualquier contenido (incluido el contenido de ISIS) con cualquier usuario que tenga más probabilidades de ver ese contenido', escribió el juez Thomas. algunos usuarios, por lo tanto, no convierte la asistencia pasiva de los acusados en instigación activa'.
Un fallo contrario, agregó, expondría a las plataformas a una responsabilidad potencial por 'todos y cada uno de los actos terroristas de ISIS cometidos en cualquier parte del mundo'.
La decisión del tribunal en el caso, Twitter v.Taamneh, No.21-1496, permitió a los jueces evitar pronunciarse sobre el alcance de la Sección 230, una ley destinada a nutrir lo que entonces era una creación naciente llamada Internet.
La Sección 230 fue una reacción a una decisión que responsabilizaba a un tablero de mensajes en línea por lo que un usuario había publicado porque el servicio había realizado alguna moderación de contenido. La disposición decía: 'Ningún proveedor o usuario de un servicio informático interactivo será tratado como el editor o hablante de cualquier información proporcionada por otro proveedor de contenido de información'.
La Sección 230 ayudó a permitir el surgimiento de grandes redes sociales como Facebook y Twitter al garantizar que los sitios no asumieran responsabilidad legal con cada nuevo tuit, actualización de estado y comentario. personas a publicaciones y videos que promovían el extremismo, incitaban a la violencia, dañaban la reputación y causaban angustia emocional.
El caso contra Google fue presentado por la familia de Nohemi González, una estudiante universitaria de 23 años que fue asesinada en un restaurante en París durante los ataques terroristas allí en noviembre de 2015, que también tuvieron como objetivo la sala de conciertos Bataclan. Los abogados de la familia argumentaron que YouTube, una subsidiaria de Google, había usado algoritmos para enviar videos del Estado Islámico a los espectadores interesados.
En una breve opinión sin firmar en el caso, Gonzalez v.Google, No.21-1333, el tribunal dijo que no 'abordaría la aplicación de la Sección 230 a una demanda que parece indicar poca o ninguna reclamación plausible de reparación. .' En cambio, el tribunal devolvió el caso a la corte de apelaciones 'a la luz de nuestra decisión en Twitter'.
No está claro qué significará el fallo para los esfuerzos legislativos para eliminar o modificar el escudo legal.
Un grupo creciente de legisladores, académicos y activistas bipartidistas se han vuelto escépticos sobre la Sección 230 y dicen que ha protegido a las gigantes tecnológicas de las consecuencias de la desinformación, la discriminación y el contenido violento en sus plataformas.
En los últimos años, han presentado un nuevo argumento: que las plataformas pierden sus protecciones cuando sus algoritmos recomiendan contenido, orientan anuncios o introducen nuevas conexiones a sus usuarios. Estos motores de recomendación son omnipresentes y potencian funciones como la función de reproducción automática de YouTube y las sugerencias de cuentas de Instagram. a seguir. Los jueces han rechazado en su mayoría este razonamiento.
Los miembros del Congreso también han pedido cambios en la ley. Pero las realidades políticas han impedido en gran medida que esas propuestas ganen tracción. Los republicanos, enojados por las empresas tecnológicas que eliminan publicaciones de políticos y editores conservadores, quieren que las plataformas eliminen menos contenido. Los demócratas quieren las plataformas para eliminar más, como información falsa sobre Covid-19.
Los críticos de la Sección 230 tuvieron respuestas mixtas a la decisión de la corte, oa la falta de una, en el caso de González.
La senadora Marsha Blackburn, una republicana de Tennessee que ha criticado las principales plataformas tecnológicas, dijo en Twitter que el Congreso necesitaba intervenir para reformar la ley porque las empresas 'hacen la vista gorda' ante las actividades dañinas en línea.
Hany Farid, profesor de ciencias de la computación en la Universidad de California, Berkeley, quien firmó un escrito apoyando el caso de la familia González, dijo que estaba alentado porque la corte no había ofrecido una defensa total del escudo de responsabilidad de la Sección 230.
Agregó que pensaba que 'la puerta aún está abierta para un mejor caso con mejores hechos' para desafiar la inmunidad de las plataformas tecnológicas.
Las empresas tecnológicas y sus aliados han advertido que cualquier modificación de la Sección 230 provocaría que las plataformas en línea eliminen mucho más contenido para evitar posibles responsabilidades legales.
Jess Miers, asesor legal de Chamber of Progress, un grupo de cabildeo que representa a firmas tecnológicas como Google y Meta, la empresa matriz de Facebook e Instagram, dijo en un comunicado que los argumentos en el caso dejaron en claro que 'cambiar la interpretación de la Sección 230 crearía más problemas de los que resolvería'.
David McCabe contribuyó con el reportaje.