El pasado lunes la Corte Suprema de los Estados Unidos aceptó a trámite una demanda contra Google LLC que plantea en esencia, con el fin de unificar doctrina respecto a la Ley de Decencia en las Comunicaciones (CDA) de Estados Unidos, si la sección 230 protege las “recomendaciones” que realizan plataformas como YouTube, o si dicha protección se limita a las funciones editoriales tradicionales[1].

Esto tiene que ver con el origen de la demanda, y con que no hay uniformidad jurisprudencial. Respecto a la primera, la familia González perdió a su hija Nohemi González, de 23 años, en noviembre de 2015 en el atentado yihadista en la sala Bataclan, de París. En la demanda, la familia González argumenta que los algoritmos de recomendación automáticos que YouTube utiliza fueron un vehículo necesario para la radicalización de terroristas que posteriormente se unieron a la yihad; es decir, el sistema de recomendación de YouTube (y por ende Google) había ayudado al grupo ISIS a desarrollarse y conseguir adeptos, lo cual en palabras del tribunal:

 

La aplicación del artículo 230 a dichas recomendaciones elimina todos los incentivos de responsabilidad civil para que los servicios informáticos interactivos eviten recomendar dichos materiales nocivos, y niega la reparación a las víctimas que podrían haber demostrado que dichas recomendaciones habían causado sus lesiones, o la muerte de sus seres queridos[2].

 

¿Por qué es esto importante? Porque supondría, desde la entrada en vigor de la CDA en los años 90, el primer precedente de limitación de la protección concedida a los proveedores de servicios de internet, respecto a contenido generado por los usuarios.

Con la sección 230 se prohíbe a los tribunales admitir a trámite demandas que busquen configurar a un proveedor de servicios como responsable por realizar las tareas que tradicionalmente pertenecen a los editores, como decidir qué publicar, retirar, posponer o alterar.

 

Ejemplos de desestimación de causas con fundamento en la CDA son los casos Zeran v. American Online, Reno v. ACLU, etc. Desde la entrada en vigor de la CDA, los tribunales siempre han fallado a favor de otorgar protección a los proveedores de servicios de internet, fundamentándose en la protección de la libertad de expresión y de información en la red, consagrados en la primera enmienda a la Constitución de los EE.UU.

La familia cuestiona si la protección de dicha disposición se limita a las funciones tradicionales de un editor, o si también se incluye las funciones de autorecomendación de estos sistemas guiados por algoritmos.

 

Esto podría tener dos soluciones: establecer que dichos proveedores serán responsables por las recomendaciones realizadas por sus algoritmos cuando el contenido de estas sea difamatorio, vejatorio, o peligroso para la seguridad pública; o dejar fuera de la sección 230 a las recomendaciones realizadas por algoritmos autónomos, dado que la propia plataforma estaría sugiriendo de forma directa contenido alojado en sus servidores al usuario que, de otra forma, no habría accedido al mismo, y por tanto, estaría reconociendo “de facto” que es consciente del mismo. En ambos casos, sin la ayuda del sistema de recomendación de la plataforma, el usuario no habría accedido al contenido, que a ojos de la familia González, fue clave en la radicalización de las personas que cometieron los atentados de París.

Si bien es complicado poder aventurar un posible resultado, probablemente la Corte Suprema mantenga la línea jurisprudencial actual, incluyendo las “recomendaciones” dentro de las exenciones de la sección 230. Alegará proteger la libertad de expresión y prensa, consagradas en la primera enmienda, y que la pregunta no está lo suficientemente definida para responsabilizar a los proveedores de servicios de internet de lo publicado en sus plataformas, ni limitar de esa forma derecho alguno.

 

No obstante, resulta interesante el cambio de tendencia en la interpretación de la privacidad y la responsabilidad en EE.UU., virando hacia posiciones próximas a la sensibilidad mantenida por la Unión Europea.

Diferentes tribunales se han pronunciado a favor de establecer responsabilidades respecto a contenido publicado por los usuarios (Force v. Facebook, y Dyroff v. Ultimate Software Group, Inc) acercándose a posiciones europeas, donde si una plataforma recibe el aviso de que existe contenido difamatorio, vejatorio, o similar, y no lo elimina, estará incurriendo en responsabilidad por su inacción, como dispone la Directiva 2000/31/CE, sobre el Comercio Electrónico[3], donde se diferencia entre los diferentes proveedores de servicios, entre proveedores activos y pasivos, y la responsabilidad que cada rol conlleva. Con la aprobación el 23 de abril de 2022, de la propuesta de  Reglamento de Servicios Digitales[4], que modifica la Directiva de Comercio Electrónico, que entrará en vigor el 1 de enero de 2024, la responsabilidad de estos proveedores aumenta, acomodando la normativa a las nuevas tecnologías.

 

Habrá que esperar el fallo de la Corte Suprema de los Estados Unidos, para confirmar si hay cambio de rumbo, con la mayor seguridad para los ciudadanos que ello implicaría, o si todo sigue igual, y los ciudadanos americanos seguirán viviendo en el Salvaje Oeste de internet.

Autor: Jaume Mourisco Ayuso.

Visite nuestra página web.