18 de dezembro de 2024

STF pode decidir hoje sobre responsabilização de redes sociais

Plenário do Supremo se reúne novamente e pode dar uma decisão definitiva sobre o tema que coloca em jogo a liberdade de expressão dos usuários e a atuação das big techs

Marco Civil da Internet: tema é tratado há três semanas e os ministros que ainda faltam se manifestar devem proferir seus votos no plenário -  (crédito: Antonio Augusto/STF)
Marco Civil da Internet: tema é tratado há três semanas e os ministros que ainda faltam se manifestar devem proferir seus votos no plenário – (crédito: Antonio Augusto/STF)

O Supremo Tribunal Federal (STF) pode dar um passo decisivo para a atuação de plataformas digitais no Brasil nesta quarta-feira (18/12). Está em andamento na Corte a análise do artigo 19 do Marco Civil da Internet. Trata-se da terceira semana em que o tema é debatido e os ministros que ainda faltam se manifestar devem proferir seus votos no plenário. De um lado, as big techs que alegam que a derrubada do artigo pode prejudicar a liberdade de expressão. De outro, entidades que pedem combate ao discurso de ódio do extremismo on-line Até o momento, votaram dois ministros: Dias Toffoli e Luiz Fux. O voto de Toffoli é considerado de grande relevância, pois ele é o relator das ações apresentadas em relação ao tema. Isso significa que cabe a ele avaliar os processos e dar um parecer, que pode ou não ser seguido pelos demais. Toffoli votou para invalidar o artigo 19 da lei, que determina que as empresas de tecnologia que operam grandes plataformas só podem ser responsabilizadas por conteúdos publicados por usuários após receberem uma ordem judicial para removê-los.

Caso o trecho da lei em discussão seja invalidado, as empresas poderão ser responsabilizadas mesmo que não exista ordem judicial para remover conteúdo que se entende por criminoso, como discurso de ódio, ataques a instituições, racismo, nazismo, pedofilia e execução ou difusão do incentivo a outras práticas delitivas — que representem crime previsto em lei.

Durante seu voto, Toffoli destacou que a falta de regulação das redes sociais e de outros aspectos do mundo digital abre espaço para ódio, disseminação de informações falsas e ataques contra as reputações das pessoas.

“A falta de uma regulação clara sobre os limites da liberdade de expressão fomenta a disseminação, sem qualquer controle, de teorias da conspiração; dá causa ao sectarismo, à polarização e ao extremismo e à difusão de discursos de ódio; enfim, propicia o surgimento de um novo tipo de violência que já não podemos ignorar, a violência digital, caracterizada pelo emprego da tecnologia disponível para ameaçar, humilhar, assediar, manipular ou expor alguém, sem consentimento, no ambiente virtual, causando danos emocionais, psicológicos, sociais e até físicos às vítimas”, disse.

O magistrado também destacou que, para não prejudicar a liberdade de imprensa, sites, blogs e demais veículos jornalísticos presentes nas plataformas digitais respondem de maneira exclusiva pelos conteúdos postados com base na lei do direito de resposta, sancionada em 2015. “Eu, sinceramente, com a devida vênia, com todo respeito, entendo que manter o 19 é manter uma aberração jurídica no ordenamento brasileiro.”

Liberdade de expressão

A discussão sobre o Marco Civil da Internet gira em torno da liberdade de expressão. As big techs alegam que não tem capacidade técnica para avaliar comentário por comentário e que alterações na forma como a lei é aplicada hoje podem limitar a liberdade dos usuários em difundir suas ideias na rede. As empresas de tecnologia usam uma sequência de regras lógicas para colocar no ar plataformas de redes sociais e mantê-las em funcionamento. O conjunto destas regras é chamado de algoritmo.

Porém, especialistas apontam que o algoritmo é programado para ampliar o alcance de conteúdo extremista, provocador, discurso de ódio e informações falsas. Pois este tipo de publicação tem maior poder de engajamento, ou seja, provoca a interação dos usuários e impulsiona a entrega do conteúdo para os usuários. Consequentemente, as plataformas atraem mais pessoas e ampliam seus lucros em troca da difusão de informações que atentam contra direitos fundamentais. Da maneira como a lei prevê atualmente, o conteúdo pode ficar dias, semanas e até meses no ar antes de ser retirado por uma determinação da Justiça.

José Jance Grangeiro, jornalista, advogado e pesquisador do Mestrado em Comunicação Digital (IDP) e do Doutorado em Direito (UnB), afirma que a busca por lucro e por manter usuários navegando por mais tempo faz com que se aplique pouco esforço no controle de conteúdo criminoso.

“As plataformas lucram mais com conteúdos engajadores — o que frequentemente inclui conteúdo extremista, provocador ou desinformativo —, fragmentando ainda mais o discurso público. Inclusive, o volume de tempo e engajamento dos usuários é a moeda de medida do valor dessas empresas nas bolsas de valores. Elas literalmente lucram mais quando circulam conteúdos tóxicos”, salienta.

Questionado se as plataformas não passaram a atuar como julgadoras do conteúdo postado pelos usuários, podendo remover conteúdo que não é ilegal por temer protestos, Jance afirma que, atualmente, praticamente não existem meios de denunciar conduta criminosa nas redes dentro dos próprios sites de rede social.

“Plataformas não vão atuar como ‘julgadoras’ dos usuários, mas vão ter que, no mínimo, criar condições para que haja a avaliação dos conteúdos e o alinhamento aos parâmetros legais. Hoje, na prática, elas sequer avaliam essas denúncias sem que haja uma determinação judicial. Não está em jogo qualquer punição aos usuários, que já podem responder legalmente pelos conteúdos que publicam”, completa.

Fabrício Polido, sócio de LO Baptista, especialista em direito digital, diz não acreditar que o Supremo “possa avançar na criação de novas tipologias de conteúdo infrativo sem base legal preexistente”, mas que a derrubada do artigo da lei em questão pode levar a remoção de conteúdos de maneira ampla, prejudicando o usuários.

“Não vejo qualquer decisão que restringe direitos para usuários; por outro lado, se cai o art.19 do MCI, voltaremos às práticas vigentes até abril de 2015. Por incentivo judicial, Será um festival de remoções aleatórias de conteúdo disponível nas plataformas por mera notificação de usuários”, ressalta.

Siga o canal do Correio no WhatsApp e receba as principais notícias do dia no seu celular

Em nota, a Meta, dona do Facebook, Instagram, WhatsApp e outros, sustenta que já mantém normas de moderação de conteúdo. “O Artigo 19 do Marco Civil da Internet é reconhecido internacionalmente por estabelecer que intermediários como plataformas digitais só podem ser responsabilizados por conteúdo de terceiros se não o removerem após receberem uma ordem judicial válida para fazê-lo. Isso não significa que as plataformas não tenham regras que proíbam conteúdos nocivos como violência, incitação e abuso infantil. Na Meta, usamos tecnologia automatizada e revisão humana para identificar e agir sobre conteúdos que violam essas políticas”, diz.

A Meta alega ainda que, se o artigo 19 do Marco Civil for derrubado pelo Supremo, a prática será a remoção de conteúdos mesmo que não violem leis locais.

“Nas últimas semanas, respeitados especialistas em internet no Brasil e boa parte da imprensa nacional têm alertado que, se o Artigo 19 for declarado inconstitucional, as incertezas jurídicas deixariam o país dissonante da comunidade internacional. As plataformas digitais seriam sujeitas a um regime amplo de notificação e remoção e, ao mesmo tempo, poderiam ser responsabilizadas por praticamente todos os tipos de conteúdo mesmo sem que tenham sido notificadas.Elas seriam incentivadas a remover conteúdos subjetivos que não necessariamente violam leis locais ou regras das plataformas, em um esforço preventivo para evitar responsabilidade”, destaca.

Fonte:correiobraziliense.

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Open chat