Se o STF declarasse que o texto é inconstitucional, recairia sobre as redes sociais o dever de fazer uma moderação constante e prévia. Assim, assumiriam a responsabilidade pelos conteúdos antes mesmo de uma ordem judicial ser recebida.
O RE 1057258, também aborda a moderação de conteúdo, mas refere-se a fatos ocorridos antes da promulgação do Marco Civil da Internet. Ele envolve uma professora de Minas Gerais que foi alvo de ofensas em uma comunidade no extinto Orkut.
Há ainda a Ação Direta de Inconstitucionalidade (ADI) 5527 e a Arguição de Descumprimento de Preceito Fundamental (ADPF) 403, movidas por causa de vereditos de diferentes tribunais brasileiros que ordenaram a suspensão do WhatsApp após a plataforma se negar a cumprir outras decisões judiciais no Brasil.
“Se há monetização, há responsabilização”, diz Patricia Peck, advogada especialista em direito digital e sócia da Peck Advogados.
Ela entende que, em um eventual julgamento das ações que afetam o Marco Civil, empresas poderiam amargar decisões da Corte que aumentassem o seu dever perante a soceidade.
“Tendo em vista declarações recentes dos Ministros na imprensa e teor da audiência pública realizada, a corte parece estar inclinada a ocupar a lacuna que a mudança da realidade e do modelo de negócios ocasionou”, comenta.
O ministro Gilmar Mendes chegou a afirmar publicamente que defendia a modernização da legislação.
“O regime jurídico do Marco Civil da internet, embora tenha sido inegavelmente importante para preservação da liberdade de expressão online, precisa ser urgentemente revisto”, disse em evento, no dia 13 de maio. “É preciso um meio do caminho entre liberdade total das plataformas e controle estatal.”
Os julgamentos do STF sobre as quatro ações envolvendo o Marco Civil eram esperados para a segunda quinzena de junho, mas não aconteceram.
Quem deve decidir?
“A porta de entrada para essas definições tem que ser as plataformas, e não o Judiciário”, diz Rony Vainzof, coordenador da pós-graduação em Direito Digital da Escola Paulista de Direito.
Para ele, o maior problema em deixar discussões complexas centradas no governo é a falta de clareza sobre os processos internos das plataformas: métodos, dados e modelos adotados no chamado “devido processo informacional”.
“Há de se exigir que plataformas publicizem regras de moderação de comportamento. A partir daí, podemos pesquisar sobre isso, estimularmos novos debates e avaliar se existem plataformas que não combatem discurso de ódio”, pontua.
Nina Santos, coordenadora-geral do Desinformante, projeto de combate à desinformação no Brasil, também entende que o STF não deve, em um cenário ideal, ser o ponto de partida para um novo momento regulatório.
Ela defende, por outro lado, a volta da pauta para o Legislativo. “Precisamos sair da excepcionalidade e entrar na ordinariedade.
O uso da internet é ordinário, usamos todos os dias, então não precisamos ficar pautados por decisões extraordinárias. Precisamos de algo estrutural”, diz.
A melhor chance para o Brasil conseguir algum avanço na pauta, sugere Santos, seria a retomada das discussões em torno do PL 2630.
“Por não ter sido votado, não ajuda. Há um enfraquecimento da pauta. Não é facil conseguir espaço para o tema de regulação de plataformas, mas, hoje, é o caminho mais forte, que pode construir algo melhor e mais duradouro”, defende.
Google quer evitar regulação “perversa”
Na última terça-feira (27), durante o evento Google for Brasil 2023, o presidente do Google Brasil, Fabio Coelho, afirmou que a empresa quer evitar uma legislação “aparentemente boa”, mas que possa vir a ser “perversa” para todos.
Em coletiva de imprensa durante o evento anual Google for Brasil, o executivo disse que a empresa não é contra a regulação das plataformas digitais e que está em diálogo com as autoridades brasileiras para discutir o tema.
Ele ressaltou que a empresa está em discussões com autoridades brasileiras, incluindo a Agência Nacional de Telecomunicações (Anatel) e o relator do PL, Orlando Silva, para definir uma regulação benéfica para todos.
O que dizem as outras empresas
Procurada pelo Byte, a Meta afirmou que seus posicionamentos sobre a discussão estavam em uma publicação no blog da companhia.
De acordo com o texto, a declaração de inconstitucionalidade do Artigo 19 representa um risco, pois poderia resultar em uma remoção excessiva de conteúdos subjetivos pelas plataformas, visando mitigar riscos jurídicos.
Isso, diz a empresa, poderia levar à exclusão de conteúdos críticos, essenciais para o debate público e a democracia, mesmo que não violem as leis locais ou as regras das plataformas. Essa situação comprometeria a liberdade de expressão e poderia tornar a internet no Brasil menos dinâmica e inovadora, segundo a Meta.
No Canadá, Google e Meta recentemente reagiram à aprovação de uma lei que regulamenta pagamentos de plataformas ao jornalismo e retiraram do se seus serviços links de notícias do país.
Procurado, o app Telegram não respondeu à reportagem até o momento de sua publicação. A mensagem disparada em maio, em seu canal oficial na plataforma, dizia que o Brasil estava prestes a aprovar uma lei que ameaçará a liberdade de expressão.
O texto enfatizou que a democracia estava sob ataque e afirma que o PL das Fake News concederia poder de censura ao governo. O Telegram argumentou que a proposta transferirá para os aplicativos o poder de decidir quais conteúdos são “ilegais”, em vez de deixar essa responsabilidade para os tribunais.
No dia seguinte à postagem, o ministro do STF Alexandre de Moraes deu uma hora para o Telegram apagar a mensagem contra o PL, sob o argumento de que ela trazia “flagrante e ilícita desinformação atentatória ao Congresso Nacional, ao Poder Judiciário, ao estado de direito e à democracia brasileira”.
A ordem foi atendida pelo aplicativo.