
Recentemente, big techs como Google, Facebook, Twitter e outras participaram de uma audiência pública no Supremo Tribunal Federal (STF) para discutir a responsabilidade das plataformas em relação a conteúdos ilícitos postados por usuários. Embora haja discordância sobre a perspectiva da regulação da internet no Brasil, as empresas concordam sobre a necessidade de manter as normas existentes e rejeitar o aumento de sua responsabilidade por publicações dos usuários das redes sociais.

O Marco Civil da Internet é uma lei brasileira de 2014 que estabelece princípios, garantias, direitos e deveres para o uso da internet no país. A norma só responsabiliza as plataformas quando não há cumprimento de decisão judicial determinando a remoção de conteúdo postado por usuários. A exceção é para divulgação de imagens ou vídeos com cenas de nudez ou atos sexuais de caráter privado. Nesses casos, a plataforma deve remover o conteúdo a partir de notificação extrajudicial.

A questão de coibir a circulação de conteúdos de caráter golpista e criminoso tem ganhado destaque no Brasil depois dos atos de 8 de janeiro que resultaram na invasão e depredação das sedes dos Três Poderes, em Brasília. O ministro do STF Alexandre de Moraes considera o atual modelo de regulação de conteúdos na internet “falido” e “absolutamente ineficiente”. Entretanto, as empresas resistem à ideia de maior responsabilização das plataformas, alegando que isso não tornará a internet mais segura e levaria a um dever genérico de monitoramento de todo o conteúdo produzido pelos usuários.
Embora a posição das empresas seja contrária ao aumento de sua responsabilidade, o advogado Guilherme Cardoso Sanchez, da Google Brasil, propôs balizas para o caso de ampliação das hipóteses legais para a remoção extrajudicial de conteúdo. Para ele, não se pode responsabilizar diretamente as plataformas pelo conteúdo criado pelos usuários na internet, mas é preciso estabelecer garantias procedimentais e critérios que evitem a banalização, a insegurança jurídica e o incentivo econômico à censura. A consultora jurídica do Twitter, Jacqueline Abreu, concorda que as regras internas da plataforma estão sendo aprimoradas e já contemplam uma série de problemas, como identidade falsa, discurso violento, propagação de ódio e divulgação de material íntimo sem consentimento.
Os participantes da audiência concordam que a condição que parece convergir entre os que aceitam alguma ampliação na responsabilidade das big techs é a objetividade. Para que as plataformas removam alguma publicação de ofício ou a partir de notificação de usuário, é preciso que não haja dúvidas sobre a ilegalidade do que foi postado. Porém, ainda não há data para o julgamento das ações que tratam de trechos do Marco Civil da Internet e a responsabilidade de plataformas digitais sobre conteúdos ilícitos ou ofensivos postados por seus usuários pelo STF.