Gustavo Binenbojm
O Globo
O STF marcou para novembro o julgamento sobre a constitucionalidade do art. 19 do Marco Civil da Internet (MCI). Trata-se da norma que prevê que os provedores de serviços digitais, como o YouTube e o Facebook, só poderão ser responsabilizados pelas postagens feitas em suas redes quando e se vierem a receber uma decisão judicial que lhes imponha a remoção daquele conteúdo específico e, ainda assim, decidam não retirá-lo.
Antes disso, as plataformas estão livres para distribuir mensagens com crimes de ódio, terrorismo, racismo ou qualquer outro atentado à vida, à saúde ou às instituições democráticas, sem responder pelos danos resultantes dessas postagens, ainda que tenham tomado ciência prévia da natureza ilícita daqueles conteúdos.
IMUNIDADE – O art. 19 apresenta uma curiosa autojustificativa: a liberdade de expressão. Foi um argumento comum em alguns círculos, quando a internet ainda era idealizada como a nova Ágora: se as plataformas respondessem pelos danos que causam à sociedade, acabariam por adotar uma postura de indesejável censura privada, passando a derrubar qualquer conteúdo controvertido postado em suas redes.
Necessitariam por isso do privilégio da imunidade conferido pelo art. 19 para manter um espaço livre às diversas formas de expressão. Nenhuma pessoa minimamente informada acredita mais nisso.
As plataformas digitais se tornaram o escoadouro de terríveis características humanas: desinformam, disseminam ódio e promovem divisão social. É como se a lei tivesse permitido que, em ambientes específicos, diversas atividades ilícitas pudessem ser praticadas livremente e sem qualquer consequência legal.
EXCEÇÕES – Existem duas exceções a essa benesse: para a divulgação sem consentimento de cenas de nudez e pornografia ou de conteúdos protegidos pelo direito autoral (como filmes, músicas e espetáculos esportivos), a notificação da vítima gera a responsabilidade da plataforma.
Ciente da ilegalidade, ela pode tomar as providências para a retirada do conteúdo ou, caso entenda de modo diferente, arcar com os danos que causar. Não custa lembrar, a regra para todos os demais mortais é a de responsabilizarem-se pelas consequências de seus atos, independentemente de qualquer notificação.
A Constituição contém extensa lista de direitos individuais e coletivos e prevê a responsabilidade de reparação dos danos decorrentes da sua violação. Entre eles estão os direitos à honra e à privacidade, que a exceção da pornografia protege, e o direitos dos autores sobre suas obras.
SOMENTE DOIS – Mas o que justifica que apenas esses dois direitos recebam a proteção da lei, e não os demais? Por que uma vítima de racismo ou homofobia tem que recorrer ao Judiciário para que seja retirada de uma plataforma digital a mensagem em que é humilhada, ofendida ou discriminada, enquanto ao titular de direitos autorais basta notificar o provedor?
Existe na Constituição alguma previsão que justifique esse tratamento assimétrico dos direitos fundamentais?
Só quem sente na pele o horror de uma mensagem difamante ou preconceituosa sabe o quanto é inútil buscar proteção em um processo judicial, que levará meses, às vezes anos, para fazer cessar a ofensa postada.
INCITAÇÃO AO ÓDIO – Ainda piores são os casos de ofensa a direitos coletivos, como em discursos de incitação ao ódio e à violência contra minorias, o abuso de crianças e adolescentes, terrorismo, além de ações coordenadas de desinformação em campos sensíveis como saúde pública, eleições e funcionamento da democracia.
Em todos esses casos, a retirada dos conteúdos ofensivos depende de decisão judicial — e até que seja intimada da decisão, a plataforma digital, que dissemina e lucra com o conteúdo ilícito, não pode ser responsabilizada — ou seja, nada tem a temer.
As plataformas detêm a tecnologia e os meios para monitorar e retirar de circulação os conteúdos ilícitos postados em suas redes (a ausência de conteúdo pornográfico nas grandes plataformas é um exemplo cabal).
CONTROLE AMENO – O regime de notice and take down (sistema de aviso e retirada) permite que esse processo se dê de forma ainda mais confortável para as plataformas, uma vez que a responsabilidade só nasce a partir da notificação do conteúdo ilícito.
Não é razoável que elas pretendam continuar a se eximir de qualquer responsabilidade, enquanto lucram de forma astronômica com mensagens que ofendem pessoas indefesas e corroem o tecido social.
A isenção de responsabilidade prevista no art. 19 é inconstitucional. O STF acertará se resistir à tentação de criar soluções heterodoxas para o problema, como o acréscimo de algumas exceções ao malfadado dispositivo. A sua concepção está caduca e deve ruir, sendo substituída pela solução do notice and take down, já adotada para a divulgação de mensagens pornográficas, tal como previsto no art. 21 do Marco Civil da Internet.
EXEMPLO CONCRETO – Em episódio recente, o próprio STF teve dificuldades para fazer uma big tech cumprir simples ordens judiciais de bloqueio de contas. Não é difícil imaginar o que passa um cidadão comum que tem seu nome injustamente enxovalhado em uma rede social.
A União Europeia, por exemplo, adotou no Digital Services Act o modelo do notice and take down, para sinalizar o conteúdo ilícito e deflagrar a responsabilidade das plataformas. Não cabe ao Brasil inventar novamente a roda, mas seguir o bom exemplo que vem de democracias avançadas, adotando também como regra geral o sistema de notificação.
Para situações mais graves, das quais possam advir riscos sistêmicos para a sociedade (como terrorismo, ódio contra minorias e ataques ao regime democrático), o STF também deve levar em conta a experiência estrangeira, com destaque para o Online Safety Act, do Reino Unido, e reconhecer a existência de um dever de cuidado das plataformas, o que inclui obrigação de moderação e sua responsabilidade desde a circulação inicial do conteúdo, o que, afinal, é a regra para todos os veículos de comunicação.