Do site da Coalizão Direitos na Rede:
Alternativas
Para que o projeto não estabeleça um regime de responsabilização que incentive a censura privada pelas plataformas, incorrendo em altos riscos à liberdade de expressão, a CDR propõe retirar do rol de vedações as “contas inautênticas” e as “redes de disseminação artificial” tal como formuladas no texto. E, em vez de se falar em “disseminadores artificiais”, prever a vedação a “contas automatizadas não rotuladas”, de modo a coibir robôs (bots) não identificados enquanto tais.
O Art. 9o, que trata das obrigações impostas às plataformas no combate à desinformação, também impacta neste regime de responsabilidade. Assim, consideramos que o texto deveria ser alterado para determinar a abertura de canais para o recebimento de denúncias e o encaminhamento dessas denúncias a verificadores independentes de fatos.
No mesmo sentido, a lei deveria determinar a elaboração de um código de conduta para o setor, construído a partir de um debate multissetorial coordenado pelo Comitê Gestor da Internet no Brasil (CGI.br). Por ser o CGI.br o órgão competente para a elaboração de recomendações sobre políticas de Internet no país, entendemos que a definição de medidas específicas para os provedores de aplicação voltadas ao objeto da proposta encontraria em sua estrutura um ambiente técnico e qualificado de desenvolvimento.
Da mesma maneira, caberia a adoção de um código de boas práticas em relação à atividade dos checadores de fatos, medida imprescindível para garantir a independência e transparência dos atores no exercício da sua atividade, evitando, ao mesmo tempo, que a regulação acabe por restringir a atuação destes agentes.
Justificativa
Avaliamos que o modelo inicialmente proposto pelo Projeto de Lei pode ser insuficiente ou gerar uma moderação de conteúdos ainda mais proativa do que já fazem as plataformas. Diante do risco de responsabilização, essas empresas provavelmente optarão por remover mais conteúdos, inevitavelmente incidindo na prática de bloqueio excessivo (overblocking), como ocorre em países que adotaram este regime de responsabilização. Embora seja correta a crítica acerca do poder crescente das plataformas e seus preocupantes impactos no debate público e em processos eleitorais, a solução proposta acaba por ampliar esse poder, fazendo que as plataformas tratem como obrigação a regra a gestão e remoção de conteúdos, atingindo a liberdade de expressão.
O desenvolvimento de códigos de conduta ou boas práticas dedicadas ao enfrentamento da desinformação vem sendo adotado em vários democracias. A Comissão Europeia tem, desde outubro de 2018, incentivado prática semelhante e anunciado um alto nível de participação das plataformas nos esforços, com empresas como Facebook e Google já com seus próprios códigos reconhecidos pela Comissão.
Em função disso, reconhecendo o papel de órgão técnico a quem compete a elaboração de recomendações a respeito de políticas de Internet no Brasil, conferido ao CGI.br pelo Marco Civil da Internet, entendemos que o papel de coordenador do processo de elaboração e assinatura dos respectivos códigos de conduta e boas práticas, em diálogo com os atores envolvidos nas medidas, deveria ser conferido ao Comitê Gestor da Internet.
2. Definições e conceitos
Problemas
O PL 2630/2020 traz conceitos problemáticos e vagos, como “conta inautêntica” e “disseminadores artificiais”, cuja redação pode ensejar riscos à liberdade de expressão e aos direitos fundamentais dos cidadãos. Além disso, inclui redações que, por essas mesmas preocupações, merecem aperfeiçoamento, como é o caso da definição de “desinformação”, “conteúdo patrocinado” e “verificadores independentes”.
Alternativas
Uma nova versão do PL deveria excluir o conceito de “conta inautêntica”. A preocupação com os chamados “bots” deveria ser resolvida com a criação de uma definição de “contas automatizadas” entendidas como aquelas “geridas por qualquer programa de computador, tecnologia ou tecnologias empregadas para simular, substituir ou facilitar atividades de humanos na distribuição de conteúdo em aplicações de internet”. Este conceito é mais adequado do que a figura dos “disseminadores artificiais”.
Já o conceito de “conteúdo patrocinado” deveria dar lugar à previsão de dois conceitos diferentes: “impulsionamento” e “publicidade”. O primeiro seria definido como “ampliação de alcance de conteúdos mediante pagamento pecuniário ou valor estimável em dinheiro à empresa enquadrada no artigo 1º desta lei”, enquanto o segundo consistiria em “mensagens publicitárias veiculadas em troca de pagamento pecuniário ou valor estimável em dinheiro pelas empresas enquadrada no artigo 1º desta lei”.
Para coibir abusos diante de análises subjetivas, o conceito de desinformação deveria: “conteúdo, em parte ou no todo, inequivocamente falso, forjado e divulgado para enganar deliberadamente o público e, cumulativamente, com potencial de causar danos individuais e coletivos ou prejuízo a direitos fundamentais, ressalvado o erro jornalístico, o ânimo humorístico ou de paródia”. Já os verificadores independentes deveriam seriam caracterizados como “pessoa jurídica que realiza uma verificação criteriosa de fatos de acordo com os parâmetros e princípios desta Lei, que não possua vínculo societário ou dependa financeiramente das pessoas jurídicas estabelecidas no art. 1º e daquelas cuja produção de conteúdo se proponha verificar”, de modo a garantir real autonomia aos agentes que desempenharão análise tão significativa.
Justificativa
A proposta em questão trata de tema chave para as democracias contemporâneas e impacta direitos fundamentais, cuja preservação se faz mais necessária do que nunca no atual cenário político. A boa prática legislativa considera que o legislador deve apenas excepcionalmente inserir novas definições no texto da lei, priorizando conceitos largamente estabelecidos na prática jurídica. Neste sentido, as definições devem se restringir às necessárias concretas, e suas redações precisam delimitar de maneira clara qualquer interpretação, evitando abordagens amplas e que abram margem para discricionariedade no âmbito da fiscalização e eventuais sanções relacionadas a tais conceitos.
A caracterização nuclear do PL é a de “desinformação”, tarefa complexa reconhecida em todos os debates regulatórios sobre o tema. Pela dificuldade de diferenciar verdades de mentiras, a conceituação deve trabalhar apenas com o que é “inequivocamente falso”, devendo abster-se de abrir espaço para subjetividade, como prever conteúdo “enganoso” ou “colocado fora do contexto” ou “manipulado”. Já a figura de “conta inautêntica” combina um comportamento com o tipo de conteúdo disseminado. Nesta formulação, caberia à plataforma a avaliação de qual conta foi criada “com o propósito de disseminar desinformação”, conferindo a essas empresas a prerrogativa de julgar o que é verdade e o que não é, ampliando seu poder em vez de balanceá-lo.
Ainda sobre a definição de desinformação, vale ponderar que o tema é um problema multifacetado e que ainda não foi introduzido de maneira clara ao ordenamento jurídico brasileiro. Conteúdos percebidos como ‘fake news’ podem ser confundidos com hipóteses já tratadas em leis brasileiras como os crimes contra a honra - calúnia, injúria e difamação - ; gerar eventuais reparações cíveis por danos causados a personalidade; ou serem confundidos com a veiculação de conteúdos de baixa qualidade informativa. Em função disso, é importante que o Projeto de Lei em questão defina, em termos claros, qual o conteúdo abarcado por essa conceituação, a fim de evitar confusões e interpretações abusivas por parte das plataformas ou até resultar em restrições à liberdade de expressão e o livre fluxo de idéias na internet.
No caso dos verificadores independentes, a garantia da qualidade de “independência” passa por estipular que estes não possuam vínculos acionários ou recebam recursos tanto das redes sociais reguladas quanto daqueles produtores de conteúdo que se proponham a checar, uma vez que a vinculação com estes dois tipos de agentes pode pôr em suspeição este trabalho. A definição deve prever espaço, entretanto, para a remuneração por serviços prestados às plataformas.
A elaboração de “disseminadores artificiais” também apresenta uma redação confusa, apontando como problemático o emprego de qualquer tipo de tecnologia de apoio em plataformas digitais. Por isso, cabe aqui sua substituição pela conceituação de “contas automatizadas”, que permitirá separar aquelas utilizadas para fins legítimos e necessários das implantadas com objetivos maliciosos de causar ano. Na proposta, a diferenciação se dá pela identificação destas, de modo a trazer transparência no debate público, e pela vedação daquelas não sinalizadas enquanto tal.
Ainda na parte das definições, o projeto adentra a temática de conteúdos pagos optando pelo conceito de “conteúdo patrocinado”. A elaboração reúne diferentes tipos de modalidades pagas, razão pela qual o PL deveria separá-las na figura do “impulsionamento” (custeio à plataforma da ampliação do alcance) e da “publicidade” (anúncios), de modo a deixar claro qual tipo de conteúdo é tratado nas seções de vedações e obrigações das plataformas.
3. Devido processo
Problemas
Atualmente os provedores de aplicações mantêm modelos bastante insuficientes de comunicação com os usuários quanto (i) às medidas de moderação aplicadas aos seus conteúdos e contas e (2) quanto ao conteúdo que os usuários notificam como violador das regras da comunidade. No segundo caso, o usuário não tem qualquer retorno ou direito ao acompanhamento do caso. Ainda que se disponha a enfrentar a ausência de um devido processo e direito à contestação no atual funcionamento das plataformas, ele peca por uma redação confusa, vaga quanto aos procedimentos obrigatórios e não aponta medidas de contestação prévias neste processo de moderação de conteúdo por denúncia de desinformação.
Alternativas
É fundamental estabelecer que, imediatamente após o início de um processo de análise de conteúdo ou conta, o usuário responsável seja comunicado pelo provedor de aplicações. A comunicação primeira deve informar a fundamentação para a análise e qual a fonte do questionamento, se processo de auto-detecção da plataforma ou denúncia de terceiros, e formas de contestação. O usuário deve então ter tempo hábil para reagir à fundamentação, necessariamente informada, de forma a refutar a necessidade de aplicação de qualquer medida. Deve ainda ter a opção de apagar/corrigir o post.
Ainda, a fim de coibir vieses e erros, a verificação de fatos deve ser sempre realizada por pessoa natural, e prever análise por ao menos dois verificadores independentes, que devem levar em consideração a contestação inicial do usuário responsável pelo conteúdo ou conta em seu processo de análise.
Para assegurar o direito à reparação, previsto nas normas internacionais de direitos humanos, em caso de identificado equívoco na aplicação de medidas de moderação de conteúdo ou de intervenção em conta, caberá ao provedor de aplicação de Internet reparar o dano, informando o erro de maneira destacada e garantindo a exposição da correção no mínimo aos usuários inicialmente alcançados.
Para fins de assegurar o direito à Justiça, em casos de encaminhamento do caso para o Poder Judiciário, as medidas adotadas pelos provedores de aplicação de Internet devem ficar restritas ao determinado no curso do processo judicial. E, para assegurar o direito à informação e fortalecer a transparência, em casos de decisão judicial relativa a processos de análise decorrentes dessa lei, o provedor de aplicações de internet deverá substituir o conteúdo ou conta tornados indisponíveis pela exibição da ordem judicial que deu fundamento à indisponibilização, ressalvado o segredo de Justiça.
Justificativa
A Coalizão Direitos na Rede entende que qualquer processo de restrição à liberdade de expressão, mesmo em ambiente privado, deve preservar o direito à informação e à contestação. E, em qualquer processo de “litigância”, o sistema de Justiça deve ser o fiel da balança, de forma que, diante de análise em curso pelo Judiciário, os provedores de aplicação devem abster-se de aplicar medidas em conteúdos e em contas por disposições desta lei. Também por observar a legitimidade de decisões judiciais e a importância de dar conhecimento acerca de decisão, é fundamental o estabelecimento da divulgação, em conta ou conteúdo objeto de análise judicial, da sentença e sua determinação.
Mas, para que de fato as redes sociais sejam responsáveis por seus atos e atuem de forma transparente, durante os procedimentos de moderação de conteúdo no seu interior, é de suma importância o estabelecimento de mecanismos que assegurem a notificação do usuário caso este seja objeto de alguma denúncia ou medida. A ausência de tais obrigações reforça o desequilíbrio de poder dessas empresas sobre seus usuários, promovendo um ambiente de gestão privada e discricionária do debate público.
Essas garantias devem ser fornecidas sobretudo nos processos de moderação de conteúdos de que trata essa lei. Diante das já apontadas complexidades acerca da classificação de uma mensagem como desinformativa, há altas chances de erros, razão pela qual faz-se fundamental assegurar ao usuário objeto da avaliação a oportunidade de explicação e contraposição antes da adoção de qualquer providência.
4. Transparência das plataformas
Problemas
O projeto foi anunciado por seus autores como uma “Lei da Liberdade, Responsabilidade e Transparência” na Internet. É um mérito da matéria fixar mecanismos de publicidade de informações por redes sociais. Contudo, os dispositivos previstos são limitados, devendo ser expandidos. O mesmo vale para os artigos relacionados à transparência em conteúdos patrocinados. Outra mudança adequada é a retirada de conceitos problemáticos dos deveres de transparência (ver item 2).
Alternativas
A CDR propõe um ajuste da seção, em um modelo marcado pela exigência de produção e veiculação de relatórios trimestrais (em vez de semestrais), informando procedimentos e decisões de tratamento de conteúdos gerados por terceiros, bem como as medidas para o cumprimento da Lei. Estes documentos devem conter: 1) número de usuários, 2) número de medidas adotadas em função dos próprios termos de uso das plataformas, 3) medidas de moderação de conteúdo com a finalidade de cumprimento da Lei e de ordem judicial, 4) número de contas automatizadas, redes de distribuição artificial, conteúdos impulsionados e publicidades não identificados, 5) políticas de moderação de conteúdo aprovadas e alteradas, 6) características da equipe responsável pela análise de conteúdo e 7) dados sobre a interação com conteúdos classificados como desinformação.
Cabe às redes socais e aplicações de mensageria privada facilitar, também, o acesso a dados desagregados a instituições de pesquisa. No tocante aos conteúdos impulsionados e publicidades, deve haver rotulação que identifique essas modalidades de conteúdo enquanto tais, além de informações sobre o responsável pelo pagamento e informações de contato sobre este. Em se tratando de propaganda eleitoral ou de conteúdos que mencionem candidato, coligação ou partido, devem ser disponibilizadas também informações sobre o valor gasto, o tempo de veiculação e as características da população utilizadas para a segmentação. Além disso, devem recair deveres de transparência aos verificadores independentes, como a divulgação de relatórios sobre suas fontes de financiamento.
Justificativa
A Coalizão Direitos na Rede compreende que o combate à desinformação não será bem sucedido implantando um ambiente legal de fomento à censura privada. Mas, ao contrário, com mais obrigações de transparência, de modo a colocar essas plataformas sob escrutínio públicos dos cidadãos, autoridades, entidades da sociedade civil e pesquisadores. É esse cenário que pode fomentar uma cultura de fiscalização para reduzir a discricionariedade das plataformas e os mecanismos de amplificação da desinformação.
É com esta preocupação em mente que a CDR propõe a ampliação das exigência de transparência às plataformas. Dada a relevância como espaço de debate público que essas empresas assumiram, elas precisam divulgar de forma detalhada suas medidas de moderação de conteúdo, sejam estas a partir de seus termos de uso, das novas obrigações geradas por esta lei ou de decisão judicial. Somente este tipo de informação permite aferir a evolução do combate a mensagens falsas. Especificamente sobre desinformação, é necessário não apenas expor dados genéricos, mas de interação dos usuários com estes conteúdos, de modo a permitir uma avaliação precisa da dinâmica deste fenômeno em cada rede. Mais do que isso, a “responsabilidade e transparência” na Internet passa pelo conhecimento também das ações de moderação de conteúdo sobre outras práticas, como discurso de ódio, conteúdo violento e consequências de medidas judiciais.
Tão relevante quanto é a transparência nos conteúdos impulsionados e mensagens publicitárias. Tais informações são vitais para compreender quem financia a difusão de conteúdo e mapear redes de impulsionamento de desinformação. Esses registros são insumos relevantes à ação de autoridades de investigação para combater ilícitos nesta modalidade de mensagem, especialmente durante pleitos eleitorais.
Considerando a análise acima exposta, a Coalizão Direitos na Rede recomenda aos parlamentares as emendas apresentadas neste PDF, sem as quais, acreditamos, o projeto incorrerá na violação de direitos fundamentais. Colocamo-nos desde já à disposição para quaisquer esclarecimentos necessários e para o diálogo em torno de nossas propostas.
* Coalizão Direitos na Rede - 29 de maio de 2020.
No presente documento, a Coalizão Direitos na Rede - que reúne 38 organizações de pesquisa e defesa de direitos digitais, da liberdade de expressão e direitos do consumidor - apresenta uma suas preocupações sobre o PL 2630/2020, em tramitação no Senado Federal, sugerindo alterações no texto para mitigá-los.
Conforme posicionamento divulgado anteriormente, a CDR entende que o tema merece um debate ampliado de modo a evitar erros inevitáveis em um processo açodado. Entretanto, diante da perspectiva de votação da matéria no Senado nos próximos dias, apresentamos nossa avaliação sobre o projeto e mudanças que consideramos necessárias para que a eventual lei não viole direitos fundamentais. Elas se concentram em quatro pontos do PL: 1) regime de responsabilização das plataformas, 2) definições, 3) devido processo e 4) mecanismos de transparência.
Conforme posicionamento divulgado anteriormente, a CDR entende que o tema merece um debate ampliado de modo a evitar erros inevitáveis em um processo açodado. Entretanto, diante da perspectiva de votação da matéria no Senado nos próximos dias, apresentamos nossa avaliação sobre o projeto e mudanças que consideramos necessárias para que a eventual lei não viole direitos fundamentais. Elas se concentram em quatro pontos do PL: 1) regime de responsabilização das plataformas, 2) definições, 3) devido processo e 4) mecanismos de transparência.
Problemas
Mesmo sem mencionar, o PL altera o regime de responsabilidade para plataformas intermediárias por danos gerados por conteúdos produzidos por terceiros, previsto no Marco Civil da Internet (Lei 12.965, de 2014). A alteração se dá uma vez que a proposição cria obrigações aos provedores de aplicações – como o bloqueio/exclusão de contas inautênticas, de disseminadores artificiais e de redes de disseminação artificial - a partir da análise do conteúdo produzido por terceiros que elas distribuem. Ao listar conteúdos e práticas vedadas, estabelecer obrigações quanto à fiscalização e remoção dos mesmos e elencar sanções caso tais medidas não sejam cumprida pelas companhias, o PL 2630/2020, contrariando o Marco Civil da Internet, responsabiliza na prática as plataformas por esses conteúdos.
A imposição dessas obrigações torna-se ainda mais problemática diante dos conceitos adotados pela lei (ver detalhes no item seguinte). Entendemos, assim, que seria necessário promover mudanças nos conceitos e centrar as obrigações dos provedores de aplicações a restrições de condutas das contas, e não a seus conteúdos.
Vale reforçar que, para ser minimamente possível classificar conteúdo como “desinformação”, há que se reconhecer a necessidade de análise humana, contextualizada, embasada em pesquisas e fontes diversas. Mesmo após uma análise minuciosa, resta um espaço amplo para variáveis de interpretação dos fatos. Diante da possibilidade de responsabilização das plataformas por analisar o tipo de conteúdo disseminado por cada conta, é provável que as empresas lancem mão de moderação exagerada e automação, o que não está vedado pelas propostas, de forma a aumentar exponencialmente a chance de equívocos e cerceamento do exercício legítimo da liberdade de expressão. O texto não traz sequer a previsão de que denúncia prévia para a análise dos conteúdos, criando um regime de monitoramento e derrubada em massa de conteúdo pelas plataformas.
Mesmo sem mencionar, o PL altera o regime de responsabilidade para plataformas intermediárias por danos gerados por conteúdos produzidos por terceiros, previsto no Marco Civil da Internet (Lei 12.965, de 2014). A alteração se dá uma vez que a proposição cria obrigações aos provedores de aplicações – como o bloqueio/exclusão de contas inautênticas, de disseminadores artificiais e de redes de disseminação artificial - a partir da análise do conteúdo produzido por terceiros que elas distribuem. Ao listar conteúdos e práticas vedadas, estabelecer obrigações quanto à fiscalização e remoção dos mesmos e elencar sanções caso tais medidas não sejam cumprida pelas companhias, o PL 2630/2020, contrariando o Marco Civil da Internet, responsabiliza na prática as plataformas por esses conteúdos.
A imposição dessas obrigações torna-se ainda mais problemática diante dos conceitos adotados pela lei (ver detalhes no item seguinte). Entendemos, assim, que seria necessário promover mudanças nos conceitos e centrar as obrigações dos provedores de aplicações a restrições de condutas das contas, e não a seus conteúdos.
Vale reforçar que, para ser minimamente possível classificar conteúdo como “desinformação”, há que se reconhecer a necessidade de análise humana, contextualizada, embasada em pesquisas e fontes diversas. Mesmo após uma análise minuciosa, resta um espaço amplo para variáveis de interpretação dos fatos. Diante da possibilidade de responsabilização das plataformas por analisar o tipo de conteúdo disseminado por cada conta, é provável que as empresas lancem mão de moderação exagerada e automação, o que não está vedado pelas propostas, de forma a aumentar exponencialmente a chance de equívocos e cerceamento do exercício legítimo da liberdade de expressão. O texto não traz sequer a previsão de que denúncia prévia para a análise dos conteúdos, criando um regime de monitoramento e derrubada em massa de conteúdo pelas plataformas.
Alternativas
Para que o projeto não estabeleça um regime de responsabilização que incentive a censura privada pelas plataformas, incorrendo em altos riscos à liberdade de expressão, a CDR propõe retirar do rol de vedações as “contas inautênticas” e as “redes de disseminação artificial” tal como formuladas no texto. E, em vez de se falar em “disseminadores artificiais”, prever a vedação a “contas automatizadas não rotuladas”, de modo a coibir robôs (bots) não identificados enquanto tais.
O Art. 9o, que trata das obrigações impostas às plataformas no combate à desinformação, também impacta neste regime de responsabilidade. Assim, consideramos que o texto deveria ser alterado para determinar a abertura de canais para o recebimento de denúncias e o encaminhamento dessas denúncias a verificadores independentes de fatos.
No mesmo sentido, a lei deveria determinar a elaboração de um código de conduta para o setor, construído a partir de um debate multissetorial coordenado pelo Comitê Gestor da Internet no Brasil (CGI.br). Por ser o CGI.br o órgão competente para a elaboração de recomendações sobre políticas de Internet no país, entendemos que a definição de medidas específicas para os provedores de aplicação voltadas ao objeto da proposta encontraria em sua estrutura um ambiente técnico e qualificado de desenvolvimento.
Da mesma maneira, caberia a adoção de um código de boas práticas em relação à atividade dos checadores de fatos, medida imprescindível para garantir a independência e transparência dos atores no exercício da sua atividade, evitando, ao mesmo tempo, que a regulação acabe por restringir a atuação destes agentes.
Justificativa
Avaliamos que o modelo inicialmente proposto pelo Projeto de Lei pode ser insuficiente ou gerar uma moderação de conteúdos ainda mais proativa do que já fazem as plataformas. Diante do risco de responsabilização, essas empresas provavelmente optarão por remover mais conteúdos, inevitavelmente incidindo na prática de bloqueio excessivo (overblocking), como ocorre em países que adotaram este regime de responsabilização. Embora seja correta a crítica acerca do poder crescente das plataformas e seus preocupantes impactos no debate público e em processos eleitorais, a solução proposta acaba por ampliar esse poder, fazendo que as plataformas tratem como obrigação a regra a gestão e remoção de conteúdos, atingindo a liberdade de expressão.
O desenvolvimento de códigos de conduta ou boas práticas dedicadas ao enfrentamento da desinformação vem sendo adotado em vários democracias. A Comissão Europeia tem, desde outubro de 2018, incentivado prática semelhante e anunciado um alto nível de participação das plataformas nos esforços, com empresas como Facebook e Google já com seus próprios códigos reconhecidos pela Comissão.
Em função disso, reconhecendo o papel de órgão técnico a quem compete a elaboração de recomendações a respeito de políticas de Internet no Brasil, conferido ao CGI.br pelo Marco Civil da Internet, entendemos que o papel de coordenador do processo de elaboração e assinatura dos respectivos códigos de conduta e boas práticas, em diálogo com os atores envolvidos nas medidas, deveria ser conferido ao Comitê Gestor da Internet.
2. Definições e conceitos
Problemas
O PL 2630/2020 traz conceitos problemáticos e vagos, como “conta inautêntica” e “disseminadores artificiais”, cuja redação pode ensejar riscos à liberdade de expressão e aos direitos fundamentais dos cidadãos. Além disso, inclui redações que, por essas mesmas preocupações, merecem aperfeiçoamento, como é o caso da definição de “desinformação”, “conteúdo patrocinado” e “verificadores independentes”.
Alternativas
Uma nova versão do PL deveria excluir o conceito de “conta inautêntica”. A preocupação com os chamados “bots” deveria ser resolvida com a criação de uma definição de “contas automatizadas” entendidas como aquelas “geridas por qualquer programa de computador, tecnologia ou tecnologias empregadas para simular, substituir ou facilitar atividades de humanos na distribuição de conteúdo em aplicações de internet”. Este conceito é mais adequado do que a figura dos “disseminadores artificiais”.
Já o conceito de “conteúdo patrocinado” deveria dar lugar à previsão de dois conceitos diferentes: “impulsionamento” e “publicidade”. O primeiro seria definido como “ampliação de alcance de conteúdos mediante pagamento pecuniário ou valor estimável em dinheiro à empresa enquadrada no artigo 1º desta lei”, enquanto o segundo consistiria em “mensagens publicitárias veiculadas em troca de pagamento pecuniário ou valor estimável em dinheiro pelas empresas enquadrada no artigo 1º desta lei”.
Para coibir abusos diante de análises subjetivas, o conceito de desinformação deveria: “conteúdo, em parte ou no todo, inequivocamente falso, forjado e divulgado para enganar deliberadamente o público e, cumulativamente, com potencial de causar danos individuais e coletivos ou prejuízo a direitos fundamentais, ressalvado o erro jornalístico, o ânimo humorístico ou de paródia”. Já os verificadores independentes deveriam seriam caracterizados como “pessoa jurídica que realiza uma verificação criteriosa de fatos de acordo com os parâmetros e princípios desta Lei, que não possua vínculo societário ou dependa financeiramente das pessoas jurídicas estabelecidas no art. 1º e daquelas cuja produção de conteúdo se proponha verificar”, de modo a garantir real autonomia aos agentes que desempenharão análise tão significativa.
Justificativa
A proposta em questão trata de tema chave para as democracias contemporâneas e impacta direitos fundamentais, cuja preservação se faz mais necessária do que nunca no atual cenário político. A boa prática legislativa considera que o legislador deve apenas excepcionalmente inserir novas definições no texto da lei, priorizando conceitos largamente estabelecidos na prática jurídica. Neste sentido, as definições devem se restringir às necessárias concretas, e suas redações precisam delimitar de maneira clara qualquer interpretação, evitando abordagens amplas e que abram margem para discricionariedade no âmbito da fiscalização e eventuais sanções relacionadas a tais conceitos.
A caracterização nuclear do PL é a de “desinformação”, tarefa complexa reconhecida em todos os debates regulatórios sobre o tema. Pela dificuldade de diferenciar verdades de mentiras, a conceituação deve trabalhar apenas com o que é “inequivocamente falso”, devendo abster-se de abrir espaço para subjetividade, como prever conteúdo “enganoso” ou “colocado fora do contexto” ou “manipulado”. Já a figura de “conta inautêntica” combina um comportamento com o tipo de conteúdo disseminado. Nesta formulação, caberia à plataforma a avaliação de qual conta foi criada “com o propósito de disseminar desinformação”, conferindo a essas empresas a prerrogativa de julgar o que é verdade e o que não é, ampliando seu poder em vez de balanceá-lo.
Ainda sobre a definição de desinformação, vale ponderar que o tema é um problema multifacetado e que ainda não foi introduzido de maneira clara ao ordenamento jurídico brasileiro. Conteúdos percebidos como ‘fake news’ podem ser confundidos com hipóteses já tratadas em leis brasileiras como os crimes contra a honra - calúnia, injúria e difamação - ; gerar eventuais reparações cíveis por danos causados a personalidade; ou serem confundidos com a veiculação de conteúdos de baixa qualidade informativa. Em função disso, é importante que o Projeto de Lei em questão defina, em termos claros, qual o conteúdo abarcado por essa conceituação, a fim de evitar confusões e interpretações abusivas por parte das plataformas ou até resultar em restrições à liberdade de expressão e o livre fluxo de idéias na internet.
No caso dos verificadores independentes, a garantia da qualidade de “independência” passa por estipular que estes não possuam vínculos acionários ou recebam recursos tanto das redes sociais reguladas quanto daqueles produtores de conteúdo que se proponham a checar, uma vez que a vinculação com estes dois tipos de agentes pode pôr em suspeição este trabalho. A definição deve prever espaço, entretanto, para a remuneração por serviços prestados às plataformas.
A elaboração de “disseminadores artificiais” também apresenta uma redação confusa, apontando como problemático o emprego de qualquer tipo de tecnologia de apoio em plataformas digitais. Por isso, cabe aqui sua substituição pela conceituação de “contas automatizadas”, que permitirá separar aquelas utilizadas para fins legítimos e necessários das implantadas com objetivos maliciosos de causar ano. Na proposta, a diferenciação se dá pela identificação destas, de modo a trazer transparência no debate público, e pela vedação daquelas não sinalizadas enquanto tal.
Ainda na parte das definições, o projeto adentra a temática de conteúdos pagos optando pelo conceito de “conteúdo patrocinado”. A elaboração reúne diferentes tipos de modalidades pagas, razão pela qual o PL deveria separá-las na figura do “impulsionamento” (custeio à plataforma da ampliação do alcance) e da “publicidade” (anúncios), de modo a deixar claro qual tipo de conteúdo é tratado nas seções de vedações e obrigações das plataformas.
3. Devido processo
Problemas
Atualmente os provedores de aplicações mantêm modelos bastante insuficientes de comunicação com os usuários quanto (i) às medidas de moderação aplicadas aos seus conteúdos e contas e (2) quanto ao conteúdo que os usuários notificam como violador das regras da comunidade. No segundo caso, o usuário não tem qualquer retorno ou direito ao acompanhamento do caso. Ainda que se disponha a enfrentar a ausência de um devido processo e direito à contestação no atual funcionamento das plataformas, ele peca por uma redação confusa, vaga quanto aos procedimentos obrigatórios e não aponta medidas de contestação prévias neste processo de moderação de conteúdo por denúncia de desinformação.
Alternativas
É fundamental estabelecer que, imediatamente após o início de um processo de análise de conteúdo ou conta, o usuário responsável seja comunicado pelo provedor de aplicações. A comunicação primeira deve informar a fundamentação para a análise e qual a fonte do questionamento, se processo de auto-detecção da plataforma ou denúncia de terceiros, e formas de contestação. O usuário deve então ter tempo hábil para reagir à fundamentação, necessariamente informada, de forma a refutar a necessidade de aplicação de qualquer medida. Deve ainda ter a opção de apagar/corrigir o post.
Ainda, a fim de coibir vieses e erros, a verificação de fatos deve ser sempre realizada por pessoa natural, e prever análise por ao menos dois verificadores independentes, que devem levar em consideração a contestação inicial do usuário responsável pelo conteúdo ou conta em seu processo de análise.
Para assegurar o direito à reparação, previsto nas normas internacionais de direitos humanos, em caso de identificado equívoco na aplicação de medidas de moderação de conteúdo ou de intervenção em conta, caberá ao provedor de aplicação de Internet reparar o dano, informando o erro de maneira destacada e garantindo a exposição da correção no mínimo aos usuários inicialmente alcançados.
Para fins de assegurar o direito à Justiça, em casos de encaminhamento do caso para o Poder Judiciário, as medidas adotadas pelos provedores de aplicação de Internet devem ficar restritas ao determinado no curso do processo judicial. E, para assegurar o direito à informação e fortalecer a transparência, em casos de decisão judicial relativa a processos de análise decorrentes dessa lei, o provedor de aplicações de internet deverá substituir o conteúdo ou conta tornados indisponíveis pela exibição da ordem judicial que deu fundamento à indisponibilização, ressalvado o segredo de Justiça.
Justificativa
A Coalizão Direitos na Rede entende que qualquer processo de restrição à liberdade de expressão, mesmo em ambiente privado, deve preservar o direito à informação e à contestação. E, em qualquer processo de “litigância”, o sistema de Justiça deve ser o fiel da balança, de forma que, diante de análise em curso pelo Judiciário, os provedores de aplicação devem abster-se de aplicar medidas em conteúdos e em contas por disposições desta lei. Também por observar a legitimidade de decisões judiciais e a importância de dar conhecimento acerca de decisão, é fundamental o estabelecimento da divulgação, em conta ou conteúdo objeto de análise judicial, da sentença e sua determinação.
Mas, para que de fato as redes sociais sejam responsáveis por seus atos e atuem de forma transparente, durante os procedimentos de moderação de conteúdo no seu interior, é de suma importância o estabelecimento de mecanismos que assegurem a notificação do usuário caso este seja objeto de alguma denúncia ou medida. A ausência de tais obrigações reforça o desequilíbrio de poder dessas empresas sobre seus usuários, promovendo um ambiente de gestão privada e discricionária do debate público.
Essas garantias devem ser fornecidas sobretudo nos processos de moderação de conteúdos de que trata essa lei. Diante das já apontadas complexidades acerca da classificação de uma mensagem como desinformativa, há altas chances de erros, razão pela qual faz-se fundamental assegurar ao usuário objeto da avaliação a oportunidade de explicação e contraposição antes da adoção de qualquer providência.
4. Transparência das plataformas
Problemas
O projeto foi anunciado por seus autores como uma “Lei da Liberdade, Responsabilidade e Transparência” na Internet. É um mérito da matéria fixar mecanismos de publicidade de informações por redes sociais. Contudo, os dispositivos previstos são limitados, devendo ser expandidos. O mesmo vale para os artigos relacionados à transparência em conteúdos patrocinados. Outra mudança adequada é a retirada de conceitos problemáticos dos deveres de transparência (ver item 2).
Alternativas
A CDR propõe um ajuste da seção, em um modelo marcado pela exigência de produção e veiculação de relatórios trimestrais (em vez de semestrais), informando procedimentos e decisões de tratamento de conteúdos gerados por terceiros, bem como as medidas para o cumprimento da Lei. Estes documentos devem conter: 1) número de usuários, 2) número de medidas adotadas em função dos próprios termos de uso das plataformas, 3) medidas de moderação de conteúdo com a finalidade de cumprimento da Lei e de ordem judicial, 4) número de contas automatizadas, redes de distribuição artificial, conteúdos impulsionados e publicidades não identificados, 5) políticas de moderação de conteúdo aprovadas e alteradas, 6) características da equipe responsável pela análise de conteúdo e 7) dados sobre a interação com conteúdos classificados como desinformação.
Cabe às redes socais e aplicações de mensageria privada facilitar, também, o acesso a dados desagregados a instituições de pesquisa. No tocante aos conteúdos impulsionados e publicidades, deve haver rotulação que identifique essas modalidades de conteúdo enquanto tais, além de informações sobre o responsável pelo pagamento e informações de contato sobre este. Em se tratando de propaganda eleitoral ou de conteúdos que mencionem candidato, coligação ou partido, devem ser disponibilizadas também informações sobre o valor gasto, o tempo de veiculação e as características da população utilizadas para a segmentação. Além disso, devem recair deveres de transparência aos verificadores independentes, como a divulgação de relatórios sobre suas fontes de financiamento.
Justificativa
A Coalizão Direitos na Rede compreende que o combate à desinformação não será bem sucedido implantando um ambiente legal de fomento à censura privada. Mas, ao contrário, com mais obrigações de transparência, de modo a colocar essas plataformas sob escrutínio públicos dos cidadãos, autoridades, entidades da sociedade civil e pesquisadores. É esse cenário que pode fomentar uma cultura de fiscalização para reduzir a discricionariedade das plataformas e os mecanismos de amplificação da desinformação.
É com esta preocupação em mente que a CDR propõe a ampliação das exigência de transparência às plataformas. Dada a relevância como espaço de debate público que essas empresas assumiram, elas precisam divulgar de forma detalhada suas medidas de moderação de conteúdo, sejam estas a partir de seus termos de uso, das novas obrigações geradas por esta lei ou de decisão judicial. Somente este tipo de informação permite aferir a evolução do combate a mensagens falsas. Especificamente sobre desinformação, é necessário não apenas expor dados genéricos, mas de interação dos usuários com estes conteúdos, de modo a permitir uma avaliação precisa da dinâmica deste fenômeno em cada rede. Mais do que isso, a “responsabilidade e transparência” na Internet passa pelo conhecimento também das ações de moderação de conteúdo sobre outras práticas, como discurso de ódio, conteúdo violento e consequências de medidas judiciais.
Tão relevante quanto é a transparência nos conteúdos impulsionados e mensagens publicitárias. Tais informações são vitais para compreender quem financia a difusão de conteúdo e mapear redes de impulsionamento de desinformação. Esses registros são insumos relevantes à ação de autoridades de investigação para combater ilícitos nesta modalidade de mensagem, especialmente durante pleitos eleitorais.
Considerando a análise acima exposta, a Coalizão Direitos na Rede recomenda aos parlamentares as emendas apresentadas neste PDF, sem as quais, acreditamos, o projeto incorrerá na violação de direitos fundamentais. Colocamo-nos desde já à disposição para quaisquer esclarecimentos necessários e para o diálogo em torno de nossas propostas.
* Coalizão Direitos na Rede - 29 de maio de 2020.
0 comentários:
Postar um comentário