Existe uma preocupante inversão no debate sobre o combate à desinformação e ao discurso de ódio. De repente, o Marco Civil da Internet passou a ser responsabilizado pela inoperância das plataformas diante dos ataques à ciência e às informações de qualidade baseadas em fatos. Nos Estados Unidos ou na Inglaterra não existia o Marco Civil e nem por isso deixamos de assistir uma onda de desinformação que redundou no Brexit, na eleição de Trump e na invasão do Capitólio.
O Marco Civil nunca impediu a moderação de conteúdos pelas plataformas. Quem não conteve as falsificações da realidade, as “fazendas de cliques”, a proliferação de grupos fascistas e seu discurso de ódio foram os donos das plataformas. Isso não ocorre simplesmente por que grande parte do Vale do Silício tem simpatias pelas ideias de incompatibilidade entre a liberdade irrestrita de exploração econômica e as democracias, tal como Peter Thiel, fundador do PayPall, ou de Larry Elisson, co-fundador da Oracle, entusiastas da extrema direita e do chamado movimento alt-right.
As plataformas têm um modelo de remuneração extremamente exitoso que redundou em valores de mercado superiores a 1 trilhão de dólares para as Big Techs que possuem o seu controle acionário. Qual a dinâmica principal desse modelo de negócios? Primeiro, a oferta gratuita de interfaces e serviços com o objetivo de coletar massivamente dados das pessoas que as utilizam. Segundo, esses dados são tratados pelos sistemas algorítmicos para a formação de perfis de comportamento e microssegmentação da população que a utiliza. Terceiro, os perfis são agrupados pelas plataformas para serem atingidos com propaganda direcionada por quem tem dinheiro, empresas, departamento de marketing, grupos políticos, entre outros.
Assim, as plataformas monetizam cada segundo que uma pessoa navega em suas estruturas que são arquitetadas para atrair e modular as atenções. Por isso, criaram a lógica da viralização, do engajamento e da venda de likes e impulsionamentos. Todo esforço das plataformas não visa a informação de qualidade, nem a proteção da democracia. Seu objetivo é a espetacularização que permita manter as pessoas olhando e compartilhando seus conteúdos. Por isso, o empobrecimento dos debates que vemos na política mundial se deve muito a essa lógica viralizante que depende de tornar tudo em algo surpreendente.
Quando se ataca o Marco Civil, em geral, o que se pretende é afirmar que as plataformas estavam impedidas de bloquear os conteúdos mentirosos e desinformativos. Logo, a lei deve exigir que a desinformação seja contida pelas plataformas. Desse modo, agora daremos às Big Techs o poder legal de dizer o que é e o que não é desinformação. Tal como no escândalo da Cambrigde Analityca, a solução proposta ao Facebook concentrou ainda mais poder na direção da empresa e não reduziu em nada o processo de desinformação – como demonstrou Frances Haugen, ex-gerente de produtos da rede social.
Na segunda quinzena de março de 2023, quem entrasse no canal do Democracy Now no Youtube se depararia com um aviso: “A comunidade do YouTube identificou o seguinte conteúdo como impróprio ou ofensivo para alguns públicos”. O vídeo considerado impróprio era uma reportagem sobre Julian Assange, líder do Wikileaks que denunciou os crimes de guerra dos Estados Unidos. O mesmo Youtube bloqueou a visualização dos conteúdos do podcast Tecnopolítica em doze episódios. Em nenhum desses casos existia desinformação ou discurso de ódio, mas os gestores da plataforma acharam por bem efetivar a redução de visualizações e o bloqueio de conteúdos. Curiosamente, isso não é realizado nos canais da extrema direita, nem mesmo no canal do ex-deputado Mamãe Falei. Para o Youtube esses canais não violam suas regras.
A regulação necessária das plataformas não deveria aumentar o seu poder arbitrário sobre os conteúdos. Precisamos de uma lei que reduza esse poder e as coloque sob o controle das democracias. A regulação exige a necessária informação sobre os dados por elas coletados, os cruzamentos realizados e os objetivos dos sistemas algorítmicos que utilizam. Os termos de uso e políticas de privacidade que expõem não são suficientes para que as democracias e as sociedades tenham informações básicas em suas operações sobre o comportamento social.
Plataformas de relacionamento social não são sites, nem blogs. Elas se colocam como espaços públicos não vinculados a nenhuma opção cultural, partidária, religiosa ou mercantil. Fazem isso para atrair todos os públicos e poder atingi-los com publicidade e marketing. Nessa condição, as plataformas devem estar submetidas a fiscalização democrática.
Como o gerenciamento imediato das plataformas é realizado por sistemas algorítmicos de aprendizado de máquina, é imprescindível a avaliação de impacto do tratamento de dados que realizam. No mínimo, as finalidades dos modelos que criam devem ser expostas nitidamente, sem dubiedades e eufemismos, para quem está sendo por eles modulados. Os termos de uso e as políticas de privacidade das plataformas são demasiadamente genéricas e não permitem saber se estão praticando uma coleta e tratamento excessivos, discriminatórios e inadequados de dados. Tal como os europeus estão criando um Conselho de Inteligência Artificial composto por especialistas em IA, representantes da sociedade civil, do governo e do mercado, a regulação das plataformas, dada a sua complexidade deveria avançar na formação de uma estrutura democrática e multissetorial de aplicação de regras sobre essas empresas de modulação social.
0 comentários:
Postar um comentário