Por Federico Gennari Santori, no site Opera Mundi:
“O fim do jornal é uma das coisas mais previsíveis do nosso futuro. Os únicos que ainda não sabem disso são os jornalistas”. Assim o político e empresário editorial italiano Gianroberto Casaleggio iniciou uma palestra em novembro de 2014 sobre o futuro da imprensa, aniquilada pelo chamado “robot journalism”. Em breve os jornalistas serão substituídos por “bots”, softwares capazes de escrever artigos jornalísticos com rapidez e talvez até com mais exatidão do que os profissionais de carne e osso.
Vários jornais, sobretudo as publicações online, já abordaram o tema em artigos e reportagens, em geral em tom alarmista. Títulos como “Robôs roubam o trabalho de jornalistas” ou “O caminho da morte do jornalismo” são bons para conseguir cliques, mas os textos acabam oferecendo análises superficiais. Muitas são as implicações que este fenômeno poderia ter para os profissionais e também para as pessoas que buscam informação na internet.
No fundo, “o ‘robot journalism’ é o novo nome de um problema debatido desde os anos 1990, quando surgiu o Daily Me, um jornal virtual personalizado”, lembra Stefano Epifani, professor de gerenciamento de mídias sociais na Universidade La Sapienza, em Roma. Seria apenas a versão 2.0 do secular debate sobre a relação entre o ser humano e as máquinas.
A tecnologia para a escrita automática deve muito aos especialistas em inteligência artificial da Northwestern University de Illinois, nos Estados Unidos. Larry Birnbaum e Kris Hammond, professores de informática e fundadores da start-up Narrative Science, inventaram Quill, um dos primeiros sistemas para a produção de textos breves sem intermediação humana. “Baseado em algoritmos que respondem a funções específicas, o software começa com a importação de dados – especialmente sobre finanças ou esportes, que se limitam a reportar nomes e números. Pode-se utilizar desde bancos de dados de governos até o Twitter, como já acontece no caso de análises de redes sociais em períodos de eleições”, explica Alessio Cimarelli, cientista de dados e co-fundador da rede Dataninja.
Listas, tabelas e gráficos são então convertidos de modo que sejam funcionais a uma construção narrativa. O software constrói frases simples, mas legíveis, com linguagem técnica ou informal, coerente com a linha editorial do jornal que solicita o serviço. O resultado é uma nota com um número de palavras que varia entre 150 e 300. E todo o processo é realizado em poucos segundos, automaticamente.
Em julho de 2014, a Associated Press, uma das maiores agências de notícias do mundo, causou polêmica ao anunciar a adoção do Wordsmith, um sistema para a produção de notícias sobre os resultados trimestrais das sociedades cotadas em bolsas de valores. “Durante muitos anos perdemos tempo mastigando números e remanejando as informações fornecidas pelas empresas, publicando cerca de 300 relatórios a cada trimestre”, explicou o editor-chefe de Economia da AP, Lou Ferrara. “A partir de agora podemos produzir até 4.400 destes relatórios.” Para confeccionar tantas notícias seriam necessárias dezenas de jornalistas que se ocupassem exclusivamente desta tarefa, a custos exorbitantes.
Apenas entramos na era digital dos Big Data, que aumentarão exponencialmente a quantidade de dados disponíveis, dos quais nós jornalistas não podemos fazer proveito sozinhos. Um computador pode analisar enormes quantidades de dados e desempenhar outras tarefas ao mesmo tempo, sem se cansar. Pode substituir a equipe dedicada às notícias e fornecer quase 15 vezes mais informações a um preço bem mais baixo.
Não por acaso, muitas publicações norte-americanas, entre elas Huffington Post, Sports Illustrated, Business Insider e ProPublica decidiram experimentar o “robot journalism”. “Queremos usar nossos cérebros e nosso tempo de maneira mais eficiente”, comenta Ferrara, da AP. Segundo alguns profissionais, os bots podem ser algo positivo: os redatores poderiam renunciar a trabalhos alienantes e se concentrar em conteúdos mais complexos, como reportagens investigativas, resenhas e artigos opinativos.
“As histórias que os bots podem escrever hoje são, francamente, aquelas que os humanos odeiam ter de fazer”, comenta Kevin Roose, ex-redator do jornal norte-americano The New York Times. “Se o Times tivesse usado um algoritmo para os relatórios trimestrais em lugar de passar a tarefa para jovens jornalistas, eu teria podido investir minhas manhãs em trabalhos que exigissem real inteligência humana.”
A maior parte do material produzido em portais jornalísticos online consiste em artigos breves e facilmente legíveis, relativos a fatos e declarações específicas. O advento da internet significou um aumento do espaço e uma diminuição do tempo, assim a repentina evolução da informação online se baseia na proliferação e na tempestividade de novos conteúdos. Muitas pessoas se sentem hoje sob um bombardeio midiático de notícias de última hora. Não é isso que a maior parte dos usuários espera da internet. “O que lhes interessa são interpretações dos fatos que respeitem as opiniões e os gostos deles”, acredita o professor Epifani. “Sérias ou divertidas, medíocres ou de qualidade, o importante é que sejam bem feitas e, por que não, personalizadas.”
Não por acaso a maior parte dos jornais online dão amplo espaço a blogs pessoais ou escritos por personalidades relevantes que, em muitos casos, têm mais seguidores do que a própria publicação que as hospeda. É na onda destas tendências que se observam o aumento de artigos cada vez mais longos e aprofundados com relação ao potencial multimídia (o chamado “long journalism”, que faz uso de vídeos e imagens de impacto), a difusão de conteúdos mais narrativos (o “storytelling”, ou “contação de histórias”) e o sucesso de projetos editoriais como o Huffington Post, primeiro a investir pesado em blogs, e o BuzzFeed, fenômeno com 300 milhões de visitantes ao mês que publica conteúdo engraçadinho em formato simplista mas altamente legível.
A internet ofereceu novas oportunidades e derrubou barreiras que já pareceram intransponíveis. As grandes publicações impressas entenderam que na web 2.0, das redes sociais e do comércio eletrônico, as notícias por si só não servem mais. Também por isso, não obstante os bots e os tabus, a profissão de jornalista não morrerá. Pelo contrário: o que fará a diferença será tudo aquilo que uma máquina não pode oferecer – qualidade, originalidade e capacidade de adaptação. O mundo da informação, portanto, terá fronteiras menos rígidas, mas será mais seletivo, oferecendo a quem o habita a oportunidade de se reinventar, abandonando esquemas obsoletos.
Com a crescente disponibilidade de dados, inevitavelmente as notícias vão aumentar, mas com outros objetivos para além do simples desfrute do usuário. Graças às visualizações e à propagação através das mídias sociais, produzirão elas mesmas dados que outro sistema poderá analisar. Segundo o sociólogo bielorrusso especialista em novas mídias Evgenij Morozov, professor da Universidade de Stanford, nos EUA, será “jornalismo feito por bots para bots”.
A demanda de conteúdos quentes a que os jornais estão buscando responder, porém, se coloca em um contexto mais amplo. “Hoje os usuários se preocupam com a tutela da própria privacidade e com a proteção contra vírus e spam, mas também querem receber informações e visualizar conteúdos mais pertinentes aos seus interesses”, explica Cimarelli. “Também por isso o Twitter e o Facebook modificaram recentemente os algoritmos que determinam o que vemos em nossas linhas do tempo.” Assim como o Google, estas redes construíram um modelo de negócios baseado nos dados pessoais que os usuários disponibilizam enquanto fazem buscas e compras na internet e interagem nas redes sociais.
Com estas informações, as gigantes da web são capazes de proporcionar a cada usuário conteúdo selecionado com base em seus interesses. E quando se trata da publicidade personalizada, um anunciante que busca um alvo preciso paga pelo consumidor que pode alcançar. Se já aconteceu de você buscar informações sobre uma viagem na internet e depois ser bombardeado por anúncios de hotéis e companhias aéreas, você sabe do que estamos falando. Este é o trabalho dos bots, os mesmos da escrita automática. As gigantes da web, portanto, poderiam ir além da publicidade e desenvolver um serviço de conteúdo informativo voltado para cada pessoa. O algoritmo que identifica o conteúdo a ser visualizado poderia também criar as notícias.
“Em 2025, 90% das notícias lidas pelo público serão geradas por computador e a quantidade de material publicado crescerá enormemente”, afirmou o fundador da Narrative Science, Kris Hammond. “Chegará o dia em que haverá somente um leitor para cada artigo”. Para o vice-presidente da Automated Insights, Adam Smith, “a partir dos mesmos dados, podemos formular milhões de histórias diferentes” com base nas necessidades de cada destinatário. E não só: os artigos chegariam diretamente ao usuário, que por não precisar buscá-los teria um papel cada vez mais passivo e acabaria recebendo notícias das mesmas fontes, em consonância com suas opiniões.
“Um círculo vicioso”, define Morozov. “Muitas pessoas poderiam consumir informações de baixa qualidade e receber somente poucos indícios da existência de um mundo diverso e plural.” Com a impressão de não estar perdendo nada graças à “natureza comunitária das mídias sociais”, que limita a interação dos usuários ao círculo mais estreito de amigos e pessoas que seguem, amalgamando opiniões similares.
Um dos mais destacados críticos do internet-centrismo, Morozov conjecturou sobre as consequências que poderiam advir de sistemas avançados de “robot journalism” nas mãos de empresas como Google e Amazon. “A verdadeira ameaça vem da nossa recusa em investigar as consequências sociais e políticas de viver em um mundo que impossibilita a leitura anônima de qualquer conteúdo. Um mundo que anunciantes e gigantes da web não veem a hora de ocupar, em que será mais difícil preservar o pensamento crítico e pouco convencional”, soterrado pelo senso comum cuja formação estará cada vez mais nas mãos destas grandes corporações.
* Artigo publicado originalmente no site do jornal italiano Pagina99. Tradução de Carolina de Assis.
Vários jornais, sobretudo as publicações online, já abordaram o tema em artigos e reportagens, em geral em tom alarmista. Títulos como “Robôs roubam o trabalho de jornalistas” ou “O caminho da morte do jornalismo” são bons para conseguir cliques, mas os textos acabam oferecendo análises superficiais. Muitas são as implicações que este fenômeno poderia ter para os profissionais e também para as pessoas que buscam informação na internet.
No fundo, “o ‘robot journalism’ é o novo nome de um problema debatido desde os anos 1990, quando surgiu o Daily Me, um jornal virtual personalizado”, lembra Stefano Epifani, professor de gerenciamento de mídias sociais na Universidade La Sapienza, em Roma. Seria apenas a versão 2.0 do secular debate sobre a relação entre o ser humano e as máquinas.
A tecnologia para a escrita automática deve muito aos especialistas em inteligência artificial da Northwestern University de Illinois, nos Estados Unidos. Larry Birnbaum e Kris Hammond, professores de informática e fundadores da start-up Narrative Science, inventaram Quill, um dos primeiros sistemas para a produção de textos breves sem intermediação humana. “Baseado em algoritmos que respondem a funções específicas, o software começa com a importação de dados – especialmente sobre finanças ou esportes, que se limitam a reportar nomes e números. Pode-se utilizar desde bancos de dados de governos até o Twitter, como já acontece no caso de análises de redes sociais em períodos de eleições”, explica Alessio Cimarelli, cientista de dados e co-fundador da rede Dataninja.
Listas, tabelas e gráficos são então convertidos de modo que sejam funcionais a uma construção narrativa. O software constrói frases simples, mas legíveis, com linguagem técnica ou informal, coerente com a linha editorial do jornal que solicita o serviço. O resultado é uma nota com um número de palavras que varia entre 150 e 300. E todo o processo é realizado em poucos segundos, automaticamente.
Em julho de 2014, a Associated Press, uma das maiores agências de notícias do mundo, causou polêmica ao anunciar a adoção do Wordsmith, um sistema para a produção de notícias sobre os resultados trimestrais das sociedades cotadas em bolsas de valores. “Durante muitos anos perdemos tempo mastigando números e remanejando as informações fornecidas pelas empresas, publicando cerca de 300 relatórios a cada trimestre”, explicou o editor-chefe de Economia da AP, Lou Ferrara. “A partir de agora podemos produzir até 4.400 destes relatórios.” Para confeccionar tantas notícias seriam necessárias dezenas de jornalistas que se ocupassem exclusivamente desta tarefa, a custos exorbitantes.
Apenas entramos na era digital dos Big Data, que aumentarão exponencialmente a quantidade de dados disponíveis, dos quais nós jornalistas não podemos fazer proveito sozinhos. Um computador pode analisar enormes quantidades de dados e desempenhar outras tarefas ao mesmo tempo, sem se cansar. Pode substituir a equipe dedicada às notícias e fornecer quase 15 vezes mais informações a um preço bem mais baixo.
Não por acaso, muitas publicações norte-americanas, entre elas Huffington Post, Sports Illustrated, Business Insider e ProPublica decidiram experimentar o “robot journalism”. “Queremos usar nossos cérebros e nosso tempo de maneira mais eficiente”, comenta Ferrara, da AP. Segundo alguns profissionais, os bots podem ser algo positivo: os redatores poderiam renunciar a trabalhos alienantes e se concentrar em conteúdos mais complexos, como reportagens investigativas, resenhas e artigos opinativos.
“As histórias que os bots podem escrever hoje são, francamente, aquelas que os humanos odeiam ter de fazer”, comenta Kevin Roose, ex-redator do jornal norte-americano The New York Times. “Se o Times tivesse usado um algoritmo para os relatórios trimestrais em lugar de passar a tarefa para jovens jornalistas, eu teria podido investir minhas manhãs em trabalhos que exigissem real inteligência humana.”
A maior parte do material produzido em portais jornalísticos online consiste em artigos breves e facilmente legíveis, relativos a fatos e declarações específicas. O advento da internet significou um aumento do espaço e uma diminuição do tempo, assim a repentina evolução da informação online se baseia na proliferação e na tempestividade de novos conteúdos. Muitas pessoas se sentem hoje sob um bombardeio midiático de notícias de última hora. Não é isso que a maior parte dos usuários espera da internet. “O que lhes interessa são interpretações dos fatos que respeitem as opiniões e os gostos deles”, acredita o professor Epifani. “Sérias ou divertidas, medíocres ou de qualidade, o importante é que sejam bem feitas e, por que não, personalizadas.”
Não por acaso a maior parte dos jornais online dão amplo espaço a blogs pessoais ou escritos por personalidades relevantes que, em muitos casos, têm mais seguidores do que a própria publicação que as hospeda. É na onda destas tendências que se observam o aumento de artigos cada vez mais longos e aprofundados com relação ao potencial multimídia (o chamado “long journalism”, que faz uso de vídeos e imagens de impacto), a difusão de conteúdos mais narrativos (o “storytelling”, ou “contação de histórias”) e o sucesso de projetos editoriais como o Huffington Post, primeiro a investir pesado em blogs, e o BuzzFeed, fenômeno com 300 milhões de visitantes ao mês que publica conteúdo engraçadinho em formato simplista mas altamente legível.
A internet ofereceu novas oportunidades e derrubou barreiras que já pareceram intransponíveis. As grandes publicações impressas entenderam que na web 2.0, das redes sociais e do comércio eletrônico, as notícias por si só não servem mais. Também por isso, não obstante os bots e os tabus, a profissão de jornalista não morrerá. Pelo contrário: o que fará a diferença será tudo aquilo que uma máquina não pode oferecer – qualidade, originalidade e capacidade de adaptação. O mundo da informação, portanto, terá fronteiras menos rígidas, mas será mais seletivo, oferecendo a quem o habita a oportunidade de se reinventar, abandonando esquemas obsoletos.
Com a crescente disponibilidade de dados, inevitavelmente as notícias vão aumentar, mas com outros objetivos para além do simples desfrute do usuário. Graças às visualizações e à propagação através das mídias sociais, produzirão elas mesmas dados que outro sistema poderá analisar. Segundo o sociólogo bielorrusso especialista em novas mídias Evgenij Morozov, professor da Universidade de Stanford, nos EUA, será “jornalismo feito por bots para bots”.
A demanda de conteúdos quentes a que os jornais estão buscando responder, porém, se coloca em um contexto mais amplo. “Hoje os usuários se preocupam com a tutela da própria privacidade e com a proteção contra vírus e spam, mas também querem receber informações e visualizar conteúdos mais pertinentes aos seus interesses”, explica Cimarelli. “Também por isso o Twitter e o Facebook modificaram recentemente os algoritmos que determinam o que vemos em nossas linhas do tempo.” Assim como o Google, estas redes construíram um modelo de negócios baseado nos dados pessoais que os usuários disponibilizam enquanto fazem buscas e compras na internet e interagem nas redes sociais.
Com estas informações, as gigantes da web são capazes de proporcionar a cada usuário conteúdo selecionado com base em seus interesses. E quando se trata da publicidade personalizada, um anunciante que busca um alvo preciso paga pelo consumidor que pode alcançar. Se já aconteceu de você buscar informações sobre uma viagem na internet e depois ser bombardeado por anúncios de hotéis e companhias aéreas, você sabe do que estamos falando. Este é o trabalho dos bots, os mesmos da escrita automática. As gigantes da web, portanto, poderiam ir além da publicidade e desenvolver um serviço de conteúdo informativo voltado para cada pessoa. O algoritmo que identifica o conteúdo a ser visualizado poderia também criar as notícias.
“Em 2025, 90% das notícias lidas pelo público serão geradas por computador e a quantidade de material publicado crescerá enormemente”, afirmou o fundador da Narrative Science, Kris Hammond. “Chegará o dia em que haverá somente um leitor para cada artigo”. Para o vice-presidente da Automated Insights, Adam Smith, “a partir dos mesmos dados, podemos formular milhões de histórias diferentes” com base nas necessidades de cada destinatário. E não só: os artigos chegariam diretamente ao usuário, que por não precisar buscá-los teria um papel cada vez mais passivo e acabaria recebendo notícias das mesmas fontes, em consonância com suas opiniões.
“Um círculo vicioso”, define Morozov. “Muitas pessoas poderiam consumir informações de baixa qualidade e receber somente poucos indícios da existência de um mundo diverso e plural.” Com a impressão de não estar perdendo nada graças à “natureza comunitária das mídias sociais”, que limita a interação dos usuários ao círculo mais estreito de amigos e pessoas que seguem, amalgamando opiniões similares.
Um dos mais destacados críticos do internet-centrismo, Morozov conjecturou sobre as consequências que poderiam advir de sistemas avançados de “robot journalism” nas mãos de empresas como Google e Amazon. “A verdadeira ameaça vem da nossa recusa em investigar as consequências sociais e políticas de viver em um mundo que impossibilita a leitura anônima de qualquer conteúdo. Um mundo que anunciantes e gigantes da web não veem a hora de ocupar, em que será mais difícil preservar o pensamento crítico e pouco convencional”, soterrado pelo senso comum cuja formação estará cada vez mais nas mãos destas grandes corporações.
* Artigo publicado originalmente no site do jornal italiano Pagina99. Tradução de Carolina de Assis.
0 comentários:
Postar um comentário