O Blog da Boitempo apresenta em seu Espaço do leitor textos inéditos escritos por nossos leitores. Quer colaborar também? Saiba como no fim deste post!

Por Alexandre Pinto & Leandro Módolo.

Quando Jean Lojkine escreveu sua já clássica A revolução informacional, em 1992, algumas das tecnologias de informação ainda engatinhavam e, mesmo assim, grande parte dos intelectuais da esquerda anticapitalista assistiam assustados aos desdobramentos e às consequências delas no metabolismo social. Infelizmente, foi apenas de modo reativo que a esquerda passou a discutir e a investigar o fenômeno que já corria nas bocas e nos corredores da política e da tecnociência do mainstream. É certo que, sob os holofotes, em sua maioria eram discursos apologéticos que ressoavam – e ainda ressoam diariamente – os porta-vozes do Vale Silício e de outros clusters de inovações capitalistas. Ora para capturar investimentos e manter a circulação e acumulação de capital, ora para se legitimar ideologicamente mediante uma nova utopia tecnocientificista na qual as TICs (Tecnologias de Informação e Comunicação) resolveriam os problemas da sociedade globalizada.

Se, por um lado, os alarmes de um novo futuro sob o comando das redes informacionais, cantado por esses apologetas, ainda soam, corretamente, como ficções científicas para amplos setores da esquerda – já que a única rede capaz de iniciarmos uma verdadeira revolução social é a rede concreta dos trabalhadores livremente associados; o certo é que muita coisa ainda acontece nos corredores da ordem dominante que parecem distantes dos olhos das forças anticapitalistas. Não estar atualizado nessas questões equivale a não estar preparado para lidar com elas no plano político, especialmente quando as inovações tecnocientíficas são cada vez mais utilizadas pela ordem dominante para aperfeiçoar seus aparelhos de reprodução nos mais diversos âmbitos da vida social.

Nosso objetivo no presente ensaio é contribuir para esse processo de acúmulo, trazendo uma questão específica no interior das transformações, que o advento das TICs proporcionou e proporciona às dinâmicas de reprodução do capital, no último período: o surgimento da chamada Big Data. Veremos ao longo do texto que, para além de apenas uma ferramenta que incide de forma acessória no processo de vida real dos trabalhadores, os potenciais demonstrados pela Big Data de fato se mostram como formas cada vez mais sutis e refinadas da exploração, da espoliação e da dominação da massa dos trabalhadores, a nível mundial. A esquerda que não percebe isso acaba sendo engolfada no interior dessa malha de poder como mais um “público-alvo” produtor e consumidor de mercadorias. Isso significa ser capturada nas suas potências críticas e criativas, o que invariavelmente resulta em sérias dificuldades nos objetivos de conseguir enfrentar com eficiência estratégica as novas configurações e estruturas de poder do capital.

* * *

Em 2011, o astrofísico britânico Martin Rees, então presidente da Royal Society, declarou que a Big Data nos permitirá ir muito mais a fundo no processo de seleção de uma massa cada vez maior de dados para trilharmos caminhos rumo à descobertas e visões até hoje nunca pensadas. A grande massa de dados não é novidade. Há mais de 50 anos, por exemplo, uma montanha de dados já eram produzidos pelos físicos da Organização Europeia para Pesquisa Nuclear (CERN). Contudo, esses dados eram armazenados em um único computador – na verdade um mainframe –, no qual cientistas do mundo todo agendavam suas “pesquisas de campo” para verificarem suas hipóteses, já que pouquíssimas máquinas no mundo era capazes de processar dados como ela.

Com o desenvolvimento das TICs, poucos grandes prédios de mainframe foram sendo substituídos por inúmeras grandes ilhas de redes independentes ao longo de todo globo. Em 1989 os links entre tais ilhas eram estabelecidos garantindo o efetivo início da rede de internet global. Os cientistas passaram, então, a acessar os terabytes, pentabytes, zettabyte… de modo remoto a partir de qualquer canto, por meio do www. Hoje, não apenas os locus de armazenamento de dados se aperfeiçoaram e se multiplicaram, tais como as chamadas nuvens e tantas outras tecnologias, mas também as técnicas e objetos com os quais e dos quais derivam informações não param de crescer, intensiva e extensivamente.

O Grande Colisor de Hádrons da CERN é o maior acelerador de partículas e de maior energia existente no mundo. Seus detectores nucleares contam com 150 milhões de sensores fotografando cada colisão, ou seja, mais de 14 milhões de fotos por segundo. Uma avalanche de dados informacionais, antes impossíveis de serem manuseados, hoje são computados, analisados, processados e dispostos funcionalmente para os mais diversos fins. Essa capacidade de manipulação dos dados, que surge como um fenômeno tecnocientífico, aos poucos foi extrapolando as paredes dos laboratórios das Big sciences e desaguando no nosso cotidiano.

A expansão dessas tecnologias atualmente já está se reproduzindo e abrangendo múltiplos aspectos da nossa vida. Seja em tempo real, com o tráfego e a circulação financeira, seja com previsões curtas, como diagnósticos médicos e meteorologias, seja em situações (im)previsíveis, como negócios, crimes, propensões a doenças etc. Uma rede de sensores, cada vez mais ininterrupta, captura dados através da “internet das coisas” (IoT)1: dos já triviais como as câmeras, notebooks, smartfones, bolsas de valores, aparelhos de georreferenciamento, pedágios, catracas, TVs, videogames etc., aos mais invisíveis nanotecnologicamente, como aqueles acoplados nos veículos, nos cartões de crédito, nos eletrodomésticos, nos vestimentos, nos relógios, nos animais de estimação, nas pulseiras biométricas etc. Todos registram atividades, comportamentos, deslocamentos, preferências, desejos, em suma, dados, e os armazenam em bancos com capacidades antes inimagináveis de memória, transporte, conectividade, processamento e análise.

Todas as ações humanas traduzem-se em produção de dados, deixando para trás rastros informacionais. Na verdade pode se dizer que as informações, ao menos em termos instrumentais, são características trans-ontólogicas, isto é, todas as formas de Ser da matéria são passíveis de serem informacionalizadas no escopo de tais informações ganharem operacionalização em um fim prático e útil. Não são apenas os seres humanos que produzem informações a cada passo, palavra dita, caloria queimada, batimento cardíaco etc., e, por conseguinte, podem ser direcionados com mais eficiência para um destino preciso. Com a virada cibernética desabotoou-se uma nova forma de apreender também os fenômenos físicos, químicos, biológicos, tais como a entropia da biodiversidade amazônica, as mutações genéticas de toda matéria viva, a ecologia dos mais diversos habitats, entre tantos outros fenômenos. Sob o agenciamento das redes tecnocientíficas do capitalismo contemporâneo, as três esferas do Ser-em-geral – Ser Inorgânico, Orgânico e Social – vem progressivamente sendo reconfiguradas como dispositivos de geração de dados capazes de abastecerem os fluxos entre as Big datas de todo o globo.

Algumas das materializações possíveis deste empreendimento podem ser visualizadas, brevemente, no que o National Endowment for the Humanities (NEH), dos EUA, denomina de “Humanidades digitais”. Trata-se de um campo de pesquisa que incorpora diretamente as tecnologias informacionais a estudos em humanidades. Mediante milhares de dados computados e analisados coordenadamente por historiadores, sociólogos, economistas, biólogos, cientistas da computação, programadores, estatísticos, entre outros, novos problemas de pesquisa estão surgindo. Eles vão das análises históricas de larga duração, como é caso do trabalho iniciado pelo historiador David Eltis sobre o mercado de escravos entre 1514 a 1866, contando com dados de 36 mil viagens de navios negreiros, até as pesquisas de criminologia como a empreendida pelo Tribunal Criminal Central de Londres (Old Bailey) no projeto Data Mining with Criminal Intent que analisa registros de 197 mil julgamentos realizados de 1674 a 1913.2

Toda essa chuva de dados e informações proporcionados pelas TICs exige novas técnicas e técnicos. No mercado já existem, por exemplo, os data science, profissionais responsáveis pela garimpagem, mineração, manipulação e análise dos milhares de dados correntes, visando organizá-los e estruturá-los para que seja possível apreender correlações, nexos de causalidade, operar triagens e classificações, identificar padrões e perfis antes não visíveis aos olhos humanos. Quando capturados, estes dados são novas matéria-primas – e, pelo imperativo do mercado, novas mercadorias – através das quais se podem construir informações estruturadas em cadeias lógicas, com os mais distintos significados e objetivos, para soluções “técnicas” de problemas práticos, seja de ordem econômica, política, social, militar etc. É nesse ponto que se explicita o papel central do dispositivo informacional mais utilizado no processamento destes dados, os algoritmos.

De forma geral, algoritmos são receitas através das quais séries lógicas de variáveis são organizadas para responderem a uma problemática específica. Os exemplos dos manuais de instrução e as receitas de cozinha são os mais corriqueiros. Estes sempre contêm informações detalhadas sobre o que fazer em cada situação em que se colocam alternativas para atingir um objetivo determinado, seja montar um guarda-roupas, seja cozinhar um bolo de fubá. Os algoritmos são algo como essas receitas mas em modus operandi hightech, eles são capazes de computar e processar automaticamente milhares de dados – estruturados e não-estruturados – visando qualquer objetivo previamente posto. Atualmente existem muitos exemplos da utilização dos algoritmos nos mais variados tipos de atividades e serviços, como formas de retirar informações contidas nos dados e, sobretudo, desenvolver comandos e respostas práticas adequadas segundo os interesses das pessoas, instituições e empresas que os mineram e processam. A novidade, portanto, que a aplicação de algoritmos em Big datas possibilita é que, na medida em que são rodados em máquinas com altíssima capacidade de cognição e processamento, conseguem, em alguns minutos, alcançar os resultados que um trabalho coletivo humano demoraria meses ou mais para obter. Consequentemente, seu uso passou a ser cada vez mais frequente nas mais diversas áreas, visando construir novos diagnósticos, novos prognósticos e novas predições para embasar decisões de performance, de organização, de governo, de comando e de controle.

Em geral, pode-se dizer que a utilização da Big Data e dos algoritmos para otimizar a capacidade produtiva e organizacional da sociedade é um avanço inédito na história da humanidade. Porque ela multiplica a nossa capacidade de planejamento e execução de serviços diversos, desde a agricultura até a medicina. Através do armazenamento de dados com informações genéticas, registros médicos, prontuários, dados populacionais e comportamentais, fatores bacteriológicos etc. já é possível, por exemplo, constituir estudos multicêntricos com predições epidemiológicas antes inimagináveis. Não se trata, é claro, de assumir uma postura redentora quanto ao papel das TICs no metabolismo social e ecológico, como fazem seus ideólogos, mas de reconhecer que elas possuem potências que podem – e devem – ser apropriadas na constituição de um novo modo de produzir e organizar a vida comum a todos seres humanos e a todos os seres vivos, um modo communista.

Entretanto, é preciso ter claro que tal desenvolvimento sociotécnico não é neutro, e que não se pode fechar os olhos para o contexto no qual ele está sendo desenvolvido e aplicado, bem como aos interesses a que serve e as consequências que produz. Os seus desdobramentos crescem conforme se expandem os seus usos.

Dentro dessa rede tecnocientífica, tudo – segurança, trabalho, saúde e lazer – é passível de ser armazenado em bancos de dados e a utilização dos algoritmos para tomada de decisões tornam-se cada vez mais frequentes e irradiados por todos interstícios da vida social. Um exemplo próximo à realidade dos trabalhadores é a perfilização e avaliação de candidatos em entrevistas de emprego: algoritmos relacionam as respostas dadas pelo candidato a uma série de perguntas, mais as informações do candidato advindas de outros bancos de dados como Facebook, Google, etc., e determinam, segundo uma escala pré-definida do perfil desejável para o emprego em questão, se o candidato atende aos requisitos necessários para o cargo. Vale mencionar, também, os casos de biometrias que já chegaram ao Brasil via a revalidação do título eleitoral. Estima-se que até 2022 toda a população estará bioidentificada, consolidando o projeto de Identificação Civil Nacional (ICN), aprovado recentemente pela Câmara e pelo Senado, consagrando um enorme banco de dados, sob o poder do Estado, capaz de correlacionar sistematicamente as mais diversas atividades dos cidadãos comuns, ampliando a eficiência dos aparelhos de hegemonia no nível segmentar.

Os efeitos de poder dessas e tantas outras aplicações de algoritmos em diversas atividades sociais advém do fato de que também os algoritmos não são neutros3. Normalmente se veicula que o resultado produzido pelo algoritmo é um resultado técnico neutro, ausente de posicionamentos políticos e ideológicos, já que ele apenas analisa múltiplas variáveis e as correlaciona para um determinado fim. Mas, na realidade, a dinâmica de funcionamento do algoritmo trabalha sempre dentro das receitas e dos padrões que são definidos pelo programador, ou por quem contratou o programador. Nesse sentido, tais “algoritmos são, em certo sentido, opacos: as pessoas não entendem de onde eles vêm, como são calculados e computados. Às vezes, eles até são secretos!”, diz a analista de dados Cathy O’Neil. Sua pretensa objetividade acaba reproduzindo visões de mundo, preconceitos, mistificações e reducionismos que já existem na consciência social típica do nosso tempo.

Um exemplo importante disso é relatado por O’Neil, em seu livro Weapons of Math Desctruction. Trata-se do uso dos algoritmos em bancos de dados dos departamentos de polícia, nos EUA. A partir de um histórico de ocorrências de mais de três décadas reunidas em um banco de dados estruturado, o algoritmo “prevê” quais os locais da cidade onde existe a maior probabilidade da incidência de crimes, apontando para a necessidade de aumento do policiamento nessas áreas. Obviamente que a consequência disso foi um extensivo policiamento de áreas periféricas das cidades, onde as populações são predominantemente negras e pobres. O aumento do assédio da polícia a essas populações resultou em uma série de excessos policiais, que culminaram em uma onda de protestos contra a ação da polícia; movimento que, posteriormente ficou mundialmente conhecido como “Black Lives Matter”. Nesse sentido, é preciso refletir. Se a polícia já vem há mais de um século cumprindo a função de criminalizar a pobreza, segregar a população negra e defender a propriedade privada, o algoritmo que opera o seu banco de dados vai apenas tornar mais eficiente essa mesma tarefa; neste caso, ele vai tornar mais eficiente a reprodução do racismo, da segregação, da exclusão e da desigualdade social.

A luta contrahegemônica não pode e, cada vez mais, não poderá se furtar à luta contra a inteligência operada pelas machine-learning corporativas. Já vêm sendo desenvolvidas em âmbito nacional, por exemplo, pesquisas críticas sobre a utilização dos algoritmos no interior do mercado financeiro. Como avisa o sociólogo Edemilson Paraná, “nos mercados financeiros, particularmente, os algoritmos de negociação (sequência lógica de parâmetros que executados levam a um dado objetivo) tornaram-se a base de sustentação cognitiva dos ‘robôs’ de execução automática de ordens”, isto é, “no lugar dos antigos pregoeiros, compradores e vendedores de ações, estão físicos e astrofísicos, economistas formados nas melhores universidades do mundo e gênios da matemática que desenham algoritmos e estratégias de negociação automatizada, para serem realizadas na velocidade de mili-segundos por meio desses sistemas”4.

A própria dinâmica da tomada de decisões com relação à compra de ações e a investimentos de capitais, são afetadas através das milhares de variáveis analisadas pelos algoritmos e que significam tomadas de posições com relação às “expectativas” do mercado. Isso reforça a centralidade das agências de classificação (rating), e automatiza a própria subordinação política e econômica das economias dependentes, cuja atração de investimentos depende da estabilidade que consegue manter aos olhos do mercado.

Na década de 1990 as potencialidades das inovações tecnológicas geradas pelo desenvolvimento da informática e da microeletrônica, produziram intensos debates no interior das humanidades, visando compreender as alterações que tais inovações consolidam no interior do capitalismo. Diversas teses procuravam dar conta de compreender o fenômeno inédito que se iniciou na segunda metade do século XX e que, entre suas principais características, apontava para a incorporação sistematizada da Ciência no interior das dinâmicas de acumulação do capital. Se antes o processo do fazer científico e da inovação tecnológica eram desenvolvidos de forma difusa no interior da sociedade e incorporados na produção capitalista como parte de um “saber social geral”, a necessidade do desenvolvimento tecnológico, como meio para obtenção de “superlucros” no interior da concorrência, fez com que, o conhecimento científico passasse, sistematicamente, a compor internamente a própria cadeia do processo produtivo.

Esse movimento diversificou e potencializou as possibilidades de acumulação, assim como construiu desenvolvimentos científicos consideráveis. O início do século XXI é já um produto avançado dessas transformações, onde os principais centros de pesquisa e desenvolvimento científico do mundo estão diretamente vinculados às empresas – pela mediação das universidades, ou não -, ou são eles próprios empresas com ações na bolsa de valores etc. O fato é que a conexão entre o desenvolvimento tecnocientífico e os fluxos de acumulação de capital são hoje inevitáveis. E o salto no avanço tecnológico que experienciou a computação e as TICs nas últimas duas décadas, resultando no fenômeno das Big Datas, está intimamente conectado a esse processo.

O geógrafo David Harvey nos dá pistas importantes para a pensarmos a função dessas redes tecnociêntificas no capitalismo contemporâneo, através da chave da acumulação por espoliação. Porque, de fato, a produção multiplicadora de dados e o desenvolvimento sistemático de aplicações para esses dados em diversas esferas do Ser-em-geral, faz com que a própria apropriação deles como uma mercadoria seja um novo “ativo” sob o qual pode se desenvolver toda uma cadeia de acumulação. Não à toa, as grandes plataformas virtuais concentradoras de dados, como o Facebook, o Google, o Twitter, Amazon etc., são empresas de ponta tanto no desenvolvimento das tecnologias de mineração e processamento de dados, como enquanto comercializadoras de serviços de publicidade e de acesso restrito aos dados – como as data brokers (empresas de comercialização de dados).

A própria natureza do funcionamento da Big Data exige que ela se consolide principalmente por meio da concentração dos dados, o que reforça, no contexto do capitalismo, o caráter monopolista da constituição das principais empresas deste setor, que rapidamente se tornam corporações gigantescas com enorme poder político e econômico, no nível planetário.

Aqui se coloca a necessidade de repensarmos o nosso papel na outra ponta dessa equação. Na medida em que incorporamos esse “modo de vida” online, que torna-se cada vez mais um imperativo sociotécnico – seja pelo Estado, pelos Bancos, pelo transporte, pela comunicação etc. –, transformamos nossas mais simples atividades em atividades conectadas à rede, bem como, somos sistematicamente incentivados pelas dinâmicas ideológicas e valorativas do nosso tempo histórico a produzir dados sobre nós mesmos, voluntariamente. Isso faz com que uma boa parte das nossas ações e relações cotidianas, que aparentemente não tinham nenhum valor para o capital, se coloquem, de fato, como uma espécie de “trabalho” produtor de “mercadorias-dados”5. Cada click no mouse, cada página visitada, cada curtida, cada “busca”, cada comentário, cada deslocamento do seu GPS, são informações coletadas e armazenadas no seu perfil, que depois são processadas e agrupadas em um banco de dados valioso para os interesses das mais diversas empresas e governos6.

As possibilidades de comercialização resultantes dessa relação estendem continuamente os limites da espoliação. Os algoritmos das grandes plataformas de mídias sociais são um exemplo bem evidente dessa questão. Recentemente, o pesquisador e ativista Henrique Antoun, demonstrou possíveis maneiras pelas quais os algoritmos do Facebook ou do Google filtram e segmentam – de forma contextual e comportamental 7– o que é apresentado para cada um de seus usuários, conduzindo a eles, mediante seus respectivos históricos online, apenas o que mais lhe agrada ver, afastando-os das informações que não se encaixam em seus perfis, evitando ao máximo defecções. Ao contrário de visarem “melhores conexões entre as pessoas”, como alardeiam suas peças de propaganda, o que essas companhias têm como objetivo é a manutenção do agenciamento monopolista dos usuários no interior de sua plataforma, para que seja possível a elas continuar captando e armazenando os dados que nós produzimos como um solo privilegiado para acumução rentista8. Em outras palavras, os imperativos do “valor de troca auto-expansivo” que atuam na internet de modo opaco aos usuários de massa, também os leva à concentração e centralização de poder econômico através das mercadorias-dados, e ao poder político e ideológico com os algoritmos dos filtros-bolhas.

Em grande parte do mundo periférico o “valor dos dados” estão sendo reconhecidos e comercializados sem que haja sequer uma estrutura clara e efetiva de regulamentação dessa atividade. Este locus de espoliação é visado pelos mais diversos atores, que captam essa tendência e a utilizam, obviamente, no sentido da consolidação de seus interesses, como é o caso – recentemente noticiado pela revista Caros Amigos – onde o prefeito de São Paulo, João Dória Jr., declarou “que irá vender os dados pessoais dos cidadãos, armazenados no Bilhete Único mensal, para empresas, no que ele chama de ‘maior programa de privatização da história’”9. O objetivo aqui é claro. As empresas utilizarão as informações das viagens dos usuários do sistema de transporte para otimizar os seus lucros, enquanto o prefeito, conservador e privatista, receberá sua quota na espoliação e, ainda, aumentará sua hegemonia sobre a população paulistana mediante estes novos dispositivos de controle.

Mas a ninguém ocorreu perguntar: a quem pertencem os dados gerados pelas nossas atividades? É justo que esse genuíno produto da nossa “atividade social geral” – como o próprio fruto do trabalho o é – seja apropriado pelos interesses privados de empresas e corporações que buscam otimizar seu processo de acumulação? É possível aceitarmos os eufemismos da mídia em torno da Big Data, anunciada como a “otimização” dos serviços e dos produtos que nos são ofertados, como simples “maravilhas da tecnologia”? Tais dados não são bens comuns a todos nós, os produtores-de-dados?

Há tempos movimentos sociais específicos alertam para as necessidades de maiores discussões acerca da “segurança na rede”. Desde os vazamentos da WikiLeaks e de Edward Snowden, ganharam maior visibilidade as discussões em torno da “neutralidade da rede”, da necessidade de criptografia dos dados, do papel das grandes corporações controlando a internet. Se a “vigilância” total10 – que traz em debate ora a questão da intimidade individual no interior do dilema político entre liberdade e segurança, ora a questão da soberania nacional no campo das relações internacionais – já é um problema necessário de ser encarado de frente pelas forças de esquerda, atualmente a Big Data introduz a discussão da “propriedade privada” dos dados.

De forma geral, a crítica social deve ter clareza que a utilização e aplicação do potencial que as tecnologias de captação e processamento de dados possuem se generaliza tendencialmente na direção do atendimento às dificuldades e barreiras que se colocam para a reprodução ampliada do capital, a nível global. Isso acontece porque os problemas – e as soluções – encontrados pelos indivíduos e sujeitos que dão respostas aos dilemas típicos do tempo histórico, efetivam-se no sentido da reprodução do sistema. Portanto, não se trata de nenhuma teoria da conspiração. Mesmo que algumas iniciativas surjam de forma autônoma (em centros de pesquisas independentes, por exemplo), logo elas são adaptadas e absorvidas para servir aos interesses da acumulação, ou da dominação político-ideológica.

Seja qual for o posicionamento que se tenha acerca da natureza do capitalismo atual, aqueles que se dedicam politicamente à crítica do sistema e sua transformação pela luta social, devem ter consciência do papel que os processos informacionais cumprem na dinâmica do capital e nos desdobramento advindos dela. Se levada a sério essa tarefa, a cada ponto que se avança se percebe o aprofundamento e a intensificação da lógica da dominação capitalista em todos os aspectos da vida social. A “dominação algorítmica” empreendida pelas corporações não está apenas para o poder político, como o Big Brother de George Orwell estavam para os regimes denominados por alguns de “totalitários”. Mas, sobretudo, ela está diretamente intencionada para a apropriação privada e para a manutenção da renda monopolista de tais empresas capitalistas sobre a produção social de dados existentes nas redes. Ela é um assalto espoliativo do “comum” produzido pela humanidade e que, por tal necessidade econômica, torna-se capitalisticamente tirânica11. Novos meios para uma velha dominação!

São tempos difíceis para aqueles que se propõem a revolucionar as estruturas de poder, dominação e exploração. Algumas décadas já passaram da vitória do Deep Blue, o algoritmo da empresa estadunidense IBM, sobre o campeão mundial de xadrez Gary Kasparov. De lá para cá não apenas os avanços das tecnologias tornaram os algoritmos ainda mais capazes de fazer frente aos seres humanos, como, também, o neoliberalismo converteu a própria realidade social num jogo de capitais nas mãos das grandes corporações. O esforço deste ensaio, portanto, caminhou justamente no sentido de chamar a atenção para os desenvolvimentos deste processo, que, ao que parece, é grávido de consequências presentes e futuras que a esquerda anti-capitalista, em larga medida, pouco dá atenção. Tais consequências têm reflexos diretos e indiretos nas dinâmicas da luta social, o que coloca para nós o imperativo de renovar nossas estratégias, de apurar nossas táticas e de nos reinventarmos para acompanhar o ritmo do inimigo.

Notas

1 Atualmente badalada pelo mercado, a “internet das coisas” é o empreendimento de inovação sobre uma variedade de objetos com conexões digitais para transmissão de informações através das redes virtuais. “A consultoria McKinsey estima que em 2025 a IoT deve gerar, em nível mundial, receitas entre U$ 3,9 trilhões e US$ 11,1 trilhões, contribuindo com até 11% do PIB global. O número de dispositivos conectados à internet irá saltar de cerca de 10 bilhões em 2015 para 34 bilhões até 2020, quando a população no planeta será de 7,6 bilhões – resultando em uma média superior a quatro dispositivos por pessoa, de acordo com a consultoria BI Intelligence.” Ver www.bndes.gov.br/wps/portal/site/home/conhecimento/noticias/noticia/internet-coisas-iot

2 Ver Revista Caros Amigos Ed. Especial – Tecnomundo 09 de Agosto de 2017.

3 Não são como afirma Mark Zuckerberg, criador do Facebook, ao se referir aos objetivos dos algoritmos que operam a sua plataforma: “Estamos apenas no ramo de conectar pessoas e ideias – e associar as pessoas às histórias que elas acham mais significativas.” (Ver Revista CarosAmigos Ed. Especial – Tecnomundo 09 de Agosto de 2017.)

4 Ver a dissertação de Mestrado do sociólogo Edemilson Paraná publicada pela Editora Insular sob o título A finança digitalizada: capitalismo financeiro e revolução informacional (2016).

5A literatura da chamada “economia política das comunicações” atualmente tem produzido importantes escritos que analisam na internet, essa relação de produção/apropriação de dados como um processo de trabalho propriamente dito, ainda que seja um trabalho não-remunerado. Para um apanhado do debate ver Fuchs, C. & Fisher, E. Reconsidering Value and Labour in the Digital Age. London. Palgrave Macmillan. 2015.

6 De acordo com o Boston Consulting Group, em 2011, o valor dos dados dos usuários no mundo todo giravam em torno de 315 bilhões de euros no mundo, ou seja, 600 euros por indivíduo. Fonte: http://diplomatique.org.br/a-cacada-metodica-aos-dados-do-internauta-revoluciona-a-publicidade/

7 “O Google, aliás, tornou-se um especialista de segmentação em função do contexto editorial, por meio do programa AdSense: ele envia anúncios baseando-se na temática da página da web visitada. Ou por meio da comercialização de links patrocinados em resposta a pesquisas no programa de busca, ou ainda em função de palavras encontradas nas contas do Gmail – por exemplo, um anúncio sobre ‘Férias no Marrocos’, se um e-mail em sua caixa postal menciona esse país.” Fonte: idem.

8 A considerar o caráter rentistas das grandes marcas, vale mencionar as artimanhas que o capital tem encontrado para acelerar seus circuito de acumulação nas redes, como mencionado por Marie Bénilde “os meios de comunicação entraram, sob o modelo do Google e sua rede de comercialização de palavras-chave (AdWords), em um mundo de lances em tempo real (real time bidding) que funciona como a Bolsa, por meio de corretores on-line (trading desk). Um mundo em que o número de transações é dez vezes maior que o da Bolsa de Valores de Nova York. Em 120 milésimos de segundo, a partir do momento em que um internauta visita uma página da web, um espaço publicitário vai a leilão, e o maior lance obtém a alocação do anúncio. Esse tipo de comercialização baseado num algoritmo de leilão representa quase 15% da compra de publicidade on-line na França e 30% nos Estados Unidos.” Fonte: idem.

9 Fonte: http://gizmodo.uol.com.br/bilhete-unico-privatizacao-dados/

10 Vale acompanhar as pesquisas em torno do projeto five eyes – acordo de vigilância das comunicações mundiais entre os EUA, Reino Unido, Canadá, Austrália e Nova Zelândia – com o capital da internet, como diz Dan Schiller: “Nas últimas décadas, desenvolveram-se as indústrias da ciberguerra, da coleta e análise de dados, que não presta contas a ninguém e da qual faz parte o ex-patrão de Snowden, a empresa Booz Allen Hamilton. Em outras palavras, com a privatização em massa, `o outsourcing da inteligência secreta` banalizou-se. Assim, o que por muito tempo foi uma prerrogativa do Estado tornou-se uma enorme joint venture entre este e o meio empresarial. Como demonstrou Snowden, o complexo de vigilância norte-americano está agora ligado ao coração da indústria da internet.(…)Embora os interesses de tais companhias não se confundam realmente com os do governo norte-americano, é incontestável que as grandes empresas de computação são parceiras indispensáveis para Washington.(…) A Amazon, por exemplo, vende uma ‘nuvem’ a mais de seiscentas agências governamentais e concluiu um contrato de US$ 600 milhões com a CIA.” Fatos estes que não ficam sem seus comprometimentos éticos e políticos dos sujeitos que os conduzem, citamos os casos do chefe de segurança do Facebook, que foi para a NSA em 2010; o da ex-diretora da Darpa Regina Dugan, atual vice-presidente do Google; ou ainda o do ex-conselheiro de Hillary Clinton no Departamento de Estado que se tornou responsável pela estratégia da Microsoft. Isso sem falar da presença de Condoleezza Rice no Conselho de Administração do Dropbox. (Ver http://diplomatique.org.br/silicon-army/)

11 “Em junho de 2014, 87% das 15 mil pessoas interrogadas em quinze países pela empresa de relações públicas Edelman Berland disseram que a lei deveria ‘proibir as empresas de comprar e vender dados sem o consentimento’ dos envolvidos.” (Ver http://diplomatique.org.br/silicon-army/ )

***

O Espaço do leitor é destinado à publicação de textos inéditos de nossos leitores, que dialoguem com as publicações da Boitempo Editorial, seu Blog e obras de seus autores. Interessados devem enviar textos de 1 a 10 laudas, que não tenham sido anteriormente publicados, para o e-mail blog@boitempoeditorial.com.br (sujeito a aprovação pela editoria do Blog).