Tecnopolítica e educação: roubo, vigilância e modulação
Technopolitcs and education: theft, surveillance and modulation
Renata Lima Aspis
Universidade Federal de Minas Gerais, Belo Horizonte, Brasil
renatalimaaspis@gmail.com - https://orcid.org/0000-0001-6330-8027
Recebido em 11 de setembro de 2022
Aprovado em 13 de setembro de 2022
Publicado em 03 de novembro de 2022
RESUMO
Este artigo tem como objetivo geral trazer algumas questões e conceitos, que não são especificamente do campo da educação, para problematizar a presente adesão das universidades públicas brasileiras às plataformas digitais pertencentes às grandes corporações norte americanas. O artigo percorre o caminho da análise e da crítica ao funcionamento dos mecanismos de roubo de dados, vigilância e manipulação das subjetividades dos usuários das tecnologias digitais de comunicação e informação em redes cibernéticas, explicitando-os e assim conduzindo às urgentes questões referentes à possibilidade de pensamento autônomo hoje. O pensamento é entendido não apenas como ações de análise e crítica, mas também, seguindo Deleuze, concebendo-o como criação. A conclusão é a da premente necessidade de que primeiramente se reconheça o problema de captura da vida, operada pelas grandes corporações de tecnologia digital do norte global. E em consequência disso, que se sinta a exigência de movimento de criação de formas de resistência à investida de destituição da soberania das universidades públicas brasileiras sobre a criação de conhecimento ali realizada, por meio do roubo e controle dos seus dados.
Palavras-chave: Tecnopolítica; Colonialismo de dados; Governamentalidade algorítmica.
ABSTRACT
The main goal of this article is to comment on a number of questions and concepts that are not specifically from the education field to problematize the current adherence of Brazilian public universities to digital platforms developed and owned by north-american corporations. The article analyzes and criticizes the inner workings of the mechanisms of data theft, surveillance and manipulation of user’s subjectivities, explaining them to then discuss the urgent matters of critical thinking in today’s world. Thought is understood not only as actions of analysis and criticism but also, according to Deleuze, as creation. The conclusion is that there is a pressing need to acknowledge the problem of the capture of life operated by big tech corporations of the global north and because of that understand the necessity of the creation of a movement of resistance to the attempt of destitution of the sovereignty of brazilian public universities over their knowledge and knowledge creation process through data theft and control.
Keywords: Technopolitics; Data colonialism; Algorithmic governance.
Como você desperta da Matrix
se você nem sabe que está nela? (Tristan Harris)
O termo tecnopolítica pode ser entendido de forma bastante ampla, como os efeitos políticos das tecnologias que permeiam as relações sociais, ou seja, refere-se aos arranjos tecnológicos e sociotécnicos que organizam cada vez mais a nossa vida e influenciam o modo como vivemos. Esses dizem respeito não só às tecnologias de comunicação, mas a outras, de organização das cidades, como distribuição de água, por exemplo, entre tantas outras da arquitetura da sociedade (PARRA, 2020). Neste artigo, porém, vamos nos ater aos mecanismos das tecnologias digitais de informação e comunicação em redes cibernéticas e tentar entender como funcionam no condicionamento de comportamento social e mais especificamente suas consequências no campo da educação.
Essas tecnologias estão intensamente presentes no funcionamento do cotidiano de todos, mesmo daqueles que não as usam diretamente. A partir da Revolução Microeletrônica, do século passado, o que percebemos é um movimento constante dessas tecnologias se tornarem cada vez menores, cada vez mais rápidas e cada vez mais baratas. Isto faz com que cada vez mais as relações sociais sejam mediadas por tecnologias digitais de informação e comunicação em redes cibernéticas, cada vez de forma mais intensa, e usadas por um número maior de pessoas. Isso, em si, é um problema? Não. As tecnologias, elas mesmas, não são boas nem más. Tudo depende do modo como são usadas, por quem são usadas, para quê e em detrimento do quê. Nossa civilização já passou por revoluções industriais, nossas vidas já foram condicionadas por milhares de invenções. No entanto, em relação a essas tecnologias, podemos pensar que talvez não se trate apenas de mais uma invenção. Isto porque tais tecnologias têm efeitos que se expandem desde o espaço sideral, passando pela própria estrutura da sociedade, até as células dos corpos humanos e suas psiques e os seus desejos e suas formas de pensar e agir no mundo e, mais, sem que isso seja exatamente conhecido.
As ações de comunicação digitalmente mediadas são capazes de estender nossa capacidade de se comunicar com qualquer pessoa conectada no planeta, em tempo real, de perceber a realidade e de reagir a ela. Para muito mais além de nossos sentidos naturais, essa infraestrutura invisível nos permite saber onde as pessoas estão; o que fazem e, com o apoio de sensores e redes, perceber de outra maneira nosso ambiente proximal ou distante. São informações que nos permitem tomar decisões diferentes daquelas que tomaríamos se não tivéssemos o acesso a todos esses dispositivos e redes. Isso afeta continuamente nossa realidade e, ampliada a uma escala de milhões de pessoas, transforma toda sociedade (PARRA; CRUZ; AMIEL; MACHADO, 2018, p.65).
Perguntamos: quem controla as redes pelas quais estamos envolvidos? Quais são os interesses que estão por trás da disponibilização gratuita dos aplicativos e plataformas que usamos cotidianamente? Não sabemos. E vivemos isso quase sem perceber, de forma acrítica, nos entregamos. Isto é um problema? Sim. Estamos sendo controlados remotamente, estamos hipnotizados, agindo segundo a vontade de outrem. E, sim, isto é um problema, pois, ao deixar de ser livre, ao abdicar de criar sentido para a própria vida, o que podemos dizer que resta de um ser humano?
Isto dito assim dessa maneira parece bastante alarmante e talvez difícil de ser levado a sério. Pode nos vir à mente o clássico temor que aparecem em algumas ficções científicas, quando os robôs de Inteligência Artificial dominam a Terra e passam a escravizar os seres humanos, então olhamos ao redor e achamos tudo normal e pensamos “sou eu que uso meu celular, não ele a mim, que bobagem”. Alguém nos fala que os algoritmos estão nos governando (mas o que são mesmo, os algoritmos?), uma vaga sensação de estarmos perdendo uma parte da história nos invade, mas logo adotamos nossa habitual postura de ficarmos cômodos e pensamos “não pode ser que seja tão grave assim, caso contrário ‘alguém’ já teria feito alguma coisa, quanto alarmismo!”. Ou pode ser que intuímos que haja algo realmente de muito errado acontecendo, mas nossas milenares preguiça e covardia rapidamente nos reposicionam no hábito derrotista de pensar que não podemos fazer nada a respeito disso.
O objetivo deste artigo é trazer algumas questões e conceitos, que não são especificamente do campo da educação, para problematizar a presente adesão das universidades públicas brasileiras às plataformas digitais pertencentes às grandes corporações norte americanas. A partir da explicitação do funcionamento dos mecanismos de roubo de dados, vigilância e manipulação das subjetividades dos usuários das tecnologias digitais de comunicação e informação em redes cibernéticas, pretendemos conduzir às urgentes questões referentes à possibilidade de pensamento autônomo hoje, entendendo este não apenas como ações de análise e crítica, mas também, seguindo Deleuze (2006), concebendo-o como criação.
Tecnopolítica: como tudo isso funciona
Nos últimos dez anos, as maiores empresas do Vale do Silício
operam vendendo seus usuários (Roger Namee)
Vivemos hoje o que se tem chamado de plataformização (POELL; NIEBORG; VAN DIJCK, 2020) da sociedade, que é a já indissociável relação entre as estruturas da sociedade e as plataformas digitais. Os diversos setores sociais como saúde, educação, transporte, etc., estão mais e mais a cada dia, dependentes das infraestruturas dessas plataformas, que, note-se, e isto é muito importante, são plataformas que são de propriedade privada das cinco maiores corporações de tecnologia, norte americanas: Google/Alphabet, Apple, Facebook, Amazon e Microsoft (GAFAM). As cinco corporações mais ricas do mundo hoje são de tecnologias da informação. A capa de um dos números da revista The Economist, em 2017[i], traz uma ilustração onde se vê uma paisagem do mar com diversas plataformas de petróleo, cada uma com o logotipo de uma dessas empresas que negociam dados. A manchete é: O recurso mais valioso do mundo não é mais o petróleo, mas dados. Dados. Tudo começa por aqui.
Muitos de nós, senão todos, já tivemos a sensação de que nossos telefones celulares ouvem nossas conversas, já que aparecem sugestões em suas telas sobre coisas há pouco comentadas. Por que isso acontece e como?
Isso acontece porque tudo, absolutamente tudo que qualquer um de nós faz na internet está sendo assistido, rastreado, medido, qualquer ação, como compras com cartão de crédito, buscas na web, localização, interações como dar likes e fazer comentários, tudo é minuciosamente monitorado e registrado constantemente. É possível que, por meio dos sensores da câmera dos computadores, se saiba exatamente o que os olhos estão focando na imagem apresentada, é possível saber quanto tempo ficamos olhando uma determinada imagem. Trata-se de um complexo e eficaz sistema de vigilância. Cada ínfimo gesto de cada um de nós, on line, é transformado em dado. A isso se dá o nome de dataficação, ou seja, o processo de transformação das relações sociais em dados que, a despeito de sua dimensão qualitativa, são necessariamente quantitativos. Ou seja, a dataficação é o processo pelo qual as ações sociais passam a ser quantificáveis, o que leva à possibilidade de que sejam rastreadas em tempo real e que se desenvolva toda uma ciência de análise preditiva. Por meio de uma coleta generalizada de dados criam-se padrões de comportamento, que serão usados depois, mas não pelas próprias pessoas. “Indo além da digitalização, a dataficação é a tradução de intenções, ações, reflexos, sentimentos em dados operacionalizáveis, para gerar novas ações preditivas (coletivas ou individuais) a partir de coleta extensiva de informações” (LEMOS, 2021, p.195). As grandes corporações, empresas privadas, que visam lucro e apenas lucro, oferecem serviços que parecem ser gratuitos para uso, já que não cobram em dinheiro. Porém, nada é gratuito no capitalismo, não tenhamos ilusões quanto a isto. Essas empresas cobram o uso de seus aplicativos em dados. Assim, a coleta massiva de dados, por enormes empresas capitalistas, criou um grande mercado de dados, o petróleo do século XXI. E podemos dizer que a vida social cotidiana passou a ser fator de produção capitalista. De certa forma, os dados só existem para o capital, pois, quando estamos fazendo qualquer coisa on line, não pensamos neles, muitas vezes nem sabemos que eles existem. É importante salientar que os problemas em relação às tecnologias digitais de informação e comunicação dizem respeito ao uso neoliberal que é feito delas. O uso dessas tecnologias, com efeitos deletérios, está se dando no contexto do neoliberalismo, essa máquina de transformar tudo em empresa, até mesmo os sujeitos, os novos “empreendedores”, cujas relações se resumem à concorrência, esse sistema de capturar tudo em prol do capital, a despeito da vida, vida foi tornada fonte de dados.
Por dados nós queremos dizer fluxos de informação que passam da vida humana em todas as suas formas para infraestrutura de coleta e processamento. Esse é o ponto de partida para gerar lucro a partir de dados. Nesse sentido, dados abstraem a vida, convertendo-a em informação que pode ser armazenada e processada por computadores e apropriam-se da vida convertendo-a em valor para terceiros (COULDRY; MEJIAS, 2019, p. xiii)[ii].
Vamos mais devagar, desdobremos isso. Como é possível que sejam tão imensamente ricos, se dispõem o uso dos seus aplicativos e plataformas gratuitamente? Como diz Tristan Harris no documentário “O dilema das redes” (The social dilemma), “se você não está pagando pelo produto, então você é o produto”. Como isso se dá? O que a Gloogle - que não é somente uma simples ferramenta de busca -, quer, e o que o Facebook - que não é apenas um lugar acompanharmos nossos amigos e ver suas fotos -, quer, é a nossa atenção. Todos esses que nos parecem tão singelos serviços gratuitos na internet, não são de fato gratuitos, os anunciantes pagam por eles. Eles pagam às empresas de tecnologia digital para poderem nos mostrar seus anúncios. Assim, é a nossa atenção que é vendida ao anunciante, nós somos o produto. Ora, mas isso já não era assim na televisão aberta há tantas décadas? Não exatamente. O que se passa agora é que se trata de um modelo de negócio que garante que os anunciantes terão o máximo de sucesso. Essa garantia é conseguida por meio de um acúmulo de bilhões de dados, é necessário coletar tudo e cada vez mais todos os aspectos de tudo o que cada um de nós faz quando estamos on line. Essa indústria tem mais informações sobre nós do que jamais foi imaginado que seria possível. O monitoramento minucioso e incessante de cada gesto nosso on line permite não apenas que se saiba se temos gatos ou não, por exemplo, mas se estamos deprimidos ou animados naquele dia, se estamos sem dinheiro, o que estamos planejando para nossas vidas, se vamos menstruar em breve, que tipo de coisa nos emociona e qual a emoção, que tipo de causas nos levam ao engajamento, ou seja, é possível conhecer nossas personalidades e estados de humor pela análise da nossa navegação na internet. Nós, cada vez mais, alimentamos indiscriminadamente essa indústria com nossos dados, e quanto maior é o número de dados que geramos, mais previsíveis ficamos. Criam-se padrões de comportamento, modelos que podem prever nossas ações e isso vale mais do que ouro. Esse processo é o que se chama de monetização de dados, dados se transformam em dinheiro, por isso é possível falar em economia de dados, em mercado de dados.
Foquemos nesse aspecto da possibilidade de previsão de comportamentos e nos aproximemos do conceito de capitalismo de vigilância, de Shoshana Zuboff,
O capitalismo de vigilância reivindica de maneira unilateral a experiência humana como matéria-prima gratuita para a tradução em dados comportamentais [...] [que serão] manufaturado[s] em produtos de predição que antecipam o que um determinado indivíduo faria agora, daqui a pouco e mais tarde. [...] esses produtos de predições são comercializados num novo tipo de mercado para predições comportamentais [...] Os capitalistas de vigilância têm acumulado uma riqueza enorme a partir dessas operações comerciais, uma vez que muitas companhias estão ávidas para apostar no nosso comportamento futuro (ZUBOFF, 2020, p.18-19).
É, portanto, a partir da criação de padrões de comportamento que se alcança uma maior garantia de sucesso do anúncio, que, salientamos, pode ser um anúncio para a compra de um determinado produto, mas pode também ser o anúncio de uma ideia, uma incitação para uma determinada ação. Vamos desenvolver isso adiante. Quanto mais se sabe sobre a personalidade de uma pessoa e a fase de vida pela qual ela está passando, mais é possível direcionar o anúncio e mais o anúncio vai ser eficaz. Então não é a mesma coisa que os velhos anúncios da televisão aberta, que eram sementes jogadas ao vento, igualmente para todos. Agora é possível detectar e separar grupos de pessoas que têm mais ou menos o mesmo perfil, o mesmo padrão de comportamento, e isso torna possível o controle sobre parcelas da população para bombardeá-las com determinados produtos. Como já dissemos, conforme são criados esses padrões e são criados produtos para as pessoas desse determinado padrão, que são direcionados de forma específica, maior é a probabilidade de consumo dessas mercadorias. Assim, cria-se a possibilidade não apenas de se enviar anúncios de produtos consumíveis, mas também de se bombardear a tela das pessoas com sugestões de vídeos e outras coisas que trazem determinadas ideias muito específicas, ideias políticas sobre a realidade, que tendam muito fortemente para um determinado lado. E, por meio da reiterada aparição de um tipo de conteúdo, cria-se, para o usuário, a sensação de que aquilo é verdade, pois está em tudo o que aparece nesse mundo individual daquela pessoa e, além disso, as mesmas coisas aparecem também para cada um dos que concordam com ela, os que compartilham o seu perfil, que têm o mesmo padrão comportamental. Hoje é cada vez maior o número de pessoas que possui um aparelho de telefone celular do tipo smartphone que é só seu, que fica no seu bolso, na sua mão, e isso facilita que se crie uma realidade também só sua, o que não acontecia com os meios de comunicação de massa. Por meio da análise dos dados que vamos desavisadamente derrubando pelos caminhos das nossas navegações, os rastros eletrônicos que deixamos, é constituído um padrão e a partir daí o que aparece na tela para uma determinada pessoa, que corresponde a um determinado padrão, não é a mesma coisa que aparece para outra pessoa, que corresponda a outro padrão. Quando duas pessoas de perfis diferentes abrem exatamente o mesmo aplicativo ou digitam exatamente a mesma palavra na ferramenta de busca, não aparece a mesma coisa para elas, são criadas realidades específicas para cada uma. “Dividir para dominar”, é uma velha tática de guerra que ainda funciona, assim, a realidade é personalizada, o que torna a manipulação mais eficaz. Imagine se o dicionário desse uma definição diferente de cada vocábulo dependendo da pessoa que o consultasse. Estamos falando de fake news? Sim, estamos falando de fake news também. E eis que a era da informação se tornou a era da desinformação. As grandes corporações de tecnologia digital não estão interessadas na ética e na justiça, mas sim no lucro. Não se importam em permitir que informações não verificadas ou até mesmo comprovadamente falsas se espalhem e alcancem um número imenso de pessoas, se isso lhes trouxer dinheiro. É importante observar aqui que os bilhões e bilhões de dados necessários para a criação dos padrões de comportamento não são gerados apenas por nossas navegações espontâneas, mas por ações de compartilhamento de nossos dados que somos obrigados a fazer para usar os aplicativos. Por que, por exemplo, um aplicativo para monitorar batimentos cardíacos na prática de exercícios físicos, nos pede acesso a nossos contatos e às nossas fotos, por exemplo, e se não permitirmos não podemos usá-lo? Justamente para essa geração desenfreada de dados. Nas condições do aplicativo eles prometem que vão compartilhar nossos dados apenas com seus parceiros. Mas quem são seus parceiros? Não sabemos. O que vão fazer com esses dados? Sabemos: usar contra nós mesmos.
Esse enorme interesse por nossos comportamentos futuros não diz respeito apenas à venda direta de mercadorias. Além de prever os comportamentos, existe toda uma ciência de criação de meios de “modificação comportamental”, segundo Shoshana Zuboff, que gera um novo tipo de poder, que ela chama de poder instrumentário, que, “conhece e molda o comportamento humano em prol das finalidades de terceiros” (ZUBOFF, 2020, p.19). Esses “terceiros” que são aqueles que compram os dados que geramos, podem estar interessados em moldar comportamentos de milhões de pessoas seja para que comprem coisas, seja para que votem em determinado candidato nas eleições, por exemplo. Essas indústrias fazem o que é chamado por alguns autores de “mineração de dados”, para a criação de perfis que possibilitam a modificação comportamental para uso ideológico, político ou comercial. “Sensores são utilizados para modificar o comportamento das pessoas com a mesma facilidade com que modificam o comportamento de um aparelho” (ZUBOFF, 2020, p. 337). Há toda uma engenharia que tem “o poder de praticar ações que podem passar por cima do que você está fazendo ou até mesmo colocar você num caminho que não escolheu” (ZUBOFF, 2020, p. 337). O exemplo icônico de modificação de comportamento político é o chamado escândalo da Cambridge Analytica-Facebook[iii]. Vivemos hoje a situação de gerarmos dados e de eles serem usados sem nossa permissão, na criação de realidades que interessam a outrem e de serem usados contra nós por aquele que pagar mais, sem outro critério, e tudo isso sem que a gente perceba.
Podemos perguntar: por que as pessoas que eventualmente vêm a saber da manipulação à qual estão submetidas não deixam de usar as redes cibernéticas? Para além do processo crescente de plataformização da sociedade que nos obriga a estarmos conectados, não deixamos de usar as redes sociais por um motivo muito simples: elas viciam. Por exemplo, uma invenção muito maléfica que causa vício e perda de si mesmo, é o chamado feed infinito, esse fluxo de conteúdo que permite rolagem, a tela que nunca tem fim, o dedão repete um gesto automático para rolar a tela que nunca acaba, nos hipnotizando. Outro exemplo de tática para viciar, é a sofisticada engenharia das recomendações. Correntemente aparecem sorrateira ou explicitamente sugestões para nossos próximos cliques, sendo comum aparecer “recomendado para você”, nos diversos aplicativos e sites que frequentamos. O design de recomendações nos leva a ficar clicando reiteradamente, ficamos muito mais tempo conectados do que planejávamos e do que podemos perceber. Além do fato de ser viciante, há outros problemas quando clicamos nas recomendações, pois agindo assim, estamos “ensinando” o algoritmo que coleciona informações sobre nós, fazendo com que o padrão ao qual estamos sendo inseridos fique cada vez mais fidedigno, aumentando as possibilidades de previsão de nossas ações e sua consequente manipulação. Além disso, ao aceitar uma recomendação, estamos invariavelmente trilhando vias que já foram previamente traçadas para nós, sem que nos atentemos para isso, na ilusão de liberdade de escolha e decisão, autômatos controlados remotamente ou seres humanos, afinal?
A discussão sobre os atuais mecanismos de modulação comportamental está ainda dando seus primeiros passos na área da educação, em comparação com as produções da tecnociência, cada vez mais ávida em desenvolver fórmulas de captura da atenção humana em prol do lucro das empresas. Anna Bentes (2022) destrincha o funcionamento de um guia prático de design comportamental que combina mecanismos psicológicos e tecnológicos voltados para formar hábitos, dentro dessa perspectiva que está sendo chamada de tecnobehaviorismo, um behaviorismo atualizado “a vigilância algorítmica serve para oferecer recompensas psicológicas, visando estimular os usuários a repetir comportamentos automáticos” (BENTES, 2022, p.16).
O que está em jogo aqui é que ignoramos que nossas existências estão sendo moduladas, uma prática tão comum nas chamadas sociedades de controle, como as nomeou Deleuze, “os controles são uma modulação, como uma moldagem auto-deformante, que mudasse continuamente, a cada instante, ou como uma peneira cujas malhas mudassem de um ponto a outro [...] nas sociedades de controle nunca se termina nada (DELEUZE, 1992, p.221)”. Ignoramos esse novo tipo de governamentalidade, complexo sistema de técnicas de governo, que sabemos com Foucault, que diz respeito a conduzir condutas, ou seja, “modos de ação mais ou menos refletidos e calculados, porém todos destinados a agir sobre as possibilidades de ação dos outros indivíduos. Governar, neste sentido, é estruturar o eventual campo de ação dos outros” (FOUCAULT, 1995, p. 244). Limitar as possibilidades ao previsível, ao previsto, controlar, regular e intervir. “Ele incita, induz, desvia, facilita ou torna mais difícil, amplia ou limita, torna mais ou menos provável” (FOUCAULT, 1995, p. 243), ou seja, controla as possibilidades, determina os modos possíveis, modula os fluxos, nem percebemos que estamos sendo conduzidos. O modo como o governo opera hoje, nas plataformas digitais, um tecnogoverno, é muito sutil e conta com a ação daquele que está sendo governado ao deixar-se seduzir, respondendo a estímulos, em busca de recompensas. Os caminhos que são traçados pelo design comportamental e trilhados por nós são tão persuasivos porque nos dão a ilusão de liberdade de escolha. Governo, então, é esse tipo de poder que sujeita os humanos, na medida em que determina de antemão os modos de subjetivação. A possibilidade de livre criação de si mesmo, de criação autônoma das subjetividades é capturada e transformada em reprodução de modelos preestabelecidos. A governamentalidade que nos sujeita hoje é a algorítmica. Não entendemos nada de algoritmos, e mesmo se entendêssemos de nada adiantaria, pois, o funcionamento algorítmico das redes que frequentamos de maneira tão despreocupada não está aberto para avaliação popular, para avaliação daqueles que são os que estão sendo conduzidos por ele, pois pertencem a empresários capitalistas. A modulação algorítmica é de propriedade privada.
Mas, afinal, o que são algoritmos? Algoritmos são conjuntos de instruções que explicam detalhadamente como realizar uma tarefa. Uma receita de bolo, por exemplo, pode ser considerada um algoritmo. Em relação ao universo digital, um algoritmo é uma série de regras / instruções rigorosas para resolver um problema ou calcular algo, que é criada por um programador de computadores. Algoritmos ordenam e processam quantidades enormes de dados, para resolver um determinado problema. Por exemplo, as regras para resolver cubo mágico, suas sequências de movimentos para acertar as faces, são algoritmos. No contexto de machine learning ou aprendizagem automática, ou ainda aprendizado de máquina, o algoritmo é o método pelo qual o sistema de inteligência artificial vai realizar uma determinada tarefa: a partir de dados de amostra, vai conseguir entender o sistema e criar modelos, e então fazer previsões sobre ele. O algoritmo gera um modelo a partir de dados, e o modelo gera previsões. O aprendizado de máquina é uma área científica focada em entender e construir métodos e modelos capazes de "aprender", ou seja, métodos que se utilizam de dados para resolver problemas e realizar determinadas tarefas, de uma forma independente do comando humano a cada passo. Isto é, algoritmos de aprendizado de máquina geralmente consistem em um modelo que "aprende" usando dados de amostra, chamados dados de treinamento, para, a partir disso, generalizar. Então, dada uma quantidade muito grande e/ou complexa de dados, o algoritmo de aprendizado de máquina usa várias técnicas para conseguir ver padrões que nós não conseguimos, em uma velocidade absurdamente rápida - impossível para um cérebro humano-, e a partir disso gera previsões ou decisões sem ser programado explicitamente para resolver cada caso específico, cada passo do processo. O fato de os algoritmos poderem dar ao computador a habilidade de “aprender” com os dados disponibilizados, por meio da criação de modelos, podendo tomar decisões sozinho e fazer previsões sem que seja necessária a interferência humana passo a passo, leva a certa independência desse:
[C]onforme o banco de dados se atualiza, eles [os algoritmos] vão se atualizando, isso que é o aprendizado [...] mudam em tempo real, a equação não é a mesma agora e daqui a vinte segundos [...] dependendo do tipo de algoritmo nem quem programou consegue saber como ele está, porque ele vai atualizando em camadas mais complexas e a divisão disso é feita de forma computacional e você não consegue saber quantas camadas são, ele vai criando as camadas conforme a necessidade (TECNOPOLÍTICA#1, 2018).
É importante sempre lembrar que algoritmos não se criam por si só. Como diz a matemática e cientista da computação Cathy O’Neil[iv], algoritmos não são neutros e os modelos podem ser considerados opiniões matematicamente expressas. Anterior a qualquer algoritmo há pessoas (empresas com seus objetivos financeiros e políticos) determinando os problemas a serem resolvidos, a sequência usada nessa resolução e com quais dados isso será feito. Sendo assim, os algoritmos podem ser enviesados pela ideologia, cultura ou preconceitos[v] de quem os cria. É, portanto, neste sentido que podemos falar de governamentalidade algorítmica. Os algoritmos estão em todos os lugares e nós vimos sendo pontuados e classificados por fórmulas que nós não entendemos e que mesmo se entendêssemos seria inútil, já que elas são fechadas, são secretas, são propriedades privadas, e em geral, ainda, não contamos com um sistema para o qual se possa apelar em caso de discordância ou dúvida.
[o] problema é que os processos sociais e econômicos estão ocultos nos algoritmos, nos modelos de negócios e nos fluxos de dados que não estão abertos ao controle democrático. Assim, a ideologia do neoliberalismo define a arquitetura da nossa sociedade conectiva. Uma arquitetura que não deixa espaço para setores públicos, valores públicos e espaço público (VAN DIJCK, 2019, s/p).
A governamentalidade algorítmica não é, portanto, aquela assombração cibernética de ficção científica, que controla os humanos, mas é produzida e operada por grandes empresas capitalistas.
Colonialismo de dados, a universidade e o pensamento
A exploração da vida humana para gerar lucro por meio dos dados é o clímax de cinco séculos de tentativas de conhecer, explorar e dominar o mundo,
a partir de centros específicos de poder (Nick Couldry e Ulises A. Mejias)
Nos últimos anos vimos um crescente movimento de oferta de uso “gratuito” de plataformas educacionais, de grandes empresas estadunidenses de comunicação, às instituições de ensino público no Brasil. A relação entre essas duas partes, no entanto, é bastante desequilibrada, pois, de um lado as empresas extraem livremente enorme quantidade de dados e do nosso lado mal sabemos para onde esses dados vão e para o que serão usados.
Por um lado, as empresas têm, potencialmente, acesso a uma grande quantidade de dados das instituições públicas - desde dados pessoais de alunos, professores e funcionários, dados comportamentais dos usuários dos aplicativos educacionais e dos dispositivos (tablet, celular, computador), dados de rendimento escolar dos alunos e professores e até dados de comunicação institucional e de pesquisa. Por outro lado, como usuários e pesquisadores com interesse em dimensionar o mercado de dados, temos dificuldade tanto em saber se nossas informações estão protegidas quanto em obter informações oficiais sobre os termos, os acordos e os reais parâmetros dos dados coletados (CRUZ; SARAIVA; AMIEL, 2019, p.2).
A importante iniciativa brasileira de divulgação científica, constituída por pesquisadores acadêmicos e organizações sociais, chamada Observatório Educação Vigiada[vi], coleta e divulga informações sobre a plataformização da educação pública no Brasil e na América do Sul. No mapeamento[vii] que fizeram, vê-se que 79,17% das instituições públicas brasileiras de ensino superior analisadas usam serviços das GAFAM e apenas 20,83% usam outros. Aderimos tranquilamente, sem nem mesmo conhecer os termos de uso das plataformas que atuam na educação[viii], assim como aceitamos todos os termos de uso dos aplicativos que usamos quase totalmente sem ler, incentivados, inclusive, pelo modo difícil à avaliação como eles se apresentam. “Nós estamos entrando na era não de um novo capitalismo, mas sim de um novo entrelaçamento entre as histórias paralelas do capitalismo e do colonialismo, e a força entrelaçadora são os dados” (COULDRY; MEJIAS, 2019, p. xii)[ix]. Vemos se instaurar um novo colonialismo, o colonialismo de dados, que tem funcionamento análogo ao colonialismo clássico com práticas de extrativismo predatório, para mercantilização, só que desta vez a colaboração dos explorados tornou-se seu modo de vida. Veja, por exemplo, que sob a alegação de melhor desempenho no processamento, todos os dados do Sistema de Seleção Unificada (SiSU), para a entrada nas universidades públicas no Brasil, foram entregues pelo Ministério da Educação do Brasil para a Microsoft. Foram milhões de dados, tais como “a renda familiar bruta mensal de cada um, os valores recebidos em diversos programas sociais, a nota no Enem, as médias populacionais relacionadas à cor declarada e a deficiências” (SILVEIRA, 2021, p. 39). E a Microsoft não cobrou nada...
[A]s universidades federais, que figuram as instituições públicas mais estratégicas da sociedade brasileira, hoje já são laboratórios de aprimoramento dos sistemas de aprendizado de máquinas e retroalimentam a lógica de acumulação de lucro no Norte Global e do aumento das desigualdades e da dependência nos países do Sul (MIAN, 2021, p.137).
E sarcasticamente chama-se o lugar onde se deposita esses dados de “nuvem”... Não podemos deixar de fazer um pequeno desvio aqui no nosso foco, para mencionar que, embora “nuvem” sugira algo leve, fora da terra, etéreo, algo como as ondas eletromagnéticas, ela não é isso. O que é chamado de “nuvem” são imensas centrais de dados, data centers, que são edifícios muito concretos, que ocupam espaço territorial, que abrigam milhares de computadores que necessitam de refrigeração, e que, portanto, gastam muita energia elétrica e causam grande
impacto na natureza, já que raramente se utilizam de energia limpa e renovável. Além desses problemas ambientais – relativos à extração de energia da natureza- na crescente e desregulada extração e acúmulo de dados, temos ainda que considerar a extração de minério que é necessária para alimentar a produção de equipamentos eletrônicos (LEMOS, 2021), sem falar nos impactos ambientais da instalação de cabos submarinos de fibra ótica, intercontinentais, para a transmissão dos dados (PARRA, 2020a).
Atraídos pelo baixo custo ou “gratuidade” dos serviços oferecidos pelas plataformas educacionais norte-americanas, tomando como critério a facilitação dos processos, as instituições brasileiras não estão percebendo se tratar de um problema de abdicação da soberania sobre nossos dados. Esta questão não é discutida por quem está na gestão do governo, nem por quem pretende estar nesse lugar, assim como não é uma questão pública e tampouco educacional. Parece invisível o interesse econômico dessas grandes corporações, principalmente Microsoft e Google na área educacional brasileira (SILVEIRA, 2021).
A colonialidade, que para muitos pensadores (QUIJANO, 1992) atuais é o que persiste do colonialismo clássico como um padrão de poder, é também um padrão de subjetivação e é assimétrico. Em relação aos tão perniciosos efeitos econômicos e políticos, da coleta (roubo) dos dados para a plataformização e modulação da vida social, podemos dizer que não são os mesmos nos países que estão no centro desse sistema, controlando os processos, do que nos países periféricos a ele, à mercê de suas ações. A colonialidade se configura como uma imposição de modos de vida e modos de pensar, ela age na desvalorização ou total negação dos modos de pensar e de criar a realidade das culturas nos países não ricos, esforçando-se por convencê-los de sua inferioridade, de sua incapacidade em criar soluções originais para seus problemas.
As grandes empresas de tecnologia estão sempre ávidas para oferecer seus produtos, para rapidamente se imiscuir na vida social trazendo suas soluções, de forma que desqualifica a capacidade local de criar soluções próprias, fortalecendo a ideia de incompetência dos outros povos que não eles. “No contexto da colonialidade, o colonizado, a inteligência coletiva local, nunca está pronto, apto, capacitado para enfrentar um problema sem recorrer a uma corporação matriz” (SILVEIRA, 2021, p.41).
É sempre e cada vez mais importante percebermos a dimensão política dos nossos “brinquedos” eletrônicos, talvez principalmente os profissionais da educação, que têm meios de estudar e propagar a ideia de que essas novas tecnologias não são apenas mais uma invenção. As mudanças que vivemos agora, por meio das tecnologias digitais de informação e comunicação em redes cibernéticas, são mudanças radicais naquilo que podemos chamar de humanidade, sua consciência, sua capacidade de pensar sobre seu próprio pensamento e analisar e criticar e assim poder tomar decisões livremente. Além disso, é importante que nos preocupemos com o modo como esses corpos humanos se compõem, no encontro com outros corpos, no contexto da governamentalidade algorítmica, perguntamos, como é que estão se dando as relações humanas? Para qual tipo de sociabilidade estamos sendo conduzidos?
Se a vida foi transformada em dados, é urgente que saibamos disso e partamos em sua defesa. Para o sociólogo e professor-pesquisador Henrique Parra (2020a), os problemas envolvidos nesse novo modo de funcionamento social, político-econômico, existencial, se assemelha aos problemas climáticos do antropoceno (esse limite da vida do planeta e no planeta em que a interferência humana nos colocou), que foram negados ou minimizados por décadas, até que estourassem em nossa cara até já não podermos mais ignorá-los. A pergunta é: quando esses problemas todos que vimos tratando até aqui, relativos à tecnopolítica, quando estourarem em nossas caras, seremos nós, ainda, nós mesmos?
Chamamos de tecnopolítica esse novo modo de funcionamento da política, totalmente mediada por tecnologias controladas por grandes corporações capitalistas neoliberais. Mas este é um modo tal que, talvez, já não possa ser chamado de política, se entendermos esta como um complexo sistema de relações entre os animais humanos, que constitui a sociedade e os próprios humanos, tendo como princípio a capacidade de pensamento auto-reflexivo, crítico e criativo.
Se o colonialismo histórico se apossava de territórios, seus recursos e os corpos que os extraíam, a tomada de poder do colonialismo de dados é mais simples e mais profunda: a captura e controle da vida humana em si, apropriando-se dos dados que podem ser extraídos dela, para gerar lucro. A vida humana está literalmente sendo anexada ao capital (Couldry; Mejias, 2019, p. xi)[x].
Henrique Parra (2020), afirma a necessidade urgente de pensarmos as tecnologias de informação e comunicação não mais como ferramentas, mas como algo que constrói mundos e determina formas de viver e a partir disso, pergunta quais são os processos de subjetivação que estão implicados no uso dessas tecnologias. Quais formas de vida estão sendo produzidas? Que tipo de mundo está sendo construído? Especificamente no campo da educação, perguntamos, quais são os modos de pensar (ou não pensar?) que estão sendo modulados pelas tecnologias cognitivas e qual nossa responsabilidade sobre isso?
O colonialismo de dados se apropria não só dos recursos físicos, mas também dos nossos recursos de conhecer o mundo. Isso significa que o poder econômico (o poder de criar valor) e o poder cognitivo (poder sobre o conhecimento), convergem como nunca antes. Portanto, o que está acontecendo com dados só pode ser totalmente compreendido se comparado não só com o capitalismo, mas com as mais longas inter-relações entre o capitalismo e o colonialismo (COULDRY; MEJIAS, 2019, xi).
Não é algo que a Google tente ocultar, em relação ao Googleclassroom, que interessa para a empresa o que chama de “fidelização dos usuários”. O que significa: oferecer o “modo Google de estudar” desde cedo, para que o “usuário” tenha esse específico modo de acesso ao conhecimento disciplinando seu modo de pensar e que fique fiel a ele por décadas, se não para sempre. Com mecanismos de controle de busca sobre a pesquisa, controle sobre o acervo, a memória, dentro de ambientes indexados, classificados, hierarquizados, como promover a liberdade do pensamento, tornando-o autônomo, criativo? Quais são as formas de pensamento que estão sendo constituídas nesses ambientes educacionais, que modulam modos de ensinar e aprender? A vida e a realidade estão mediadas por esse design tecnológico que se naturalizou, os modos de pensar e desejar já estão dados, basta percorrer os caminhos já traçados, e mesmo assim podemos ainda insistir em perguntar: e a liberdade? A autonomia, que caracteriza um pensamento humano? E o futuro? Como as crianças vão imaginar outros mundos se estão estritamente moduladas?
Deleuze e Guattari (1997) em “Tratado de Nomadologia” afirmam ser comum nos atentarmos para os conteúdos dos pensamentos quando queremos criticá-los, mas que a questão é primeiramente a da própria forma do pensamento. Quais são as formas de pensar que estão sendo moldadas e moduladas na contemporaneidade, de maneira sorrateira e naturalizada, nos acomodando confortavelmente em nossas cadeiras, diante de telas sedutoras que nos capturam? É imprescindível que nos atenhamos às formas/fôrmas de pensar que se apossam de nós, esse é um tema de extrema relevância para a educação hoje. “Quanto menos as pessoas levarem a sério o pensamento, tanto mais pensarão conforme o que quer um Estado” (DELEUZE; GUATTARI, 1997, p. 46), entendendo Estado aqui, hoje, como empresa, Estado-empresa. Levemos a sério, pois, o pensamento, as formas de pensar.
Como resistir? Como resistir de dentro das universidades? Pensamos ter algumas sugestões. Em primeiro lugar, com certeza, é necessário ter conhecimento do problema, para ter nitidez sobre as relações tecnopolíticas que estão a condicionar nossas vidas e disposição para enfrentá-las. Em segundo lugar pensamos ser bastante útil que ensinemos sobre esse problema em nossos cursos, o tanto quanto for possível. Em terceiro lugar nos parece muito eficaz substituirmos o uso de plataformas e aplicativos das GAFAM, por outros, livres, de código aberto. “Universidade e escolas de todos os níveis deveriam ensinar e oferecer apenas software livre aos estudantes. Softwares proprietários deveriam ser autorizados nos campi apenas para engenharia reversa” (STALLMAN, 2017, s/p). Os chamados softwares livres são os que têm código aberto, possibilitando que os usuários acessem o código fonte. Segundo a Free Software Foundation juntamente com o projeto GNU, qualquer usuário tem o direito de executar, copiar, distribuir, estudar, mudar e melhorar o software. Richard Stallman, programador do MIT (Massachusetts Institute of Technology) foi quem criou, na década dos anos 1980, o GNU, um sistema operacional alternativo aos sistemas proprietários, seguindo, pensamos, a ética hacker (HIMANEN, 2001), anticapitalista, de compartilhamento, que tem como valores a paixão pelo trabalho, a liberdade de tempo livre, o trabalho colaborativo, a necessidade de cuidar dos outros, a busca da felicidade como ação e a criatividade. Ou seja, trata-se de conceber e usar tecnologias que sejam compatíveis com as formas de vida e os mundos que desejamos. Desnaturalizar esse atual jeito de viver por meio das tecnologias e criar outros regimes de sensibilidade (TECNOPOLÍTICA #38, 2020). Em quarto lugar, nos parece muito importante nos engajarmos na luta pela instauração de uma autoridade nacional de proteção de dados, amparada por fortes mecanismos legais de proteção geral de dados, que não temos no Brasil, para que, inclusive, os gigantes tecnológicos não saiam ilesos de seus crimes, que, a depender do ponto de vista, podem ser considerados crimes contra a humanidade.
“Não cabe temer ou esperar, mas buscar novas armas” (DELEUZE, 1992, p.220). Se não conseguimos fazer como Richard Stallman, que se nega a carregar um telefone celular, ao menos que não nos neguemos a enfrentar com coragem e disposição o sistema de roubo, vigilância e modulação que captura nossas vidas.
Referências
AMIEL, Tel. A infraestrutura de tecnologia da educação pública: privacidade, vigilância e autonomia. In: Simpósio Intersindical - Desafios Educacionais em Tempos de Pandemia. Dimensão Política-Tecnológica, [S. l.]: Apubh. 13 de ago. 2020. 1 vídeo (28min). [Simpósio]. Disponível em: https://www.youtube.com/watch?v=JTpCNf-hb9Y . Acesso em: ago. 2022.
BEIGUELMAN, Giselle. Políticas da imagem: vigilância e resistência na dadosfera. São Paulo: Ubu editora, 2021.
BENTES, Anna. C. O modelo do gancho e a formação de hábitos: tecnobehaviorismo, capitalismo de vigilância e economia da atenção. Anuario Electrónico de Estudios en Comunicación Social "Disertaciones", [S. l.], v. 15, n. 2, 2022. Disponível em: https://revistas.urosario.edu.co/index.php/disertaciones/article/view/11342 . Acesso em: ago. 2022.
CASSINO, João Francisco; SOUZA, Joyce; SILVEIRA, Sérgio Amadeu da. (Orgs.). Colonialismo de dados: como opera a trincheira algorítmica na guerra neoliberal. São Paulo: Autonomia literária, 2021.
CENTER FOR HUMANE TECHNOLOGY. How social midia hacks our brains. Disponível em: https://www.humanetech.com/insights/how-social-media-hacks-our-brains . Acesso em: ago. 2022.
CESARINO, Letícia Plataformização: a infraestrutura digital na crise da democracia. [S. l.]: Caio Souto - Conversações filosóficas, 09 jun. 2021. 1 vídeo (45 min:01 seg). [Live]. Disponível em: https://www.youtube.com/watch?v=xmBrB7dTtCU . Acesso em: ago. 2022.
COMPUTAÇÃO SEM CAÔ. O que é viés de algoritmo?. [S. l.]: YouTube, 2019. Disponível em: https://www.youtube.com/watch?v=ZiaOzzBWfy0 . Acesso em: ago. 2022.
COULDRY, Nick; MEJIAS, Ulises A. The costs of connection: how data is colonizing human life and appropriating it for capitalism. Stanford, California: Stanford University Press, 2019.
COULDRY, Nick; MEJÍAS, Ulises A. The Costs of Connection: how data is colonizing human life & appropriates it for capitalism. [S. l.]: LSE, 26 fev. 2021. 1 vídeo (1h: 28 min:51 seg). [Webinar]. Disponível em: https://www.youtube.com/watch?v=54_aftTZxWI . Acesso em: ago. 2022.
CRUZ, Leonardo; SARAIVA, Filipe O.; AMIEL, Tel. Coletando dados sobre o Capitalismo de Vigilância nas instituições públicas do ensino superior do Brasil. VI Simpósio Internacional LAVITS: Assimetrias e (in)visibilidades: vigilância, gênero e raça. Salvador, 2019. Disponível em: https://lavits.org/wp-content/uploads/2019/12/Cruz_Saraiva_Amiel-2019-LAVITS-1.pdf . Acesso em: ago. 2022.
DELEUZE Gilles. Conversações 1972-1990. Trad. Peter Pál Pelbart. Rio de Janeiro: Editora 34, 1992.
DELEUZE Gilles. Diferença e repetição. Trad. Luiz Orlandi e Roberto Machado. São Paulo: Graal, 2ª ed., 2006.
DELEUZE, Gilles; GUATTARI, Félix. 1227 - Tratado de nomadologia: a máquina de guerra. Mil platôs: capitalismo e esquizofrenia. Trad. Peter Pál Pelbart e Janice Caiafa. Rio de Janeiro: Editora 34, p. 11-110, 1997.
EDUCAÇÃO VIGIADA. Mapeando o Capitalismo de Vigilância na Educação. Disponível em: https://educacaovigiada.org.br/ . Acesso em: ago. 2022.
FALTAY, Paulo. Máquinas paranoides e sujeito influenciável: conspiração, conhecimento e subjetividade em redes algorítmicas. Tese (Doutorado em Comunicação e Cultura) – Escola de Comunicação, Universidade Federal do Rio de Janeiro, Rio de Janeiro, 2020. Disponível em: https://medialabufrj.net/publicacoes/2021/tese-maquinas-paranoides-e-sujeito-influenciavel-conspiracao-conhecimento-e-subjetividade-em-redes-algoritmicas-de-paulo-faltay/ . Acesso em: ago. 2022.
FOUCAULT Michel. O sujeito e o poder. In: DREYFUS, Hubert; RABINOV, Paul. Michel Foucault: uma trajetória filosófica. Para além do estruturalismo e da hermenêutica. Trad. Vera Porto Carrero. Rio de Janeiro, Forense Universitária, 1995.
HARRIS, Tristan. “Social Dilemma” Star Tristan Harris Responds to Criticisms of the Film, Netflix’s Algorithm, and More, 7 out. 2020. Disponível em: https://onezero.medium.com/social-dilemma-star-tristan-harris-responds-to-criticisms-of-the-film-netflix-s-algorithm-and-e11c3bedd3eb . Acesso em: ago. 2022.
HIMANEN, Pekka. A ética dos hackers e o espírito da era da informação: a importância dos exploradores da era digital. Rio de Janeiro: Campus, 2001.
ITFORUM. Conheça Richard Stallman, o verdadeiro pai do software livre. Disponível em: https://itforum.com.br/noticias/idgnoticia-2007-08-23-1171671836/. Acesso em: ago. 2022.
LEMOS, André. Dataficação da vida. Civitas-Revista de Ciências Sociais, v. 21, p. 193-202, 2021. Disponível em: https://www.scielo.br/j/civitas/a/myyQrGW4s9LnCDJDVRyyF8s/abstract/?lang=pt ago. 2022.
LIMA, Stephane. Educação, Dados e Plataformas: Análise descritiva dos termos de uso dos serviços educacionais Google e Microsoft. [S. l.]: Iniciativa Educação Aberta. 27 ago. 2020. Disponível em: https://zenodo.org/record/4012539#.Yx20LXbMLIW. Acesso em: ago. 2022.
MAYER-SCHÖNBERGER, Viktor; CUKIER, Kenneth. Big Data: a revolution that will transform how we live, work, and think. Boston, MA: Houghton Mifflin Harcourt, 2013.
MAYER-SCHÖNBERGER, Viktor; CUKIER, Kenneth. Big data: como extrair volume, variedade, velocidade e valor da avalanche de informação cotidiana. Rio de Janeiro: Editora Campus-Elsevier, 2013.
MEJÍAS, Ulises. A fazenda, a fábrica e o centro de dados. Tierra Común, 22 jun. 2020. Disponível em: https://www.tierracomun.net/blog/centro-de-dados . Acesso em: ago. 2022.
MIAN, Mariella B. Universidades federais brasileiras a serviço da lógica colonial de exploração de dados. In: CASSINO João Francisco; SOUZA Joyce; SILVEIRA Sérgio Amadeu da (Orgs.). Colonialismo de dados: como opera a trincheira algorítmica na guerra neoliberal. São Paulo: Autonomia literária, p. 126-147, 2021.
O DILEMA das redes. Direção: Jeff Orlowski. Produção: Netflix. Estados Unidos: Netflix (1h: 34 min.), 2020.
PARRA, Henrique. Tecnopolíticas e governo algorítmico no (antropo) (capital) plantationceno, [S. l.]: agenciamentos, 23 nov. 2020. 1 vídeo (2h: 18 min:52 seg). [Live]. Disponível em: https://www.youtube.com/watch?v=OPxhLEnKFyI . Acesso em: ago. 2022.
PARRA, Henrique. Da tecnopolítica às lutas cosmotécnicas: infraestruturas e ontologia relacional, [S. l.]: agenciamentos, 27 abr. 2022. 1 vídeo (2h: 45 min:12 seg). [Conferência]. Disponível em: https://www.youtube.com/watch?v=-g8ZO8Hc9pE. Acesso em: ago. 2022.
PARRA, Henrique Z. M. et al. Infraestruturas, Economia e Política Informacional: o Caso do Google Suite For Education. MEDIAÇÕES, v. 23 n. 1, p. 63-99, Jan./un. 2018.
Disponível em: https://repositorio.unifesp.br/bitstream/handle/11600/51998/32320-158774-1-PB.pdf?sequence=1&isAllowed=y . Acesso em: ago. 2022.
POELL, Thomas; NIEBORG, David; DIJCK, José Van. Plataformização. Revista Fronteiras - estudos midiáticos, v. 22, n. 1, p. 2-10, 2020. Disponível em: https://revistas.unisinos.br/index.php/fronteiras/article/view/fem.2020.221.01/60747734. Acesso em: ago. 2022.
PRIVACIDADE Hackeada. Direção: Karim Amer, Jehane Noujaim. Produção: Karim Amer, Jehane Noujaim. Estados Unidos: Netflix (1h: 54 min), 2019.
QUIJANO, Aníbal. Colonialidad y modernidad/racionalidad. Perú indígena, v.13, n.29, p. 11-20, 1992.
Disponível em: https://www.lavaca.org/wp-content/uploads/2016/04/quijano.pdf. Acesso em: ago. 2022.
QUIJANO, Aníbal. Colonialidade do poder e classificação social. In: SANTOS, Boaventura Sousa; MENESES, Maria Paula (Orgs.). Epistemologias do Sul. São Paulo: Cortez, p. 84-130, 2010.
SILVA, Sivaldo Pereira da. Democracia, inteligência artificial e desafios regulatórios: direitos, dilemas e poder em sociedades datificadas. E-legis, n. 33, p. 226-248, set./dez. 2020.
Disponível em: https://bd.camara.leg.br/bd/handle/bdcamara/40353. Acesso em: ago. 2022
SILVEIRA, Sérgio Amadeu da. Dataficação, vigilância e colonialismo de dados. In: Simpósio Intersindical - Desafios Educacionais em Tempos de Pandemia. Dimensão Política-Tecnológica, [S. l.]: Apubh, 13 de ago. 2020. 1 vídeo (25 min: 12 seg). [Simpósio]. Disponível em: https://www.youtube.com/watch?v=JTpCNf-hb9Y. Acesso em: ago. 2022.
SILVEIRA, Sérgio Amadeu da. A hipótese do colonialismo de dados e o neoliberalismo. In CASSINO João Francisco; SOUZA Joyce; SILVEIRA Sérgio Amadeu da (Orgs.). Colonialismo de dados: como opera a trincheira algorítmica na guerra neoliberal. São Paulo: Autonomia literária, p. 32-50, 2021.
STALLMAN, Richard. Pela liberdade no mundo digital. [S. l.: s. n.]. 22 mai. 2017. Disponível em: https://www.ufmg.br/boletim/bol1978/5.shtml . Acesso em: ago. 2022.
TECNOPOLÍTICA #1: As implicações políticas dos algoritmos. Entrevistada: Amanda Yumi Ambriola Oku. Entrevistador: Sergio Amadeu da Silveira. [S. l.]: dez. 2018. Podcast.
Disponível em: https://open.spotify.com/episode/1JylruSoz1kdIyTGDF7gBg . Acesso em: ago. 2022.
TECNOPOLÍTICA #38: Afinal, o que é tecnopolítica? Entrevistado: Henrique Parra. Entrevistador: Sergio Amadeu da Silveira. [S. l.]: dez. 2018. Podcast. Disponível em: https://open.spotify.com/episode/4bw817znnWDQYUmuARn98O?si=tcUht20NT72KhD0qtsfdWw&nd=1 . Acesso em: ago. 2022.
TECNOPOLÍTICA #62: Não se assuste: os termos de uso das plataformas que atuam na Educação. Entrevistadas: Stephane Lima; Marina Meira. Entrevistador: Sergio Amadeu da Silveira. [S. l.]: set. 2020. Podcast.
Disponível em: https://open.spotify.com/episode/3SYVDGyIjbFucNzCOVCbDq . Acesso em: ago. 2022.
THE ECONOMIST. The world’s most valuable resource is no longer oil, but data. Disponível em: https://www.economist.com/leaders/2017/05/06/the-worlds-most-valuable-resource-is-no-longer-oil-but-data . Acesso em: ago. 2022.
TRISTAN HARRIS. About. Disponível em: https://www.tristanharris.com/ . Acesso em: ago. 2022.
VAN DIJCK, José. Datafication, dataism and datavellance: bigdata between scientific paradigm and ideology. Surveillance and society. v. 12, n. 2, p. 197-208, 2014. Disponível em: https://ojs.library.queensu.ca/index.php/surveillance-and-society/article/view/datafication . Acesso em: ago. 2022.
VAN DIJCK, José. A sociedade da plataforma: entrevista com José van Dijck. 6 mar. 2019. Disponível em: https://digilabour.com.br/2019/03/06/a-sociedade-da-plataforma-entrevista-com-jose-van-dijck/#:~:text=Uma%20arquitetura%20que%20n%C3%A3o%20deixa,do%20mundo%2C%20particularmente%20na%20Europa. Acesso em: ago. 2022.
ZUBOFF, Shoshana. A era do capitalismo de vigilância. A luta por um futuro humano na nova fronteira do poder. Tradução George Schlesinger. Rio de Janeiro: Intrínseca, 2020.
ZUBOFF, Shoshana. Big Other: capitalismo de vigilância e perspectivas para uma civilização de informação. In: BRUNO, Fernanda et al. Tecnopolíticas da Vigilância: perspectivas da margem. São Paulo: Boitempo, 2018.
This work is licensed under a Creative Commons Attribution-NonCommercial 4.0 International (CC BY-NC 4.0)
Notas
1 Cf. https://www.economist.com/leaders/2017/05/06/the-worlds-most-valuable-resource-is-no-longer-oil-‘but-data The world’s most valuable resource is no longer oil, but data (livre tradução nossa).
2 Todas as citações de Couldry e Mejias são de livre tradução nossa. “[...] by data we mean information flows that pass from human life in all its forms to infrastructures for collection and processing. This is the starting point for generating profit from data. In this sense, data abstracts life by converting it into information that can be stored and processed by computers and appropriates life by converting it into value for a third party”.
3 O caso foi que, a partir de um questionário sobre personalidade que o Facebook disponibilizou e que milhões de pessoas responderam espontaneamente, gerou-se uma quantidade de dados psicográficos suficientes para mapear padrões de comportamento de uma população enorme. Esses dados foram disponibilizados pelo Facebook, para a Cambridge Analytica, empresa de assessoria política, que vendeu seus serviços de modificação de comportamento para influenciar a opinião de eleitores em vários países. Testaram a eficácia desses experimentos absolutamente antiéticos em dezenas de países da Ásia e da África e posteriormente aplicaram na população norte americana, na eleição de Thrump e na eleição presidencial no Brasil em 2018. A enorme polarização na política que se vive nesses países, foi criada dentro da lógica de dividir para conquistar, por meio dessas táticas de modulação de comportamentos. A partir do escândalo da Cambridge Analytica-Facebook, houve a criação da campanha #OwnYourData (#PossuaSeusDados), que se baseia na ideia de que ter direitos sobre os próprios dados é um direito humano (Data rights are human rights). Cf. Documentário “Privacidade hackeada.”
4 Cf. “A era da fé cega no ‘big data’ tem que acabar”, de Cathy O’Neil, autora do livro “Armas de destruição matemática” (Weapons of math destruction).
https://www.ted.com/talks/cathy_o_neil_the_era_of_blind_faith_in_big_data_must_end?language=pt
5 Cf. Joy Buolamwini em Liga da Justiça Algorítmica. https://www.ajl.org/ Algorithmic Justice League
6 O Observatório Educação Vigiada foi originalmente criado pela Iniciativa Educação Aberta (uma parceria entre a Cátedra UNESCO de Educação EaD da UnB e o Instituto EducaDigital), pelo Laboratório Amazônico de Estudos Sociotécnicos - UFPA e pelo Centro de Competência em Software Livre - UFPA e trabalha atualmente em parceria com a LAVITS – Rede Latino-Americana de Estudos sobre Vigilância, Tecnologia e Sociedade.
7 “O Brasil é o país com o maior número de instituições públicas de ensino superior da América do Sul, com 144 instituições. Em números absolutos, das 281 instituições que utilizam soluções da empresa Google na América do Sul, 103 (37%) estão no país. Somente 21% das instituições públicas de ensino superior utilizam soluções alternativas de armazenamento de e-mails – o que está em consonância com a média do continente”.
8 Interessante conferir o Relatório Educação, dados e plataformas: análise descritiva dos termos de uso dos serviços educacionais Google e Microsoft, que traz uma análise descritiva dos Termos de Uso e Política de Privacidade do G Suite for Education e Microsoft 365, dois dos pacotes educacionais mais utilizados por instituições públicas de educação.
9 Livre tradução nossa de: “We are entering the age not so much of a new capitalism as of a new interlocking of capitalism’s and colonialism’s twinned histories, and the interlocking force is data”.
10 Livre tradução nossa de: “If historical colonialism annexed territories, their resources, and the bodies that worked on them, data colonialism’s power grab is both simpler and deeper: the capture and control of human life itself through appropriating the data that can be extracted from it for profit. Human life is quite literally being annexed to capital”.