O relevo dos dados também tem sido assinalável noutras tantas áreas, que podem ir desde a política ao desporto de alta competição. Mais uma vez, o sucesso (ou a garantia de uma melhor eficácia e resultados) está em grande medida condicionada pela capacidade de conhecimento e interconexão das diferentes variáveis em jogo.

No princípio de 2018 rebentou o escândalo da Cambridge Analytica, então liderada por Alexander Nix, que alertou (ainda) mais para a questão complexa do uso e partilha de dados, com óbvias implicações na privacidade dos cidadãos. Fundada em 2013, tendo estado em parte nas mãos da família de Robert Mercer (com interesses no domínio da Inteligência Artificial), a Cambridge Analytica esteve envolvida em 44 disputas políticas norte-americanas em 2014. A empresa, por via da colaboração com Steve Bannon, trabalhou com Donald Trump na corrida presidencial de 2016 nos EUA, bem como com o movimento Leave.EU, uma das organizações que fez campanha em prol do Brexit no mesmo ano.

Os métodos da Cambridge Analytica foram alvo de investigação criminal pelo modo como adquiriu e usou os dados pessoais dos utilizadores do Facebook através de um especialista externo que terá dito à empresa liderada por Mark Zuckerberg que estava a recolher essa informação para fins académicos. Em resumo, todo este processo fez com que, através de uma app, os dados de 87 milhões de utilizadores dessa rede social fossem recolhidos, ainda que nenhum deles tivesse dado de forma clara autorização à Cambridge Analytica para aceder aos mesmos.

No que toca a campanhas políticas, a Cambridge Analytica juntou dados dos eleitores usando fontes como a demografia, históricos de pesquisas online, comportamento dos consumidores e outra informação pública e privada. A cúpula da empresa chegou a admitir que, só nos Estados Unidos, a empresa conseguia reunir até cinco mil dados específicos de diversa ordem relativamente a cada indivíduo. E que assim seria possível compreender a personalidade de cada adulto no país. Deste modo, através de uma monitorização constante, os staffs de campanha conseguiram desenvolver estratégias centradas no indivíduo (microtargeting), por via da previsão das suas necessidades e como as mesmas podem mudar com o passar do tempo. Esta situação levou alguns comentadores a afirmarem que a Cambridge Analytica podia dizer coisas sobre qualquer pessoa que a mesma não saberia sobre ela própria…

Alexander Nix defendeu que a reunião de todos esses dados e as estratégias de microtargeting beneficiam os eleitores, visto que irão receber mensagens sobre temas que lhes são importantes. Porém, a matéria não tem sido pacífica, tendo alguns grupos de protecção dos direitos digitais levantado questões relativamente à recolha, armazenamento e partilha de informação privada, com os cidadãos à margem de todo este processo, não lhes dando qualquer capacidade de controlo. Se a imagem do Facebook saiu prejudicada neste caso, a Cambridge Analytica comunicou a insolvência em Maio de 2018, com alguns do seus colaboradores a transitarem, por exemplo, para a Emerdata, uma empresa do mesmo ramo de actividade.

Por outro lado, já em 2017 a revista Time informava que o Congresso norte-americano estava a investigar uma suposta colaboração da Cambridge Analytica com os russos numa tentativa de interferir na campanha presidencial que valeu a vitória de Donald Trump. O relatório sugeria que a Cambridge Analytica poderia ter tido um papel central na disseminação da propaganda russa através das suas capacidades de microtargeting. Mais uma vez, as fake news. Não se tratando da única empresa do género com clientes especificamente da área política, o escândalo deu-lhe uma enorme visibilidade. Já este ano, antigos responsáveis da Cambridge Analytica admitiram que a mesma trabalhou em mais de 200 eleições no mundo inteiro, seja em África (Nigéria), na Europa (República Checa) e América (Argentina).

Mas a implicação da recolha e tratamento de grande quantidade de dados não se verifica apenas no sector empresarial e na política. Ela é transversal em tantos outros domínios. Atente-se também no caso do desporto de alta competição. Parece claro que no desporto automóvel, como a Fórmula 1, o importante é vencer. O segredo parece simples: ser mais rápido que todos os outros. Mas a receita de sucesso exige hoje o conhecimento de uma série de variáveis e as equipas de Fórmula 1 recorrem a ferramentas da Big Data para as ajudar.

Os carros estão equipados com sensores que permitem avaliar o que está bem e menos bem. Há aspectos que interessa conhecer, pois há um conjunto de intervenientes que podem condicionar o resultado final e sobre os quais é preciso compreender e encontrar respostas: que tipo de pista é aquela onde decorre a prova?; qual o desempenho do carro na última edição dessa corrida?; qual a pressão dos pneus?; qual a evolução do estado do tempo?; qual a força do vento?; qual a configuração dos outros carros adversários?; qual o estado do óleo do motor?; relativamente ao piloto, como evolui o seu ritmo cardio – respiratório? Outras tantas perguntas poderiam ser colocadas. No meio de toda esta entourage há especialistas que recolhem todos estes dados e adoptam técnicas de análise para determinarem qual a conjugação de circunstâncias que poderão garantir resultados mais favoráveis.

Matt Harris, o coordenador de IT da Mercedes – AMG Petronas Motorsport, no final de 2017, admitia isso mesmo que referimos atrás. Durante uma prova a informação é actualizada constantemente, com intervalos de mil vezes por segundo a um segundo. A marca anunciou que 18 mil canais de dados fluem nos servidores da equipa, chegando a cerca de 500 GB de dados por corrida ao fim-de-semana. No decurso de uma época, falamos de uma concentração de 10 Terabytes de dados. Segundo a Mercedes, 30 funcionários analisam toda essa informação no circuito, já para não falar nas dezenas de colaboradores que estão nos bastidores da prova a interpretar/avaliar todas essas variáveis. O objectivo é procurar visualizar o que de mais significativo se passa a cada instante para a partir daí tomar rapidamente decisões mais inteligentes.

Em suma, o processo de consciencialização para o volume, a velocidade, a variedade e, até mesmo, a veracidade e valor dos dados, bem como a sua implicação nas múltiplas esferas da vida quotidiana, não é em si algo verdadeiramente novo, mas nunca é demais relembrá-lo. Um dos grandes desafios é a aposta constante que as organizações e os seus colaboradores devem fazer em formação nos instrumentos e técnicas de análise dos dados. A era da cloud, personalização dos conteúdos, Inteligência Artificial, a Internet das Coisas está aí e não há nenhuma indicação plausível que esteja previsto um retrocesso. Antes pelo contrário.

 

Fontes consultadas

Aspa, J. (2018). Data Investment Facts. (URL: https://investingnews.com/daily/tech-investing/data-investing/data-investment-facts/). March 5th. Acesso: 25/08/2018.

Buyya, R. & Dastjerdi, A.V. (Eds.) (2016). Internet of Things: Principles and Paradigms. Massachusetts: Morgan Kaufmann Publishers.

De Mauro, A., Greco, M. & Grimaldi, M. (2015). What is big data? A consensual definition and a review of key research topics. API Conference Proceedings 1644, 97-104.

Ularu, E. G., Puican, F.C., Apostu, A. & Velicanu, M. (2012). Perspectives on Big Data and Big Data Analytics. Database Systems Journal, vol. III, nº 4.

Weiner, M. & Kochhar, S. (2016). Irreversible: The Public Relations Big Data Revolution. Institute for Public Relations. (URL: https://instituteforpr.org/wp-content/uploads/IPR_PR-Big-Data-Revolution_3-29.pdf)

About Francisco Vicente

Analista de media na Cision Portugal.
Licenciado em Ciências da Informação e doutorando em Ciências da Comunicação na Universidade Nova de Lisboa.
Tem publicado trabalhos na área da comunicação política.
Gosta de viajar, ler, música e de futebol."