Monitoramento e Scaremail


……………..Scaremail e suas assustadoras palavras

 

Em abril de 2013 aconteceu um dos piores atentados em solo norte-americano desde 11 de setembro de 2001: duas bombas com características caseiras explodiram próximas à linha de chegada da Maratona de Boston, deixando três mortos e centenas de feridos. O atentado teria sido planejado por dois jovens, que levaram as bombas até o local em mochilas. Em seguida, surgem na imprensa várias matérias que explicitam como seria fácil encontrar informações na rede Internet sobre como “criar sua própria bomba” com uma panela de pressão, estilhaços e outros itens. Este atentado seria o ponto de partida de um incidente que aconteceria algum tempo depois. Em uma casa localizada em Long Island, Nova York, os membros de uma mesma família dividem um mesmo computador conectado a Internet com diferentes atividades: o pai faz uma pesquisa em busca de uma mochila nova, o filho com grande apetite para notícias acompanha vorazmente o noticiário e, por sua vez, a mãe resolve pesquisar uma panela de pressão para comprar. Em algum lugar, um alarme é acionado. Ao melhor estilo dos filmes de ação norte-americanos, eis que surgem nada mais do que seis policiais armados – que com seus grandes carros, fecham todas as saídas da residência para então interrogar o casal e revistar a casa. Seria uma força-tarefa de combate ao terrorismo, guiada por algum tipo de sistema que ao detectar a “perigosa” soma de mochilas + panelas de pressão + o acompanhamento de todo o noticiário sobre o atentado acontecido, enviou os policiais, prontos para evitar o pior. A família, entretanto, nada devia. Um dos membros da família em questão é Michele Catalano, colaboradora da revista norte-americana Forbes. Um dos policiais revelou a ela que situações como essa acontecem até cem vezes por semana, sendo que em apenas um por cento dos casos, as suspeitas tem algum tipo de desdobramento.

Diante deste acontecimento, a primeira preocupação que temos se refere à privacidade de nossas ações nas redes – abertamente sobre ameaça desde USA Patriot Act (2001), lei que institucionaliza que o FBI pode coletar informações de clientes de livrarias, bibliotecas e Internet, bem como coletar informações bancárias e de cartões de crédito sem necessidade de qualquer decisão judicial – e do permanente monitoramento a qualquer cidadão, seja norte-americano ou de qualquer outro país. Esta é uma discussão necessária, que tem recebido cada vez mais holofotes. Mas, interessa-nos pensar em outras questões decorrentes do incidente que descrevemos há pouco: com qual razoabilidade delegamos poderes de decisão a agentes tecnológicos? Ou seria melhor dizer: porque utilizamos máquinas para lidar com um universo de sentidos e contextos para os quais ainda não estão totalmente preparadas?

No que se diz à Internet e seus agentes tecnológicos, alguns dados são necessários virem à tona: em 2012, relatos da empresa Incapsula, atuante em segurança digital, apresentaram a estimativa de que as atividades realizadas por agentes tecnológicos na rede Internet teriam superado o tráfego de dados entre usuários humanos. Na análise de mil sites de clientes da empresa, percebeu-se que o tráfego de agentes artificiais já corresponde a 51% dos acessos a sites da web, sendo que 49% seriam acessos por humanos. Estes agentes tecnológicos podem ser, por exemplo, programas do tipo clawer, que navegam na rede capturando toda informação que encontram para fins de anexá-las a sistemas de busca como o Google. Nesta lista de agentes tecnológicos estão também os programas espiões (spyware), programas que se apropriam de conteúdos para publicar em outros sites (scrapers), programas que postam publicidade sob a forma de comentários em sites ou redes sociais (spammers) e ainda, agentes que buscam brechas de segurança em servidores com o intuito de invadi-los, uma espécie de robô hacker (NUNES, 2012).

Desde algum tempo, Steven JOHNSON (2001, p.132) já nos trazia a perspectiva de agentes tecnológicos com responsabilidades cada vez maiores: capazes de limpar a lixeira de nosso computador e realizar tarefas que demandam pequenas decisões. Mas, certamente há demanda para que estas decisões se tornem cada vez mais significativas, permitindo o surgimento de entidades inteligentes capazes de filtrar inúmeros candidatos a um determinado cargo, por meio apenas de um formulário a ser preenchido na web, ou mesmo agentes capazes de alertar sobre práticas potencialmente perigosas – como terrorismo – através da frequência ou associação de determinadas palavras, como já percebemos. Há que se dizer que estes agentes podem ser lidar com uma quantidade exorbitante de dados – impossível aos espiões humanos. Cabe aproximar as considerações de WEISSBERG (2004, p.123-125) que condiciona a ação dos indivíduos aos agentes capazes de direcionar sua experiência nas redes. Para o autor, a permanência diante da “intensa maré informacional em permanente cheia” dependeria de sistemas de automediação. Essa prática seria justamente exercida por robôs e outros sistemas inteligentes capazes de conduzir-nos. É evidente que eles já existem em motores de busca, como o Google, ou nos sistemas de redes sociais como o Facebook. No entanto, estarão cada vez mais presentes em todas as relações virtuais, lidando com um universo de coisas que não dominamos:

Trate-se, pois, da esfera interpessoal (bilateral e de grupo) ou da comunicação automatizada, a função mediadora renova-se mais do que desaparece, inscrevendo-se no contexto geral de uma pretensão de alargamento dos espaços de autonomia individuais e coletivos. Se o projeto inicial consistia em promover uma relação direta de todos com todos, o que ora se perfila institui novamente, em torno da automediação, uma função separadora singular e prometedora (WEISSBERG, 2004, p.125).

Evidentemente que estas considerações também se aplicam ao aparato de monitoramento, dependente da ação de agentes tecnológicos hábeis para um grande volume de dados.

.

Grosser e o seu ScareMail

É sobre uma ótica questionadora da pertinência deste domínio maquínico que artistas da web arte buscam desconstruir o cenário em jogo. Um destes artistas é – justamente um norte-americano – Benjamin Grosser. Grosser possui um vasto percurso em trabalhos de arte e tecnologia e alguns trabalhos voltados para a rede Internet, com conteúdo provocativo. Em 2012, disponibilizou uma interessante extensão para o site de relacionamentos Facebook, chamada de Facebook Demetricator. Simplesmente, a proposta do artista seria alterar a dimensão quantitativa do site eliminando qualquer número das atividades do site. Ao instalar o programa, informações como os números de amigos que curtiram uma última postagem, quantas novas pessoas querem ser seu amigo ou quantos amigos curtiram a foto que seu amigo publicou simplesmente somem. É também criação do artista a instalação Interactive Robotic Painting Machine (2011), onde apresenta uma máquina robótica que produz pinturas abstratas – algumas remetem a pintura a dedo – a partir de estímulos sonoros. Ao propor uma máquina que imita uma expressividade pictórica que é peculiar aos humanos, propõe-se uma discussão entre automatismo e subjetividade que perpassa outros trabalhos, em especial, um dos seus mais recentes: ScareMail (2013).

Em 2013 Grosser lança a proposta de enviar mensagens “assustadoras” a fim de problematizar a vigilância exercida pela NSA (National Segurity Agency), órgão do Departamento de Defesa dos Estados Unidos. É sobre a NSA, inclusive, que recaem as suspeitas de ser uma das maiores responsáveis pelo lendário sistema Echelon – projeto secreto que envolveria a intercepção de dados em nível mundial nas mais diferentes plataformas.

ScareMail é uma extensão que pode ser utilizada em sistemas de e-mails, como o conhecido Gmail do Google. Ao escrever uma mensagem qualquer para um de seus contatos, automaticamente é incluído ao corpo do e-mail, poucas linhas abaixo do que foi escrito, uma mensagem criada por algoritmos que utiliza palavras-chave possivelmente perigosas aos olhos da NSA. Segundo o artista, a agência norte-americana faz uso de programas que realizam varreduras na rede Internet – redes sociais, e-mails e sistemas de busca – por meio de termos (ou associações) em uso. Para aplicar em seu programa, o artista elegeu uma lista recentemente revelada, organizada pelo Departamento de Segurança Interna dos Estados Unidos que enumera muitas palavras (muitas delas, bastante comuns) como potencialmente perigosas. A lista está disponível em: https://epic.org/foia/epic-v-dhs-media-monitoring/Analyst-Desktop-Binder-REDACTED.pdf .
.

 

Grosser, então, se apropria de trechos do romance Fahrenheit 451 (1953) de Ray Bradbury, que traz um cenário distópico bastante desolador em que livros são considerados artefatos ilegais. Ora, as palavras da lista do programa não são evidentemente ilegais, mas são “suspeitas”. Utilizando métodos de Processamento da Linguagem Natural (PLN), o artista identifica todos os substantivos e verbos do trecho original para, em seguida, substituir alguns destes por termos “perigosos”, devidamente formatados e conjugados no texto. Além disso, a cada nova mensagem de e-mail do usuário, o programa de Grosser gera automaticamente uma nova combinação de cada um dos termos e, sendo assim, um texto nunca será exatamente igual a outro, ainda que sigam as estruturas de parágrafo e formatação dos trechos originais. Os resultados são intencionalmente textos “sem significado”, mas que podem eventualmente soar como plausíveis.

Aliás, o campo do Processamento da Linguagem Natural está envolvido no desenvolvimento de programas capazes de “compreender”, ainda que de maneira rudimentar, fragmentos da linguagem humana, buscando a criação de modelos que tornem computacionalmente tratável o uso do léxico e da gramática de uma língua natural nas diversas situações comunicativas (SILVA, 2006, p. 103-104). O PLN é compartilhado por práticas como o desenvolvimento de tradutores eletrônicos de idiomas, programas que calculam ocorrências de palavras em um determinado texto, robôs de conversação – conhecidos por chatbots – cabendo até a perspectiva de criar supercomputadores capazes de compreender com bastante precisão cada frase dita por um interlocutor, como o famoso HAL-9000 do filme 2001: Uma odisseia no espaço (EUA, 1968).

Um das preocupações do artista ao realizar ScareMail é relevar uma das falhas primárias nos esforços de monitoramento em redes digitais: “palavras não são iguais a intenções”, diz o artista no texto de introdução ao trabalho em seu site. Explicita os furos de um sistema que presume palavras-chave como indícios de reais intenções: ou seja, aquilo que eu procuro nos sistemas de busca é reflexo daquilo que pretendo ser ou fazer – uma premissa questionável especialmente em tempos de voracidade informacional. Fora, é claro, a presunção que desconsidera as dimensões tácitas da comunicação.

Ao criar uma espécie de falso positivo com a perspectiva de jogar mimeticamente com filtros e metodologias do poderoso aparato de monitoramento, Grosser está não só explicitando o estado de tensão permanente diante dos dados que circulam na rede, como também questionando a eficiência dos agentes tecnológicos que operam sobre esses dados na difícil tarefa de vislumbrar os desejos e as intenções humanas. No fundo, atrás da ineficiência destes sistemas em realmente entender algo, está também a displicência de ir além da superfície daqueles que se pontuam por estes agentes. E é justamente como um ruído a esse estado de coisas que a provocação de ScareMail se torna tão necessária.

 

 

 

 

.

REFERÊNCIAS

BBC BRASIL. Família recebe visita da polícia após busca na internet por panela de pressão. BBC Brasil. Londres, 2. Ago. 2013. Disponível em: <http://www.bbc.co.uk/portuguese/noticias/2013/08/130802_panela_pressao_rp.shtml> . Acesso em 05 de novembro de 2014.

BERNERS-LEE, Tim; HENDLER, James; ORA, Lassila. The Semantic Web. Scientific American, 284(5), pp. 34-43, Maio 2001. JOHNSON, Steven. Cultura da interface. Rio de Janeiro: Jorge Zahar Editor, 2001.

CARR, N. A Geração Superficial: o que a Internet está fazendo com o nosso cérebro. Rio de Janeiro: Agir, 2011.

CRITICAL ART ENSEMBLE. Distúrbio eletrônico. São Paulo: Conrad, 2001.

GROSSER, Benjamin. Scaremail. Disponível em: http://bengrosser.com/projects/scaremail/ . Acesso em 05 de novembro de 2014.

JOHNSON, Steven. Cultura da interface. Rio de Janeiro: Jorge Zahar Editor, 2001.

MOROZOV, Evgeny. Big data poderia ter impedido o 11 de setembro? Folha Online. São Paulo, 27. Jul. 2013. Disponível em: <http://www1.folha.uol.com.br/colunas/evgenymorozov/2013/07/1300648-big-data-poderia-ter-impedido-o-11-de-setembro.shtml> . Acesso em 05 de novembro de 2014.

NUNES, Fabio Oliveira. Chatbots e Mimetismo: uma conversa entre humanos, robôs e artistas. In: CHAMBEL,Teresa, ARIZA; Alberto García et al. (eds.). Proceedings of 6th International Conference on Digital Arts – ARTECH 2012. Faro, Portugal: Grupo Português de Computação Gráfica and ARTECH International, 2012. p. 89-96.

SILVA, Bento Carlos Dias da. O estudo Lingüístico-Computacional da Linguagem. Letras de Hoje, Porto Alegre, v. 41, n.2, p. 103-138, jun. 2006.

WEISSBERG, Jean-Loius. Paradoxos da teleinformática. In: PARENTE, André (org.). Tramas da rede: novas dimensões filosóficas, estéticas e políticas da comunicação. Porto Alegre: Editora Sulina, 2004. pp. 113-141.

 

 

 

 

 

 

 

 

Fabio FON (Fábio Oliveira Nunes): É artista multimídia, atuando entre outras áreas, nos estudos de hipermídia, web arte, arte mídia e poéticas da visualidade. É autor de CTRL+ART+DEL: Distúrbios em Arte e Tecnologia, livro publicado pela Editora Perspectiva, em 2010. É mestre em multimeios no Instituto de Artes da UNICAMP, doutor em artes na Escola de Comunicações e Artes da USP e pós-doutor em artes no Instituto de Artes da UNESP. Site pessoal: www.fabiofon.com .

 




Comente o texto


*

Comente tambm via Facebook