Published using Google Docs
alter35-busca
Updated automatically every 5 minutes

BUSCA NA INTERNET

Pedro Demo (2012)

Battelle (2006), em seu livro sobre “A busca: como google e seus rivais reescreveram as regras do negócio e transformaram nossa cultura”, investiga o futuro da busca digital, não se restringindo apenas ao interesse imediato de encontrar coisas e textos a torto e a direito, mas colocando questões mais profundas que atingem seu fundamento semântico e epistemológico. Por trás da ânsia da busca, exacerbada pelo excesso de informação e por possíveis manobras ocultas de manipulá-la (em especial por mantenedores de programas de busca), está sempre a expectativa de um dia termos um computador que pudesse nos entender, tal qual conseguimos entender outro ser humano, ou seja, no nível semântico ambíguo das significações linguísticas. A mente humana consegue entender informação confusa, incompleta e mesmo deturpada, porque sabe usar contexto, memória interpretativa, redes de significados, podendo até mesmo entender como dado relevante sua própria falta, ou o silêncio e a reticência, ou um duplo sentido. O computador, pelo menos até hoje, não consegue esta proeza, mantendo-se tipicamente sintático, fixamente gramatical. Pode correr atrás de uma palavra, em seu formato digital, não em seu significado semântico, tanto que, se a palavra tiver qualquer erro ortográfico, não é reconhecida; se tiver duplo sentido, perde-se em referências sem nexo e contexto. Quando digitamos uma palavra para ser buscada, o que o computador até ao momento faz é procurar se esta palavra, exatamente no formato proposto, se repete, mas não consegue procurar seu “significado” em sentido interpretativo. Na prática, a encrenca está na “inteligência artificial”, até hoje uma promessa afoita, talvez mesmo enganosa (Kurzweil, 1999; 2005), porque máquinas digitais fazem outras coisas bem melhor que as mentes humanas, não, porém, interpretar sentidos ambíguos (Dreyfus, 1997). Por isso, programas de tradução são ainda extremamente incipientes: traduzem palavra por palavra, não o contexto do qual depende o que poderiam significar. Sabemos, porém, que, para falar bem uma língua, não basta decorar palavras (nem que seja o dicionário inteiro), porque o mais decisivo é saber o lugar semântico das palavras, inclusive os idiomatismos.

Ultimamente, a discussão em torno das ontologias (Demo, 2009) está procurando clarificar este desafio que parece indicar a dificuldade de ultrapassar entendimentos lineares de entendimentos complexos. Nossa mente também possui o lado do entendimento linear, porque tende a padronizar dinâmicas, extraindo delas suas recorrências, o que, ao final, significa entender o complexo através do simples (explicar é simplificar). A ciência é a expressão mais rebuscada dessa tendência, já que teoria é sempre uma construção ordenada e idealizada, implicitamente reducionista da realidade, nunca sua representação linear direta. Pressupõe que a realidade seja, ao fundo, simples, sequencial, gramatical, invariante, à qual cabe um entendimento também simplificado. Nossa mente, porém, vai além disso, porque precisa entender o fenômeno da comunicação social, tipicamente ambígua, incompleta, em especial quando culturas diferenciadas tentam se entender. Todo texto admite interpretações diversas e também conflitantes, que, ao final, sequer conseguimos dirimir, mas isso não impede o entendimento; apenas desvela seus desafios complexos. A complexidade da realidade precisa ser teoricamente ordenada para ser cientificamente acessível, mas esta “ordem do discurso” (Foucault, 2000) é um artifício mental, cuja finalidade é captar a realidade, captando-a à moda da mente, o que Maturana coloca na conta da “autopoiese” (2001. Demo, 2002): o ser vivo funciona de dentro para fora, construindo da realidade uma imagem do ponto de vista do observador. O fundo hermenêutico é naturalmente subjetivo, pois o que palavras querem dizer não depende apenas delas, mas de seu contexto linguístico, cultural, pessoal, tonal. A discussão sobre busca na internet retoma esta questão complexa, apontando para um dos desafios mais fundamentais do computador e da internet: em vez de só processar informação, passar a entendê-la hermeneuticamente...

I. IMPORTÂNCIA DA BUSCA POR INFORMAÇÃO

O mundo eurocêntrico sempre mostrou apreço pela informação e conhecimento, porque desde sempre percebeu que são fonte decisiva de poder e influência. A biblioteca de Alexandria é o primeiro monumento a este apreço, e queria ajuntar a “soma total do conhecimento humano num lugar só, de uma só vez” (Battelle, 2006:79). Esta pretensão continuou se renovando em nossa história sempre que se erigia uma biblioteca destinada a acolher as obras disponíveis, implicando sua perpetuação no tempo. A última maior pretensão é google, que, explicitamente, quer ajuntar todo o conhecimento disponível no mundo. Trata-se de uma pretensão tão avassaladora, que levou Vaidhyanathan a falar de “googlização de tudo” (2011). Esta proposta hercúlea já começou em Alexandria com uma expectativa incompleta, para não dizer equivocada: igualar conhecimento e informação. O que se pode colocar na biblioteca é o conhecimento disponível codificado, ou seja, o lado institucionalizado e estabilizado, ou seja, conhecimento como informação. O outro lado nunca está na biblioteca, ou seja, conhecimento como dinâmica rebelde, ainda que lá se possam encontrar textos escritos em linguagem rebelde e que incitam à rebeldia, mas, uma vez escritos e publicados, são textos informativos substantivamente.  São material impresso de consumo dos leitores e pesquisadores, um tipo elaborado de informação, muito útil como referência bibliográfica, e que merece ser guardado em lugar de destaque. No entanto, acentua-se uma dimensão do “capital intelectual” da humanidade, aquele que, seguindo esta metáfora neoliberal, está parado no banco, não a outra dimensão de um capital efervescente, sempre em ebulição, agindo corrosivamente em todas as estruturas vigentes sociais e naturais. Este lado da mente como turbina incansável, autopoiética, inovadora e rebelde não se pode armazenar, porque também some com a morte de cada um de nós. Embora a obra de Einstein esteja disponível nas bibliotecas, sua mente não está mais aí.

Esta cautela conceitual não diminui a importância da biblioteca. Apenas conota que ela não pode dar o que não tem, assim como a busca digital. Até ao momento, um motor de busca tão decantado como o do google não vai além de acumular termos lineares e que são apenas a casca externa da informação (nada a ver com a produção de conhecimento), e com velocidade crescente. Mesmo assim, a disputa em torno desses softwares é de morte, porque eles estão impondo parâmetros de relevância dos respectivos sites, à medida que, através de algoritmos ordenadores, se ranqueiam pelo acesso recebido historicamente. Ademais, poder filtrar informação em meio a uma disponibilidade desmesurada de informação é uma necessidade fatal, porque só damos conta de um punhado pequeno e ordenado de informação. Neste sentido, o que o google oferece é uma grandiosidade, mesmo que, do ponto de vista da semântica, seja coisa rasteira. O google (ainda) não entende a mente do buscador humano, apenas as palavras em sua estrutura sintática. Battelle cita o site “Zeitgeist” do google que ventila assuntos debatidos no momento com grande versatilidade e proveito – “Zeitgeist é uma ferramenta pública inteligente que sumariza termos de busca que estão ganhando ou perdendo relevância durante um período particular de tempo. Observando e contando termos populares de busca, Zeitgeist proporciona um sumário fascinante do que nossa cultura está procurando ou encontra de interessante, e, por outro lado, o que foi uma vez popular e que está perdendo espaço” (2006:98). Desde 2001, este site mantém uma oferta semanal de termos buscados, mostrando uma perspicácia sem precedentes por dinâmicas culturais significativas de domínio público, desvelando o que Battelle chamou de “base de dados das intenções” (database of intentions) – “um artefato vivo de poder imenso” (Ib.). Pareceria que google sabe o que nossa cultura quer. Manejando milhões de buscas correndo por seus servidores a cada instante, a empresa detém uma mina de ouro de informação.

Para Battelle, “link por link, clique por clique, a busca está construindo possivelmente o artefato cultural mais duradouro, ponderoso e significativo na história da humanidade: a base de dados das intenções. Esta base é apenas isso: os resultados agregados de cada busca que entrou no sistema, ou que se ofereceu e todo caminho tomando como resultado. Está vivo em cada lugar, mas alguns mais pronunciados (em 2006) – AOL, Google, MSN, Yahoo – guardam montantes massivos de seus dados” (2006:160). Na prática, tal informação acaba representando a história em tempo real da cultura pós-web: através da torrente de cliques do mouse aparece uma base de dados de desejos, necessidades, vontades e preferências que podem ser descobertos, intimados, arquivados, seguidos e explorados para todo fim imaginável (Ib.). Esta expectativa exaltada precisa, porém, ser sopesada em face dos problemas ainda não resolvidos (seriam intratáveis para alguns autores) (2006:204), cuja solução foi prometida pela inteligência artificial. Apesar do impasse reinante, existe consenso em torno da relevância do desafio, considerado um dos mais instigantes e que sempre pairou sobre as cabeças pensantes do computador e internet: quando seríamos aptos a desenhar um computador que fosse capaz de entender a comunicação humana como nós, tal qual já aparece em ficções científicas e filmes como “Uma odisseia no espaço”?... A narrativa homem X máquina sempre nos fascinou, talvez porque, sendo o ser humano um desdobramento tecnológico da natureza (quase uma prótese) e tendendo a criatura a voltar-se contra seu criador como consta no Gênesis (pecado do conhecimento), nos sentimos sempre tentados a forjar uma máquina que poderia nos superar. No entanto, a trajetória já percorrida do mundo digital não efetivou a base de dados das intenções, pois continua sendo intenção ou promessa.

Há muito por fazer, em termos mais práticos, por exemplo, categorizar, etiquetar, ordenar, indexar a multidão de informação, para que possa ser classificada, distinguida, seguida, sem falar que muito dessa informação é irrelevante, o que sempre deixa um problema angustiante não resolvido: como saber se uma informação é importante... Como temos de descartar informação para poder entendê-la minimamente – dar conta de toda a informação seria pura desinformação – a percepção de sua relevância torna-se crucial, para não descartarmos logo que mais iria nos interessar. Não há solução completa ou pacífica a respeito, porque no contexto ambíguo da comunicação humana é impraticável transparência perfeita, razão pela qual adotamos – como fuga epistemológica – os subterfúgios da classificação linear: tomamos como mais importante o que mais se repete! Um site pode ser muito acessado, dado o fato de muita gente passar por ele. Isto pode ser indicativo de importância. Mas não necessariamente. Pode ser que a informação realmente importante apareça uma vez só num site só...

II. 5% APENAS RESOLVIDOS

Segundo Udi Manber (alto executivo da Amazon), “busca como problema está resolvida em por volta de 5%” (Battelle, 2006:293), o que espanta, tendo em vista que mesmo esses 5% deslancharam um muito inacreditável de negócios, a começar pelo google. As empresas fazem de tudo para aparecerem na primeira página da busca do google, porque isso significa prestígio enorme e chances elevadíssimas de lucro. Por trás dessas manobras há um certo acordo tácito sobre a lisura dos procedimentos, em particular acerca da veracidade das informações e da preservação da privacidade, por mais que sempre seja o caso também desconfiar, como sugere enfaticamente Vaidhyanathan (2011). Quanto aos 95% que restam para resolver, o osso mais duro está na expectativa de que, um dia, o computador entenda a comunicação humana com perfeição. “A ideia de que a busca um dia se transforme numa forma similar à humana penetra quase toda discussão do futuro da aplicação” (Battelle, 2006:302). Em parte, esta pressão se deve às promessas não cumpridas da inteligência artificial; em parte se deve à esperança incontida de inventar uma máquina que se comunique como nós. Para ser inteligente, a busca precisa entender a indagação. O problema não é encontrar algo – que linearmente se encontra com facilidade – o problema é entender algo. A máquina teria de ser capaz de decifrar hermeneuticamente o que vai na cabeça de quem busca, razão pela qual, no futuro, a questão central não será buscar, mas entender. Ela teria que passar o teste de Turing[1]. Turing previu na década dos 50 que por volta de 2000 os computadores seriam tão inteligentes que passariam no teste sem maiores problemas. No entanto, esta expectativa não vingou, a ponto de se oferecer um prêmio de $100.000 para o primeiro computador que conseguir superar esse teste.

Todo mundo corre atrás desse prêmio, mas continua ileso. Talvez o problema seja que se procura numa direção errada, por exemplo, fabricando robôs que acumulam respostas lineares cada vez mais densas. Possivelmente, respostas lineares jamais darão conta desse teste. Não dispomos ainda de tecnologia capaz de entender comunicação complexa, não linear, de fundo hermenêutico. O computador persiste ainda como artefato sintático, enquanto o ser humano, para além disso, desenvolve habilidade semântica. O que o google tem feito é arrumar a busca de maneiras mais sensíveis e abrangentes, ainda que lineares, sobretudo conseguiu ranquear a informação, o que permite construir um mercado potentíssimo de advertisings com base nesse ranqueamento de sites. Os primeiros lugares podem cobrar mais, sem falar que valem em si mais. Assim, a estratégia do google foi de armar um contexto de mercado de advertisings altamente eficiente, com base em algoritmos poderosos que classificam informação rapidamente e que são guardados em sigilo incisivo. Google não matou a charada semântica, nem de longe, possivelmente porque, apesar de seus aprimoramentos exitosos, permanece uma tecnologia digital de propensão linear. Não se consegue ainda desvendar a intenção de quem busca – o que está buscando e seu contexto. Assim “enquanto os motores de busca estão crescentemente se tornando melhores nessa tarefa, não estão, em nenhum lugar, perto de resolver o problema” (Battelle, 2006:400).

Entre as pessoas que buscam há muitas diferenças, desde as que buscam qualquer coisa (ou nada), até as que buscam assiduamente e usam para pesquisa (sofisticada). Essas últimas colocam sobre processos de busca expectativas complexas que os motores atuais ainda não dão conta. Segundo pesquisa da Fundação Pew, há uma elite tecnológica que usa motores de busca com alguma destreza, por volta de 31% da população. A busca se intensifica com pessoas mais educadas e mais novas, sendo que, buscando mais, a tendência é que os usuários se tornem mais conectados, mais digitais e mais exigentes com serviços de informação. O orçamento doméstico gasto em serviços de informação teria crescido à taxa anual de 32% na década dos 90 (de $365 para $640) (Battelle, 2006:447). Deve-se levar em conta que uma boa busca depende também de uma boa pergunta. Muitos buscam sempre a mesma coisa, sem imaginação. Mas outros levantam buscas complexas e inteligentes, que exigem serviços bem mais sofisticados. Ninguém, hoje, escapa de “buscar” na internet, simplesmente porque a informação disponível é incomensurável: sem filtro, não conseguimos apreciar nada. Podemos, por exemplo, acumular milhares de fotos em algum lugar, mas não as acharemos mais se não houver alguma forma de classificar e etiquetar.

Em cima disso, google construiu seu império, sabendo explorar a necessidade de informação classificada. Hoje estamos preocupados com consequências deste poderio tão imenso (Vaidhyanathan, 2011. Brabazon, 2007), porque a privacidade está ameaçada, por exemplo, com o programa de mapeamento das cidades do google. Google sabe onde moramos, sabe quais são nossos hábitos de consumidor, sabe nossas preferências, tal qual Amazon – depois de feita a compra – rastreia gostos e preferências, de tal sorte que, a cada nova compra, já aparecem sugestões novas. Ou seja, através de um software que capta padrões de comportamento, somos acompanhados sempre por ele nas futuras compras, “facilitando” novos consumos. Certamente, há o lado prático disso, porque nos dispensa ir procurando tudo de novo. O cardápio vem pronto. Mas há o lado temerário, porque se tem a impressão de que somos perseguidos, encurralados, pressionados por uma máquina que sabe de nós mais que nós mesmos! Segundo Battelle, é possível escrever o telefone de alguém na busca e receber o endereço com mapa de sua casa... (2006:2856). Com isso, fica sempre a suspeita se o google não tem acesso a toda e qualquer informação na internet, inclusive emails. Ocorre que email, um dia algo tão efêmero, agora corre o risco de se tornar eterno, porque fica armazenado em algum lugar, fora de nosso controle. Este poder desmesurado precisaria ser contido. Google sempre ofereceu como lema fundamental da empresa não fazer o mal, mas esta retórica se tornou já tão esgarçada, que as pessoas mais questionadoras se sentem ameaçadas. Um dos problemas é que, no contexto do mercado, referência ética dificilmente se mantém. Por exemplo, o projeto de digitalizar todos os livros do mundo, vendido como proposta de guardar a memória da humanidade para todos, facilmente infringe direitos autorais e coloca nas mãos de uma empresa privada este imenso “capital intelectual” que, então, estará à venda...

III. PESQUISA NA INTERNET

Não se pode negar que a internet representa potencialidades extraordinárias, começando pelo acesso à informação, mas sobretudo como plataforma pertinente de produção própria de conhecimento. A web 2.0 é, em geral, indicada como representativa dessa oportunidade (Demo, 2009). Potencialidade, no entanto, não implica efeito automático. A internet é também um grande lixão (Setzer, 2002; 2009). Tem de tudo por lá, até mesmo coisa boa! A questão maior é que a nova geração não vai para a biblioteca, vai para a internet (a geração anterior, por aqui, também já não ia muito para lá). É fenômeno mundial que a nova geração, para fazer tarefas escolares, recorre maciçamente a ambientes virtuais, sobre os quais os professores não possuem, na prática, controle (Tapscott, 2009. Rosen, 2010). A turma plagia o que pode, cata informação, trabalha online, todos ajudam todos, deixando os professores atordoados. Frequentemente parodiam as aulas e a escola como instituições obsoletas (A vision, 2009), preferindo ambientes informais (estudar em casa no computador, por exemplo) aos formais (estudar na escola). Tornando-se o computador cada vez mais “ubíquo” (Martin, 2008), as crianças se alfabetizam mais em casa do que na escola (Demo, 2009). A internet está desafiando os professores, em parte porque estes não estão afeitos a ela como está afeita a nova geração, em parte porque a internet esvazia a aula instrucionista e a apostila (a internet é, em certa medida, uma imensa apostila), em parte porque permite plágio difícil de controlar, em parte porque atrai os alunos muito mais que a escola, em parte porque escancara a distância entre o atraso oferecido na escola e as habilidades necessárias para se dar conta do século XXI (Coiro et alii, 2008). Há algum exagero nisso, mas não escapamos de reconhecer que, pela primeira vez na história, as crianças podem desenvolver habilidades que ultrapassam os pais e professores (tech savvy - sabidos em tecnologia) (Bawden, 2008. Fieldhouse & Nicholas, 2008). Tornou-se conhecida a observação de Prensky: as crianças são “nativas”; os adultos “imigrantes” (2001). Não se trata de “outra espécie”, ainda que Veen e Vrakking (2006) as qualifiquem de “homo zappiens” (Veen, 2007; 2008). Questionam-se, hoje em dia, tais apostas apressadas nas novas gerações, como se fosse nascessem superdotada (Thomas, 2011), mas isto não retira o argumento de que a velha geração precisa fazer alguma coisa para estar à altura da nova. É urgente conquistar a internet para a prática de pesquisa, em vez de apenas a maldizer. Como veio para ficar, é mais inteligente saber lidar com ela do que esquivar-se ou resistir. É fundamental manter o “olhar do educador”, preservando devido espírito crítico e autocrítico, para não só resistir ou não só adotar, evitando-se o determinismo tecnológico (Martin, 2008).

As novas tecnologias facilmente são usadas para aprimorar a aula, por mais que isto seja “enfeitar defunto”, ou, como dizem os americanos, “colocar vinho novo em garrafa velha” (Stein, 2008. Akilli, 2007). Num sentido bem concreto, o advento da internet pode ser visto como consagração da aula instrucionista: nela nada se cria, tudo se copia. A internet parece uma apostila global, à medida que nela se encontra qualquer assunto para se reproduzir. Acionando algum motor de busca (google, por exemplo), podemos ter acesso a quase qualquer coisa, dispensando elaboração própria. O plágio é hoje um tormento geral para os professores, alastrando-se também para a pós-graduação. Como os alunos fazem suas tarefas em geral em casa, o acesso ao computador não pode ser controlado pelos docentes, o que tem levado a muitos a maldizer as novas tecnologias (Stoll, 1999). Ao mesmo tempo, habituando-se a nova geração a ler na tela e a lidar com textos multimodais (que usam, para além do impresso, som, imagem, animação, etc.), o livro e todo material impresso sofre desgaste alarmante. Ao xérox, soma-se agora a cópia obtida digitalmente. Assim, a aula copiada para ser copiada encontra na internet seu superlativo.

Esta crítica, porém, não pode desembocar na maldição da internet, até porque proibir em geral não é ato pedagógico. Será mais prudente tentar educar a nova geração a usar a internet para aprender, pesquisar. Um primeiro requisito é saber distinguir informação e conhecimento. Diria que informação é matéria prima do conhecimento. Tomando-se conhecimento como dinâmica desconstrutiva/reconstrutiva, existe como dinâmica, não como informação digitalizada, e, assim, congelada, armazenada, no computador. Conhecimento não pode, propriamente, ser algo fixo, empacotado, processado, a não ser em sua face sintática (gramática). Em sua face semântica (hermenêutica e interpretativa) é movimento sem fim de desconstrução e reconstrução, que tem na base digitalizada referência formalizada, não a dinâmica de interação de significados (Massumi, 2002). Tomando outro exemplo: no computador pode estar o dicionário mais completo de inglês e todas as regras gramaticais, mas, nem por isso, o computador “sabe” inglês. Saber inglês supõe inserção cultural, partilha de significados, sentidos e duplos sentidos, estilos subjetivos e individuais de falar, e assim por diante. A informação processada e armazenada no computador, no entanto, pode virar conhecimento, desde que desconstruída e reconstruída, admitindo intensidade semântica. No fundo, é positivismo escrachado postular que informação seja conhecimento, assim como o é bastar-se com simples descrição, sem análise. Afinal, pessoa bem informada não é quem acumula informação, mas que sabe interpretar, reconstruir, significar.

Não se pode esquecer que a internet está cada dia mais “comercializada”, predominando nela o processamento de informação atrelada ao mercado, à revelia de alguns movimentos importantes em defesa da “cultura livre” (Lessig, 2004). Pode impressionar o senso de liberdade que se tem ao navegar na internet e isto atrai sobretudo as crianças: elas imaginam estar pilotando o computador à vontade e fantasiam a internet como o mundo dos relacionamentos livres. Na prática, a liberdade que aí se exerce é “sob medida” (Galloway, 2004), também com respeito aos videogames. Estes encantam os jogadores por vários motivos que, como regra, enaltecem o senso de iniciativa própria: começa com a construção do avatar para representar o jogador sob a marca de algum personagem; podem-se mudar algumas regras de jogo; cenários podem também ser alterados e mesmo introduzir novos; os jogadores instituem comumente a “peer university” (universidade de pares), a discussão online aberta para dar conta dos desafios do jogo; para ultrapassar cada etapa, oferecem-se apoios (“scaffolding” - metáfora do andaime, inspirada na “zona do desenvolvimento proximal” de Vygotsky) (Gee, 2003; 2007. Prensky, 2010), no sentido de contribuir socraticamente (como coach) para a autonomia do jogador... No entanto, seria ingênuo não perceber que esta “liberdade” de iniciativa é “permitida” porque eleva a chance de consumo. Como questiona Fabos (2008), este é “o preço da informação”.

Existe, por isso, um conluio flagrante entre internet e mercado liberal (Schiller, 2000. Hassan, 2008), também porque sua pátria maior são os Estados Unidos e sua lingua franca é o inglês. Este reconhecimento, todavia, não impede de valorizar movimentos de produção virtual alternativa, como analisa Benkler (2006), chegando a falar de um novo modo de produção, de cunho solidário. Refere-se mormente a produções solidárias do tipo wiki (wikipedia, por exemplo): milhares de pessoas colaboram voluntariamente, sem exigir remuneração, por conta do bem comum. Claramente, este tipo colaborativo de produção não rivaliza com o tradicional capitalista, mas está se impondo, devagar. A muitos parece excessivamente rósea esta expectativa (Fabos, 2008). No fundo, temos de aceitar que a internet é uma plataforma interativa repleta de ambigüidades, podendo ser usada para o bem e para o mal. Oferece às crianças inúmeros riscos, razão pela qual não é prudente deixá-las acessar sem alguma vigilância, ainda que não caiba simplesmente proibir. Neste sentido, ao propugnarmos a oportunidade de pesquisar na internet, não podemos ignorar que é bem possível sermos tragados por ela. Mesmo assim, as plataformas da web 2.0 (Demo, 2009. Mason & Rennie, 2008) permitem o desenvolvimento de autorias individuais e coletivas que poderiam dignificar as chances de aprender bem.

Caberá ao interessado, então, não cair nas arapucas da internet, que sempre procura nos envolver em advertisings de toda ordem, tendo como resultado nos atrelar ao consumismo. Em geral, ao abrirmos qualquer site, o “preço” são propagandas intermitentes, por vezes insistentes. Não é à-toa que os motores de busca (tipo google), aparentemente gratuitos, se tornaram empreendimentos altamente lucrativos, porque não só veiculam e catam informação. Fazem isso em ambiente comercial, tendo como chamariz alguns acessos livres em meio a tantos outros pagos. Polêmica candente é aquela em torno do copyright e dos direitos autorais, agitando as ganâncias do mercado que insiste em proteger os proprietários. A alegação é que a propriedade privada da produção virtual motiva a inovação. Lessig (2004) sugere que isto nem sempre é o caso, sem falar que “idéias” não deveriam ser objeto de apropriação privada, assim como uma “cultura” não tem propriamente dono. É uma dinâmica coletiva. Idéias apropriadas são aprisionadas e, tendo dono, correm o risco de paralisia: “idéia fixa” (argumento de autoridade)!. A criatividade provém, muito mais facilmente, da “free culture” (cultura livre), na qual todos podem expressar-se à vontade, argumentar e contra-argumentar, privilegiando a autoridade do argumento. Em vez do copyright, sugere-se o “copyleft[2]: permite-se a cópia, desde que a nova “versão” possa também ser copiada, como é no caso do software livre. Tudo que é gratuito na internet é gratuito porque existe, por trás, algum esquema de financiamento vinculado a estruturas de mercado. Na prática, porém, isto não deveria estranhar, já que vivemos numa sociedade capitalista e que tem no mundo virtual do computador e da internet uma de suas referências mais decisivas.

A internet será sempre aprimorada, porque é uma plataforma aberta que impulsiona iniciativas de participantes, imprimindo um ritmo alucinado de atualização. Em geral somente jovens têm interesse e paciência para ficarem acompanhando tudo que aparece de novo, em especial infindos softwares que melhoram isso ou aquilo, fazem isso ou aquilo se executarem mais rápido, se simplificam procedimentos, e assim por diante. Na internet – já se diz – encontra-se tudo. É exagero. Mas pode-se dizer que se encontra de tudo. A escola está talvez perdendo a chance de trabalhar a potencialidade da internet, à medida que a ignora ou reprime. Não há a mínima chance de a escola voltar a tempos anteriores à internet. Veio para ficar. É melhor fazer bem. Uma primeira preocupação é evitar que os estudantes busquem seus conteúdos de pesquisa apenas na internet, como se ela bastasse. A tendência a tratamentos superficiais é imensa, como anota Carr (2010). Na Wikipédia há coisa boa e muita coisa incipiente, se não precária. Uma segunda preocupação é motivar os estudantes a buscarem conteúdos na biblioteca, em livros, e revistas, não porque são necessariamente melhores que os conteúdos na internet, mas porque é fundamental variar suas fontes. Computador e internet não substituem o esforço próprio de reconstrução do conhecimento, nem mesmo se um dia forem capazes de rivalizar com nossa mente no entendimento da comunicação humana, porque ainda resta a marca individual e subjetiva, naturalmente insubstituíveis. Computadores e internet como “pessoas”, parece ainda um sonho (ou pesadelo) distante. A muitos poderiam ocorrer que seria agradável se o computador e a internet fizessem as provas em nosso lugar, lessem e interpretassem por nós, nos atualizassem automaticamente. O problema é que perderíamos nossa autoria, submetendo-nos à outra.

IV. RAZÕES EPISTEMOLÓGICAS

A par das tecnicalidades implicadas na busca digital (algoritmos digitais, indexação e classificação da informação, protocolos de busca etc.), a questão mais densa que Battelle ventila é de tessitura epistemológica. O que é conhecer é uma pergunta que sempre emerge nessas discussões, relevando-se tanto virtudes notáveis (como as hermenêuticas), como limitações supervenientes (tais quais observação restrita, ordenamentos reducionistas teóricos, falibilidade das proposições e sua necessidade de revisão permanente, etc.). Ao mesmo tempo, o que é conhecimento permanece uma referência dúbia, porque abrange dinâmicas extremamente disparatadas que vão desde mera informação linearizada, até criações intelectuais magníficas. Pode-se ver conhecimento como algo definitivo e armazenável, correspondendo à prática da biblioteca desde sempre. Esta visão tem por trás a expectativa epistemológica de que, sendo a realidade perfeitamente analisável em suas partes, é possível chegar à ultima parte e oferecer uma explicação totalizante e final. O que se arquiteta aí fica para sempre, a título de conquista definitiva e fixa. Outros preferem ver conhecimento como dinâmica incansável, destacando sua vocação para inovação incessante. O que se estabiliza em textos, por exemplo, já é conhecimento institucionalizado e ultrapassado, tendo sua importância não mais no acervo montado, mas nas oportunidades que ainda pode oferecer para futuras inovações. Um texto fica na história porque ainda oferece lampejos inovadores para a história futura. Outros textos são parte de um acervo tendencialmente morto. É o que encontramos nas apostilas: um acervo tendencialmente morto.

Em vez de brindar os estudantes com a oportunidade de produzir conhecimento próprio, repassa-se esse acervo, contribuindo para a deformação escolar. Não é que o acervo não faça sentido. Acumular conhecimento é tarefa fundamental, também porque novo conhecimento só se faz sobre conhecimento anterior. Por isso, não se trata de depreciar o currículo e seus conteúdos. Tais conteúdos podem ser de enorme relevância, mas não como acervo. Sua relevância está em desafiar reconstruções permanentes, levando em frente a bandeira da autoria. Talvez por razões históricas, mas igualmente por razões de deformação escolar e universitária, nos dedicamos ingenuamente a repassar conteúdos, como se eles, por si, detivessem a chama da inovação. Foram um dia inovação. Agora são coisa já inovada, a caminho do envelhecimento. A internet abriga esta questão em sua alma. Repleta de conteúdos de tudo que é jeito, o que faz dela um vulcão não é simplesmente acumular acervo, mas propô-lo como motivação incessante de reconstrução. A imagem mais clara disso é a Wikipédia: tem um acervo contingente, aberto, sempre acessível à reedição. Menos que o acervo, interessa sua atualização, porque, de verdade, acervo interessante é, primeiro, o renovado, e, segundo, aquele que, sem parar, clama por renovação. Os wikipedianos gastam seu tempo, não é repetindo conteúdo, mas renovando obstinadamente, dentro da regra de jogo de que seu conteúdo também será renovado e só permanece se for renovado.

A tentação da internet é de refazer a mesma trajetória da biblioteca como mero acervo: acumular informação infinita como se fosse conhecimento. A própria busca, ainda tão linear, aponta para essa direção antiquada, porque no fundo é cumulativa, repetitiva, sequencial (algorítmica). Quando nos entregamos à ideia de que tudo está na internet, é porque já não consideramos importante nossa autoria e passamos a viver da autoria alheia. No entanto, a própria saga incrível do google mostra que, mesmo sendo a busca uma solução de apenas 5%, provocou um dos maiores negócios do mundo de todos os tempos. Assim, informação é vital para nossas vidas, bem como para o mercado. Sua atual precariedade não tem impedido a floração de inúmeros motores de busca, enquanto continuamos estudando alternativas. As alternativas – assim imaginamos – em geral estão no caminho equivocado, porque não tomam a sério o desafio epistemológico: querem aprimorar buscas lineares, quando a busca inteligente só poderia ser não linear, porque é nesse ambiente que poderia surgir a habilidade hermenêutica. O computador atual parece muito distante disso ainda.

PARA CONCLUIR

Os fundadores da internet e computador (Green, 2010) sempre sonharam com plataformas revolucionárias de cunho epistemológico. Queriam subverter a escola, a universidade, bem como o mundo do conhecimento. Punham-se com objetivo expandir infinitamente a capacidade humana de produção própria de conhecimento. Nem de longe, queriam que tamanhas novidades fossem utilizadas para consolidar velharias pedagógicas e didáticas fundadas na mera reprodução de conteúdos. Certamente, tais expectativas sempre foram também nebulosas, em parte porque a preocupação epistemológica nem sempre surge no lugar certo e na hora certa. Mais comumente, tem-se dela uma visão suspeita, por parecer “filosofada” perdida. A história mostra o contrário: nenhum autor se torna importante, se não desenvolver crítica e autocrítica epistemológica, discutindo seu poder de fogo em termos da produção de conhecimento. Muitos autores tomam como coisa não problemática, porque apenas engolem protocolos impostos de fora, esperando que atrelamento se transforme em criatividade. Ledo engano. Agora que estamos tão preocupados com busca, porque tornou-se crucial para lidar com a internet, poderíamos aproveitar o ensejo para rever nossas expectativas mais profundas em torno do conhecimento. Saber pesquisar na internet vai ser um trunfo imbatível.

REFERÊNCIAS

A Vision of K-12 Students Today (Video). 2009. http://br.youtube.com/watch?v=_A-ZVCjfWf8 

AKILLI, G.K. 2007. Games and Simulations: A new approach in education? In: Gibson, D., Aldrich, C., Prensky, M. 2007. Games and Simulations in Online Learning - Research and development frameworks. Information Science Publishing, London, p. 1-20.

BATTELLE, J. 2006. The Search: How Google and Its Rivals Rewrote the Rules of Business and Transformed Our Culture. Portfolio Trade, New York.

BAWDEN, C. 2008. Origins and Concepts of Digital Literacy. In: Lankshear, C. & Knobel, M. (Eds.). 2008. Digital Literacies - Concepts, policies and practices. Peter Lang, New York, p. 17-32.

BENKLER, Y. 2006. The Wealth of Networks - How social production transforms markets and freedom. Yale Univ. Press, New York.

BRABAZON, T. 2007. The University of Google – Education in the (post) information age. ASHGATE, Burlington.

CARR, N. 2010. The Shallows: What the internet is doing to our brains. W.S. Norton & Company, New York.

COIRO, J., KNOBEL, M., LANKSHEAR, C., LEU, D.J. (Eds.) 2008. Handbook of Research on New Literacies. Lawrence Erlbaum Ass., New York.

DEMO, P. 2002. Complexidade e Aprendizagem – A dinâmica não linear do conhecimento. Atlas, São Paulo.

DEMO, P. 2009. Ontologia - http://pedrodemo.blog.uol.com.br/arch2009-08-09_2009-08-15.html 

DEMO, P. 2009a. Educação Hoje – “Novas” tecnologias, pressões e oportunidades. Atlas, São Paulo.  

DREYFUS, H.L. 1997. What Computers still Can’t Do – A critique of artificial reason. The MIT Press, Cambridge, Massachusetts.

FABOS, B. 2008. The Price of Information. In: Coiro, J., Knobel, M., Lankshear, C., Leu, D.J. (Eds.) 2008. Handbook of Research on New Literacies. Lawrence Erlbaum Ass., New York, p. 839-870.

FIELDHOUSE, M. & NICHOLAS, D. 2008. Digital Literacy as Information Savvy - The road to information literacy. In: Lankshear, C. & Knobel, M. (Eds.). 2008. Digital Literacies - Concepts, policies and practices. Peter Lang, New York, p. 47-72.

FOUCAULT, M. 2000. A Ordem do Discurso. Loyola, São Paulo.

GALLOWAY, A.R. 2004. Protocol - How control exists after decentralization. The MIT Press, Cambridge.

GEE, J.P. 2003. What Video Games Have to Teach Us about Learning and Literacy. Palgrave, New York.

GEE, J.P. 2007. Good Video Games + Good Learning. Peter Lang, New York.

GREEN, L. 2010. The Internet. Berg, Oxford.

HASSAN, R. 2008. The Information Society. Polity Press, Cambridge.

KURZWEIL, R. 1999. The Age of Spiritual Machines – When computers exceed human intelligence. Viking, New York.

KURZWEIL, R. 2005. The Singularity Is Near - When humans transcend biology. Viking, New York.

LESSIG, L. 2004. Free Culture - The nature and future of creativity. Penguin Books, London.

MARTIN, A. 2008. Digital Literacy and The “Digital Society”. In: Lankshear, C. & Knobel, M. (Eds.). 2008. Digital Literacies - Concepts, policies and practices. Peter Lang, New York, p. 151-176.

MASON, R., RENNIE, F. 2008. E-Learning and Social Networking Handbook - Resources for Higher Education. Routledge, London.

MASSUMI, B. 2002. Parables for the Virtual - Movement, affect, sensation. Duke University Press, London.

MATURANA, H. 2001.  Cognição, Ciência e Vida Cotidiana. Organização de C. Magro e V. Paredes. Ed. Humanitas/UFMG, Belo Horizonte.

PRENSKY, M. 2001. Digital natives, Digital immigrants. http://www.marcprensky.com/writing/

PRENSKY, M. 2010. Teaching Digital Natives – Partnering for real learning. Corwin, London.

ROSEN, L.D. 2010. Rewired – Understanding the iGeneration and the way they learn. Palgrave, New York.

SCHILLER, D. 2000. Digital Capitalism – Networking the global market system. The MIT Press, Massachusetts.

SETZER, V.W. 2002. Computadores na educação: por quê, quando e como. http://www.ime.usp.br/~vwsetzer/PqQdCo.html 

SETZER, V.W. 2009. A TV Antieducativa. http://www.ime.usp.br/~vwsetzer/tv-antieducativa.html 

STEIN, P. 2008. Multimodal Instructional Practices. In: Coiro, J., Knobel, M., Lankshear, C., Leu, D.J. (Eds.) 2008. Handbook of Research on New Literacies. Lawrence Erlbaum Ass., New York, p. 871-898.

STOLL, C. 1999. High Tech Heretic – Why computers don’t belong in the classroom and other reflections by a computer contrarian. Doubleday, New York.

TAPSCOTT, D. 2009. Growing Up Digital - How the net generation is changing your world. McGraw Hill, New York.

TESTE DE TURING. 2010. Wikipédia - http://pt.wikipedia.org/wiki/Teste_de_Turing 

THOMAS, M. (Ed.). 2011. Deconstructing Digital Natives – Young people, technology and the new literacies. Routledge, London.

VAIDHYANATHAN, S. 2011. The Googlization of Everything (And why we should worry). University of California Press, Berkeley.

VEEN, W. & VRAKKING, B. 2006. Homo Zappiens - Growing up in a digital age. Net Work Continuum Education, London.

VEEN, W. 2007. Homo Zappiens and the Need for New Education Systems. http://www.oecd.org/dataoecd/0/5/38360892.pdf 

VEEN, W. 2008. Teaching the media generation - Coping with homo zappiens. http://bunet.karlsborg.se/sikt/veen_gothenborg.ppt#258,1,Teaching the Media Generation


[1] “Teste de Turing é um teste proposto por Alan Turing em sua publicação de 1950 chamada "Computing Machinery and Intelligence" cujo objetivo era determinar se máquinas podem exibir comportamento inteligente. No exemplo original de Turing, um juiz humano conversa em linguagem natural com um humano e uma máquina criada para ter desempenho indistinguível do ser humano, sem saber qual é máquina e qual é humano. Se o juiz não pode diferenciar com segurança a máquina do humano, então é dito que a máquina passou no teste” (Teste de Turing, 2010).

[2] Copyleft é também um trocadilho verbal: “left” significa “deixado, permitido”, mas também “esquerda”, contrapondo-se aí ao “right” do copyright: alude-se ao confronto entre postura de esquerda (aberta, solidária, participativa) e de direita (da apropriação privada).