terça-feira, 1 de abril de 2014

Digital curation survey: pesquisa informal para conhecer o estado de arte na curadoria na visão dos profissionais



Achei bem interessante essa pesquisa informal feita com bibliotecários que aponta como esses profissionais encaram a curadoria no seu dia-a-dia e até que ponto o trabalho de curador já está inserido nas bibliotecas, quer seja onde algum trabalho nomeadamente de curadoria tenha sido desenvolvido ou não. Vale a pena a leitura.
O texto está disponível em: Digital curation survey: help us build our sample!

quinta-feira, 19 de setembro de 2013

Breve história da Internet...

Escrevi esse texto para auxiliar a minha pesquisa sobre preservação digital, resolvi postar ainda que sem as referências...

A profecia da criação da internet foi abordada em 1991, no romance Mirror World, de David Gelertner, cientista da computação e professor da Universidade de Yale. Contudo, a criação da rede mundial de computadores remonta à época de um mundo bipolar e em constante tensão bélica.
Em 1957, o Departamento de Defesa americano cria a Advanced Research Projects Agency (ARPA) com objetivo de liderar pesquisas na área ciência e tecnologia militar, a recém estabelecida agencia foi uma resposta ao programa Sputinik, primeiro satélite artificial da Terra.
O governo dos Estados Unidos, temerosos de que ataques a bases militares trouxessem informações sigilosas a público, idealiza um sistema de compartilhamento descentralizado de informações. 
Em 1961, o primeiro artigo sobre a teoria da comutação por pacote de dados (packet-switching ou PS), é escrito por Leonard Kleinrock. Em 1962, J. C. R. LickLider e W. Clark, do Instituto Tecnológico de Massachusetts (MIT) já falavam em termos da existência de uma Rede Galáctica, que incorporaria interações sociais distribuídas.
David Watt Davies, cientista da computação de origem galesa, do Laboratório Nacional de Física da Grã-Bretanha (em inglês, National Physical Laboratory – NPL), cria a expressão “transferência de pacotes” - sistema de transmissão de dados em rede de computadores no qual as informações são divididas em pequenos pacotes, que por sua vez contém trecho dos dados, o endereço do destinatário e informações que permitiam a remontagem da mensagem original. O sistema de envio quebrava as informações em pacotes e o sistema receptor os unia novamente - em 1966, para descrever o sistema de envio de pacotes de informação entre computadores. No ano seguinte, comanda o desenvolvimento da chamada Rede de Dados NPL (NPL Data Network), um experimento em comutação de dados, usava linhas de 768kbps.
A ARPANET foi estabelecida entre 1968 e 1969, embora discussões sobre a estrutura da instituição e o primeiro projeto da rede ambas lideradas por Larry G. Roberts, tiveram lugar em Ann Harbor, Michigan, em 1966 e 1967, respectivamente. A rede funcionava por meio de um sistema conhecido como comutação por pacotes.
Após a sua criação, a ARPANET cria ‘nós’ em quatro universidades (Nó 1: Universidade da Califórnia em Los Angeles (UCLA); nó 2: Stanford Research Institute (SRI); nó3: Universidade da Califórnia Santa Barbara (UCSB) e nó 4: Universidade de Utah. Em 1971, Ray Tomlinson cria um programa de e-mails derivado de dois outros – um programa intra-máquina (SENDMSG) e um programa experimental de transferência de arquivo (CPYNET), a inovação jazia no fato que de esse programa possibilitava o envio de mensagens entre diferentes nós conectados à ARPANET. Nos anos seguintes, várias outras implementações tecnológicas ocorreram, entre elas o primeiro chat de computador a computador surge durante a Conferência Internacional sobre Comunicações de Computadores (ICCC), primeiras ligações internacionais à entre a University College of London (Inglaterra) e a Norwegian Seismic Array (NORSAR). Em 1974, Bob Metcalfe delineia a idéia para a Ethernet em sua tese de doutorado.
Vint Cerf e Bob Kahn apresentam idéias básicas de Internet no International Network Working Group - INWG, ocorrido na Universidade de Sussex, Inglaterra, e publicam no ano seguinte "A Protocol for Packet Network Interconnection" (Um Protocolo de Interconexão para Pacotes de Rede), que especifica em detalhes o desenho de um Programa de Controle de Transmissão (Transmission Control Program - TCP). A BBN (Bolt Beranek and Newman, empresa de tecnologia) lança o primeiro serviço comercial de comutação por pacotes, o Telenet.
Segundo Briggs e Burke (2004, p. 310), na visão do Pentágono a razão de ser da então limitada rede era:
um elemento essencial da sua razão de ser era que a rede pudesse sobreviver à retirada ou destruição de qualquer computador ligado a ele, e, na realidade, até a distribuição nuclear de todo ‘infra-estrutura’ de telecomunicações.
Já as universidades consideravam a Rede como espaço de “acesso livre” aos usuários, professores e pesquisadores, em que eram eles os comunicadores.
A National Science Foundation (NSF), foi criada em 1974, considerando uma comunidade de pesquisadores maior do que aquela abarcada pela ARPANET. Como dito em relatório do mesmo ano referida da agência: “ambiente de fronteira que ofereceria comunicação avançada, colaboração e troca de recursos entre pesquisadores geograficamente separados ou isolados” (BRIGGS; BURKE, 2004, p. 311).
A Computer Science Network (CSNET) se estabelece com apoio financeiro da NSF em 1979 e cresce o suficiente para se tornar estável. Em 1983, a DARPA foi ligada a essa rede, que já era composta por outros cinco núcleos de supercomputação.
De modo concomitante à realocação da DARPA e da construção de backbones financiados pelo governo americano, o protocolo TCP é subdividido em TCP (Protocolo de Controle de Transmissão, em inglês: Transmission Control Protocol) e IP (Internet Protocol). O Protocolo da internet permitia que o tráfego de informações fosse encaminhado de uma rede para outra. Todas as redes conectadas pelo endereço IP na Internet se comunicam para que todas possam trocar mensagens.
Esse fato é particularmente importante, pois a Defense Communications Agency (DCA), hoje Defense Information System Agency (DISA) os estabeleceram para a ARPANET como o protocolo de série, conhecido como TCP/IP.
Em 1984, Sistema de Nome de Domínio (Domain Name System - DNS) é introduzido e o número de servidores conectados passa dos mil.
Após a implantação da Rede de Ciência da Computação (CSNET), a National Science Foundation (NSF), cria uma rede de pesquisa acadêmica a fim de facilitar o acesso de pesquisadores aos centros de supercomputação por ela financiados.
Em 1985, a NSF começou a financiar a criação de cinco novos centros de supercomputação, são eles:
         John von Neumann Computing Center (JVNC) na Universidade de Princeton;
         San Diego Supercomputer Center (SDSC) no campus da Universidade da California em San Diego (UCSD);
         National Center for Supercomputing Applications (NCSA) na Universidade de Illinois em Urbana-Champaign;
         Cornell Theory Center na Universidade Cornell;
         Pittsburgh Supercomputing Center (PSC), esforço conjunto da Universidade Carnegie Mellon, da Universidade de Pittsburgh e  Westinghouse.
Também em 1985, sob a liderança de Dennis Jennings, a NSF estabeleceu o National Science Foundation Network (NSFNET), uma rede de pesquisa de propósito geral, um hub para conectar os cinco centros de supercomputação, juntamente com o centro financiado pela NSF, o National Center for Atmospheric Research (NCAR) entre si e com as redes de pesquisa e educação regionais que por sua vez se conectariam as redes nos campi.
Utilizando a arquitetura de rede em três camadas (three tier network architecture), a NSFNET proveria acesso para os centros de supercomputação e outros locais pela rede do backbone, sem nenhum custo para os centros ou para as redes regionais usando os protocolos TCP/IP, inicialmente implantados com sucesso na ARPANET.
O NSFNET backbone (com capacidade de  56 Kbps) começa a operar em 1986, estabelecendo rede com cinco centros de supercomputação e o National Center for Atmospheric Research (NCAR), que também era financiado pela NSF.
A consequência imediata da melhora estrutural na rede é a explosão de conexões, principalmente nas universidades. No ano seguinte, o número de servidores passa dos 10 mil, espalhados pelo mundo. Em 1989, esse volume de servidores aumenta em 10 vezes.
Nas palavras de Castells:
a rápida difusão de protocolos de comunicação entre computadores não teria ocorrido sem a distribuição aberta, gratuita de software e o uso cooperativo de recursos que se tornou o código de conduta dos hackers.[...] O advento do PC ajudou consideravelmente a difusão de redes de computadores. [...] A maioria das redes contudo exigia um backbone ancorado em máquinas mais potentes , e isso só foi possível graças ao contato entre redes baseadas em ciência e comunidades de hackers nas universidades. (2003, p. 25)
As redes exclusivas da Big Science, uma vez abertas à comunidade acadêmica (“redes contraculturais”, segundo Castells) se converterão em espaços para circulação da inovação e do conhecimento.
De modo concomitante ao desenvolvimento da base estrutural para distribuição da rede estabelecida, padrões e protocolos para transmissão de dados também já desenvolvidos e ao crescimento da rede para fora do contexto puramente acadêmico/científico, a hipertextualidade apresenta-se como imperativo da rede mundial que se formaria nos anos seguintes.
O cientista Tim Berners-Lee, do CERN, antiga sigla do Conseil Européen pour la Recherche Nucléaire hoje designado European Organization for Nuclear Research, esboçou a ideia da World Wide Web já em 1989. Criada por ele em 1992. Lee especulou sobre a criação de um ambiente onde se acessa tudo de todos os lugares com a seguinte máxima: “Suponha que eu tinha a possibilidade de programar meu computador para criar um espaço em que tudo possa ser ligado a tudo” (BRIGGS; BURKE, 2004, p. 312). A rede seria um espaço livre, aberto e sem proprietários e no hipertexto se refere à ao texto digital que agrega conjuntos de informação acessíveis por meio de hiperlinks.
Coaduna-se à ideia mirabolante do cientista inglês a tão conhecida proposição de Vannevar Bush no famosíssimo artigo “As we may think”. De 1945, o escrito parece preconizar, com o Memex, o que seria definido mais tarde como hipertexto. Barret (1989, p. 12) chama o Memex de um “sistema hipertextual prototípico”, projetado sob um princípio ‘associacionista’, que trabalha da mesma maneira que a mente humana”.
Ainda que a abertura total da internet figure como passo natural de sua história, essa possibilidade apenas se concretizou com a criação do protocolo HTTPS (HyperText Transfer Protocol Secure), possibilitando o envio de dados criptografados para transações comercias pela internet. O que se pode notar é que o interesse mundial aliado ao interesse comercial, que evidentemente observava o potencial financeiro e rentável daquela "novidade", proporcionou a explosão e a popularização da Internet na década de 1990. A internet, portanto, já era um símbolo político de abertura para todas as mídias de comunicação para objetivos públicos e privados.
A rede como espaço de intervenção social livre é resultado da aceleração do processo de inovação tecnológica estabelecido e na consolidação da rede, primeiro em meio acadêmico e em um segundo momento como espaço aberto ao comércio e às transações financeiras. Nas palavras de Cocco; Galvão; Silva. (2003, p. 11):
Nas mudanças econômicas, tecnológicas, sociais e culturais que acompanham a emergência e a ampla difusão das novas tecnologias de informação e comunicação (NTIC) e a dimensão cognitiva da economia, a produção constante e intermitente do “novo” impõe-se como um elemento comum, evidenciando deslocamentos paradigmáticos com profundas implicações na própria relação entre trabalho e vida. A produção do novo aparece como questão essencial para a ciência econômica na medida em que implica a inserção do aleatório, da incerteza e do desequilíbrio no cerne da atividade produtiva. A invenção e a inovação ascendem à posição de elementos fundamentais para o sucesso econômico de empresas, sistemas produtivos, regiões e países, implicando novas demandas para as políticas públicas. (COCCO; GALVÃO; SILVA, 2003.)
A resultante dessa série de fatores foi a popularização da internet a nível mundial. O Internet World Stats é um sítio internacional que possui dados sobre o uso da internet no mundo, estatísticas populacionais, estatísticas de viagem e dados de Internet de Pesquisa de Mercado, de mais de 233 países e regiões do mundo, estimou que cerca de 2,5 bilhões de pessoas eram usuárias da internet em junho de 2012.
O Brasil chegou à marca dos 82 milhões de internautas. De acordo com pesquisa da Ibope Nielsen, divulgada em julho. O número de internautas no Brasil cresceu para 82,4 milhões de pessoas no primeiro trimestre de 2012.
Os indivíduos buscam, cada vez mais, uma constante atualização de informações na web, estabelecendo redes de conhecimento resultantes de conexões e da interação entre os atores, uma troca intensa de informações que são, geralmente, convertidas em conhecimento.
Uma das considerações contemporâneas desse espaço de intervenção social coletivo concerne à organização desse caos invisível cujo crescimento é exponencial. É necessário atentar para a internet invisível (deep web) – informações que não usam o protocolo HTTP, da web. Ou seja: apenas o seu navegador de internet não é suficiente para ver esses sites. A deep web é composta de grandes quantidades de informação que tem sido postadas online e, que por razões técnicas não foram catalogadas ou atualizadas pelos motores de busca.
A deep web começou em 1994 e era conhecida como o 'Web Invisível’. Foi rebatizada em 2001. Contudo, se acredita que a origem da deep Web remonta ao começo da década de 1990, com a criação da "Onion Routing" – programa tratava de propostas de pesquisa, design e análise de sistemas anônimos de comunicação pela United States Naval Research Laboratory, o primeiro passo para o Projeto Tor".
Em 2006, TOR deixou de ser um acrônimo de The Onion Router para se transformar em ONG, a Tor Project, uma rede de túneis escondidos na internet em que todos ficam quase invisíveis. O nome do projeto se justifica, pois a estrutura da rede é semelhante é a uma cebola, uma vez que em muitas é necessário atravessar várias camadas para se chegar ao conteúdo desejado.
A deep web é um espaço livre para práticas ilegais, pois potencializa o nível de potencialidade e anonimato presentes na web visível. Redes como a Silk Road, rede secreta para compra e venda de drogas de todos os tipos, são um exemplo o que está invisível nesse inóspito repositório de informações que não pode ser controlado. Agências policiais em todo o mundo estão se esforçando para chegar a estratégias para parar o tráfego online dessa rede. Esforços sem sucesso até agora.

O aparecimento da deep web é ainda mais preocupante pelo seu potencial de ‘arma’ de controle e espionagem. De acordo com a revista Wired, a U.S. National Security Agency (NSA) tem planos de usá-los para espionagem cibernética. "A web profunda contém relatórios do governo, bancos de dados e outras fontes de informação de alto valor para o Departamento de Defesa e da comunidade de inteligência", segundo afirmou o relatório de 2010 do Defense Science Board (DSB).

segunda-feira, 10 de junho de 2013

Ciência 2.0 e E-Science: pequenas grandes diferenças

Antes do advento da internet, o modus faciendi da Ciência se caracterizava por sua natureza integrada e controlada. O desenvolvimento de pesquisas é tradicionalmente levado a cabo em ambientes privados (laboratórios, centros de pesquisa e universidades, etc.) e o reconhecimento acadêmico dos eruditos obtido pela submissão aos pares por meio das publicações científicas, revisadas por editores, gatekeepers e outros cientistas.
Francis Bacon, fundador da ciência moderna, propôs o método de estudo das ciências naturais que se diferenciava do esquema silogístico sugerido por Aristóteles. Para o filósofo inglês, a descoberta de fatos verdadeiros depende da observação e experimentação regulada pelo raciocínio indutivo.
As mudanças no paradigma cientifico, no modo de fazer ciência no século XXI finalmente ocorreram com a consolidação da Web 2.0. Não que pesquisas de grande vulto não fossem levadas a cabo desde a criação da rede mundial de computadores, todavia, a construção abordagem colaborativa e coletiva do conhecimento foi possível graças a esse momento particular na história da internet.
No artigo ‘Science 2.0’, Ben Schneiderman chama a estratégia de pesquisa baconiano de ciência 1.0 ou ciência tradicional. Na tentativa de definir a ciência 2.0, contudo, não exclui as características do modelo clássico, como descrito na citação a seguir:
As estratégias de orientação de Ciência 1.0 ainda são necessáriass para a Ciência 2.0: teste de hipóteses, modelos preditivos, e a necessidade de validade, generalização e replicabilidade. No entanto, os desafios da ciência 2.0 não podem ser estudadas adequadamente em condições de laboratório porque experimentos controlados não captam o rico contexto de colaboração da Web 2.0, onde a interação entre as variáveis ​​prejudica a validade dos métodos reducionistas. (2008, p. 1350) (tradução nossa).
Schneiderman (2008) alega que os pesquisadores devem levar a colaboração em rede para a próxima fase e colher as potenciais recompensas intelectuais e sociais. Sob essa perspectiva, a ciência 2.0 questiona os métodos de pesquisa face à sistemas sociais e inovação tecnológica.
Há que se considerar a relutância dos acadêmicos em publicar seus estudos em ambientes abertos. O modelo tradicional tem o apelo da recompensa emocional de ver seus trabalhos em periódicos de renome. Embora a crise dos periódicos (o modelo ainda em voga limita o número de gatekeepers[1] que avaliam documentos em periódicos científicos e restringe o fluxo de informação) tenha impelido a publicação em acesso aberto, o modelo tradicional ainda é bastante forte no meio acadêmico.
Apesar da sensação de que a ciência 2.0 indica uma tendência geral para pesquisa realizada de modo cooperativo e em rede, há pouca clareza em como isso poderia acontecer. Em sentido mais amplo, ela compartilha das ferramentas da web 2.0, com web sites que partilham o conhecimento científico até a escritura de artigos em linguagem não acadêmica, wikis para divulgar dados brutos e teorias nascentes, mas o breakthough metodológico não aconteceu.
Brandon Keim (2008), em crítica à visão de Shneiderman, afirma que “progresso não deve ser chamado de ‘Ciência 2.0’ ou ‘Ciência 1.0’, mas simplesmente da ciência.”.
O termo ‘e-Science’ foi concebido por John Taylor, diretor geral do Conselho de Pesquisa do National e-Science Centre, no Reino Unido para designar grande iniciativa de financiamento que começaria em novembro de 2000. Ele a define mais explicitamente como: "e-Science é sobre colaboração global em áreas-chave da ciência, e da próxima geração de infra-estrutura que irá possibilitá-la.". [tradução nossa].
e-Science trata da pesquisa ciência realizada em ambientes distribuídos que utiliza imenso volume de dados habilitados pela internet. Ela faz a distribuição de tarefas por meio de várias organizações, tem uma sobrecarga em termos de complexidade da gestão e exige implementação de infra-estrutura global de redes de conexão e financiamento massivo e coletivo.
A rede mundial de computadores permitiu o acesso a informações em páginas da web, em qualquer lugar na internet. Uma infra-estrutura muito mais forte é necessária para apoiar a e-Science. Além de informações armazenadas em páginas web, os cientistas terão fácil acesso às caras instalações remotas e a grandes quantidades de informação especializada armazenados em bancos de dados dedicados.
Grid é uma "arquitetura" proposta a congregar todos esses recursos e tornar realidade essa visão de e-Science. Ian Foster, Kesselman e Tuecke (2001), definem o Grid, em termos de middleware, para a viabilização da construção de "organizações virtuais": Estas são entendidas como “coleções dinâmicas de indivíduos, instituições e recursos” (tradução nossa). Eles vão mais além quando argumentam que:
o problema real e específico subjacente ao conceito de Grid é a compartilhamento recursos coordenado e a resolução de problemas em organizações virtuais dinâmicas e multi-institucionais. O compartilhamento com o qual estamos preocupados não é a troca primária de arquivos, mas sim o acesso direto a computadores, softwares, dados e outros recursos, como exigido por uma série de estratégias de solução de problemas e corretagem de recursos emergindo na indústria, ciência e engenharia. Esse compartilhamento é, necessariamente, altamente controlado, com provedores de recursos e consumidores definindo de modo claro o que é compartilhado, a quem é permitido compartilhar e as condições sob as quais a partilha ocorre. Um conjunto de indivíduos e/ou instituições definidos por tais regras de compartilhamento formam o que nós chamamos de organização virtual (VO) (p.2). (tradução nossa).
Exemplo conhecido de estrutura desenvolvida para E-Science é o da física de partículas. O CERN construiu instalações de computação adequadas no intuito de viabilizar a análise de resultados e armazenar dados oriundos do grande colisor de hadrons (acelerador de partículas). O resultado foi a o que a revista Science considerou como a mais importante descoberta do ano de 2012, a existência de uma nova partícula subatômica que se comporta como o Bóson de Higgs.
Desse modo, a e-Science se difere da Ciência 2.0. Esta faz uso difuso de ferramentas da Web 2.0. Ela já nasce do esforço coletivo orientado entre pesquisadores ao redor do mundo que, para tanto, levam a cabo pesquisas de grande aporte de maneira distribuída. Esta está tecendo a infra-estrutura para que o desenvolvimento da ciência no futuro.
Messerrschmidt aponta o processo de conexão entre a e-Science e a preservação de dados digitais estariam baseados nos repositórios institucionais, que proveriam o suporte para atividades de preservação e curadoria. (2003 citado por MÁRDERO ARELLANO, 2008, p. 33).


[1] Literalmente: porteiro ou guardião. O gatekeeper é a pessoa com poder ou a capacidade de controlar o acesso a um tomador de decisão ou a determinadas informações.

terça-feira, 21 de maio de 2013

How big the Big Data is?

90% de todos os dados  foram criados nos últimos 2 anos apenas. Se alguém já duvidou da capacidade da Internet de crescer, pode dar-se por equivocado.

Algumas postagens por ai me chamaram atenção para o crescimento da rede:


Internet 2012 in numbers

http://royal.pingdom.com/2010/10/22/incredible-growth-of-the-internet-since-2000/

ictFacts and Figures - 2013
http://www.itu.int/en/ITU-D/Statistics/Documents/facts/ICTFactsFigures2013.pdf

The Internet of Things
http://thenextweb.com/insider/2012/12/09/the-future-of-the-internet-of-things/

Vídeo bem legal e ilustrativo
http://www.youtube.com/watch?v=CsVYID9rMGE

domingo, 15 de julho de 2012

Fundamentos Teóricos em Curadoria Digital


O presente projeto pretende trazer uma perspectiva sobre a curadoria digital e preservação da informação. No início, centrar-se em definir o conceito de curadoria digital e sua importância para a Ciência da Informação, especificamente para Preservação da Informação Digital.  As atuais políticas de preservação, especialmente aquelas baseadas na Curadoria Digital, consideram os recursos multimídia da informação produzida hoje em dia? Esta é a pergunta esta pesquisa pretende responder.

A realidade multimídia do que é produzido em massa na atualidade ressalta a necessidade de reflexão sobre a sua disponibilidade e acessibilidade no futuro. A curadoria digital figura como tema de análise e reflexão deste projeto. O problema desta investigação é: verificar se a curadoria digital é presente como modelo de preservação digital em repositórios institucionais acadêmicos brasileiros.

Esta pesquisa de início enquadrava-se como qualitativa, pois trata-se da construção do estado da arte do tema Curadoria Digital por meio de extensivo levantamento bibliográfico. Em um segundo momento, entrevistas com stakeholders dos principais projetos existentes (no país e no mundo); 

A pesquisa será dividida em dois momentos.  Na primeira etapa, será revista a literatura sobre os conceitos centrais de preservação da informação em formato digital e curadoria, atentando para os aspectos que lhes tornam peculiares e transversais no campo da Ciência da Informação. A densidade conceitual visa demonstrar a riqueza do desenvolvimento de conceitos e relações dos conhecimentos que outros estudiosos desenvolveram sobre o tema e que são, portanto, de domínio científico reconhecimento  e constroem o mosaico que compõe o estado da arte da questão.

Serão consultados: artigos científicos, teses e dissertações, livros, monografias de conclusão de curso de graduação e especialização e sítios da Internet. A busca de conteúdos será feita nos periódicos nacionais e internacionais de maior relevância na área de Ciência da Informaçã, assim como em bibliografias especializadas e em sítios de organizações, universidades que desenvolvam trabalhos de curadoria digital. Será realizado também, com apoio da análise documental, um estudo de caso sobre as práticas de preservação Curadoria no Brasil Preservação da informação, práticas de curadoria.

Na segunda fase, será realizado levantamento das principais iniciativas de preservação orientadas pelas concepções de curadoria. Em um segundo momento, entrevistas serão feitas a profissionais diretamente envolvidos com Curadoria Digital, que atuem no Brasil e no fora do país. Da aplicação das entrevistas serão tabulados e analisados os dados qualitativos obtidos. Essa etapa é essencial para que um estudo de caso sobre as práticas de Curadoria no Brasil seja elaborado.

Na área de Biblioteca Digital, os trabalhos de Murilo Bastos da Cunha e Anna Maria Tammaro serão utilizados de início. No assunto de Preservação Digital, a tese de Miguel Arrelano apontaram outros autores utilizados a posteriori. Sobre Curadoria Digital, o Journal of Digital Curation servirá como fonte de informação sobre o tema. 



Referências

BEAGRIE, Neil. Digital Curation for Science, Digital Libraries, and Individuals. The International Journal of Digital Curation, Issue 1, Volume, Autumn 2006. Disponível em: <http://www.ijdc.net/index.php/ijdc/article/view/6/2>. Acesso em: 01 nov. 2011.
BOERES, Sonia A. de Assis; MÁRDERO ARELLANO, Miguel A. Políticas e estratégias de preservação de documentos digitais. Disponível em: <http://www.cinform.ufba.br/vi_anais/docs/SoniaMiguelPreservacaoDigital.pdf>. Acesso em: 04 nov. 2011.
COMMISSION on Preservation and Access; The Research Libraries Group. Preserving Digital Information: Report of the Task Force on Archiving of Digital Information. [S.l.] : CLIR, May 1996. Disponível em: < http://www.clir.org/pubs/reports/pub63watersgarrett.pdf>.Acesso em: 02 nov. 2011.
DIGITAL CURATION CENTRE. Disponível em: < http://www.dcc.ac.uk/digital-curation/why-preserve-digital-data>. Acesso em: 03 nov. 2011.
GIARETTA, D. (2005). DCC approach to digital curation, version 1.23. Acesso em: 03 jan., 2011. Disponível em: <http://dev.dcc.rl.ac.uk/twiki/bin/view/Main/DCCApproachToCuration>. Acesso em: 02 nov. 2011.
BALL, Alex et al. A Grand Challenge: Immortal Information and Through-Life Knowledge Management (KIM). The International Journal of Digital Curation, Issue 1, Volume, Autumn 2006. Disponível em: <http://www.ijdc.net/index.php/ijdc/article/view/9/5 >. Acesso em: 01 nov. 2011
DIGITAL preservation management: implementing short-term strategies for long-term problems. Disponível em: < http://www.dpworkshop.org/dpm-eng/eng_index.html>. Acesso em: 08 nov. 2011. © 2003-2007 Cornell University Library.
FLORIDI, Luciano. On defining library and information science as applied philosophy of information. Social Epistemology, London, v.16, n. 1, p. 37-49, 2002.

FERREIRA, Carla Alexandra Silva. Preservação da informação Digital: uma perspectiva orientada para as bibliotecas. Dissertação de Mestrado. Faculdade de Letras da Universidade de Coimbra, 2011. Disponível em: <http://estudogeral.sib.uc.pt/bitstream/10316/15001/1/Preserva%C3%A7%C3%A3o%20da%20Informa%C3%A7%C3%A3o%20Digital.pdf>. Acesso em: 08 nov. 2011.



Curadoria Digital como modelo de Preservação da Informação Digital


Meu encontro com a Ciência: percalços de uma mestranda em CI

Não fui uma criança que fez Ciência. No máximo alguns esbarrões insólitos durante a vida escolar, todos involuntários, ensejados pela minha própria curiosidade e, ao tentar relembrar meus encontros com o que é pesquisar, fazer descobertas ou vislumbrar entendimentos alternativos aos que me eram oferecidos pelos meus professores (Reuen Feuerstein lhes era alheio!) percebi que esse encontro não acontecerá nunca com a maioria dos estudantes. Ainda que o progresso econômico e tecnológico exijam mais preparo dos cidadãos de qualquer nação que enseje pleno desenvolvimento. 

Todavia, isso mudou uma vez que me tornei uma aluna de mestrado. Estava sob a maldição do publish or to perish. Dentre as percepções errôneas, reverberadas na minha mente pelo senso comum, figurava a noção de que pesquisa e consequentemente Ciência eram resultado apenas de um método aplicado. Simples assim.     
Não é simples assim. Antes de tudo, pensemos sobre o conceito de Ciência. Cervo (2007) afirma que na condição atual, é resultado de descobertas ocasionais, nas primeiras etapas, e de pesquisas cada vez mais metódicas, nas etapas posteriores. Tomanik (2004) envereda por uma acepção mais ampla do que seria ciência, o autor afirma que o objeto da ciência é o que ela se propõe a conhecer, enquanto que o método científico indica como ela se propõe a atingir seus objetivos. Entretanto, o entendimento da pesquisa cientifica abarca outros aspectos, ela é investigação com propósito, forma e método. O investigador deve conhecer o saber já consolidado dentro do seu campo de pesquisa, interpretar os dados que possui atentando para o contexto que a pesquisa se insere, manter o olhar crítico e estar sempre atento às ameaças que invalidem os possíveis resultados obtidos por meio do método científico aceito pela sua área e pelos seus pares.



Assim, método tem a ver com o contexto da sua pesquisa, o seu alcance e os seus objetivos. A pesquisa é uma linha interpretativa de um problema proposto dentro de uma área específica do conhecimento, o metódo valida os resultados obtidos em uma investigação.

O que fazer na era da ciência interdisciplinar? E, o que fazer quando a área em questão é a mais interdisciplinar de todas? Eis o gargalo da Ciência da Informação: ela é dado, comunicação, conhecimento, seu objeto de estudo é o mais imaterial e o mais presente objeto da ciência, a informação em si. Buckland (1991) apresenta informação como processo (o ato de informar), como conhecimento (a informação assimilada, compreendida) e como coisa (a informação registrada e, portanto, tangível).  Essa última definição desperta a noção da natureza dinâmica do meu objeto de estudo e , portanto, da importância da construção da pesquisa consciente, voltada para a ética e para a construção do conhecimento socialmente construído.




Referências:

BUCKLAND, Michael. Information as a thing. Disponível em: <http://people.ischool.berkeley.edu/~buckland/thing.html>. Acesso em: 15 jul. 2012.

CERVO, Amado Luiz; BERVIAN, Pedro A; SILVA, Roberto da. Metodologia científica. 6 ed. São Paulo: Pearson Prentice Hall, 2007. ISBN 8576050471.

TOMANIK, Eduardo Augusto. O olhar no espelho: "conversas" sobre pesquisa em Ciências Sociais. 2 ed. rev. Maringá: Eduem, 2004. ISBN 8585545844