Curadoria Digital
Este blog objetiva reunir e apresentar informações sobre Curadoria Digital e as principais iniciativas espalhadas pelo mundo sobre o assunto.
terça-feira, 1 de abril de 2014
Digital curation survey: pesquisa informal para conhecer o estado de arte na curadoria na visão dos profissionais
Achei bem interessante essa pesquisa informal feita com bibliotecários que aponta como esses profissionais encaram a curadoria no seu dia-a-dia e até que ponto o trabalho de curador já está inserido nas bibliotecas, quer seja onde algum trabalho nomeadamente de curadoria tenha sido desenvolvido ou não. Vale a pena a leitura.
O texto está disponível em: Digital curation survey: help us build our sample!
quinta-feira, 19 de setembro de 2013
Breve história da Internet...
Escrevi esse texto para auxiliar a minha pesquisa sobre preservação digital, resolvi postar ainda que sem as referências...
A profecia da criação da internet
foi abordada em 1991, no romance Mirror
World, de David Gelertner, cientista da computação e professor da
Universidade de Yale. Contudo, a criação da rede mundial de computadores
remonta à época de um mundo bipolar e em constante tensão bélica.
Em 1957, o Departamento de Defesa americano cria a Advanced
Research Projects Agency (ARPA) com objetivo de liderar pesquisas na área
ciência e tecnologia militar, a recém estabelecida agencia foi uma resposta ao
programa Sputinik, primeiro satélite artificial da Terra.
O governo dos Estados Unidos, temerosos de que ataques a
bases militares trouxessem informações sigilosas a público, idealiza um sistema
de compartilhamento descentralizado de informações.
Em 1961, o primeiro artigo sobre a teoria da comutação por
pacote de dados (packet-switching ou
PS), é escrito por Leonard Kleinrock. Em 1962, J. C. R. LickLider e W. Clark,
do Instituto Tecnológico de Massachusetts (MIT) já falavam em termos da
existência de uma Rede Galáctica, que incorporaria interações sociais
distribuídas.
David Watt Davies, cientista da computação de origem galesa,
do Laboratório Nacional de Física da Grã-Bretanha (em inglês, National Physical
Laboratory – NPL), cria a expressão “transferência de pacotes” - sistema de
transmissão de dados em rede de computadores no qual as informações são
divididas em pequenos pacotes, que por sua vez contém trecho dos dados, o
endereço do destinatário e informações que permitiam a remontagem da mensagem
original. O sistema de envio quebrava as informações em pacotes e o sistema
receptor os unia novamente - em 1966, para descrever o sistema de envio de
pacotes de informação entre computadores. No ano seguinte, comanda o desenvolvimento
da chamada Rede de Dados NPL (NPL Data Network), um experimento em comutação de
dados, usava linhas de 768kbps.
A ARPANET foi estabelecida entre 1968 e 1969, embora
discussões sobre a estrutura da instituição e o primeiro projeto da rede ambas
lideradas por Larry G. Roberts, tiveram lugar em Ann Harbor , Michigan,
em 1966 e 1967, respectivamente. A rede funcionava por meio de um sistema
conhecido como comutação por pacotes.
Após a sua criação, a ARPANET cria ‘nós’ em quatro
universidades (Nó 1: Universidade da Califórnia em Los Angeles (UCLA); nó
2: Stanford Research Institute (SRI); nó3: Universidade da Califórnia Santa
Barbara (UCSB) e nó 4: Universidade de Utah. Em 1971, Ray Tomlinson cria um
programa de e-mails derivado de dois
outros – um programa intra-máquina (SENDMSG) e um programa experimental de
transferência de arquivo (CPYNET), a inovação jazia no fato que de esse
programa possibilitava o envio de mensagens entre diferentes nós conectados à
ARPANET. Nos anos seguintes, várias outras implementações tecnológicas
ocorreram, entre elas o primeiro chat
de computador a computador surge durante a Conferência Internacional sobre
Comunicações de Computadores (ICCC), primeiras ligações internacionais à entre
a University College of London (Inglaterra) e a Norwegian Seismic Array
(NORSAR). Em 1974, Bob Metcalfe delineia a idéia para a Ethernet em sua tese de
doutorado.
Vint Cerf e Bob Kahn apresentam idéias básicas de Internet
no International Network Working Group - INWG, ocorrido na Universidade de
Sussex, Inglaterra, e publicam no ano seguinte "A Protocol for Packet
Network Interconnection" (Um Protocolo de Interconexão para Pacotes de
Rede), que especifica em detalhes o desenho de um Programa de Controle de
Transmissão (Transmission Control Program - TCP). A BBN (Bolt Beranek and
Newman, empresa de tecnologia) lança o primeiro serviço comercial de comutação
por pacotes, o Telenet.
Segundo Briggs e Burke (2004, p. 310), na visão do Pentágono
a razão de ser da então limitada rede era:
um elemento essencial
da sua razão de ser era que a rede pudesse sobreviver à retirada ou destruição
de qualquer computador ligado a ele, e, na realidade, até a distribuição
nuclear de todo ‘infra-estrutura’ de telecomunicações.
Já as universidades consideravam a Rede como espaço de
“acesso livre” aos usuários, professores e pesquisadores, em que eram eles os
comunicadores.
A National Science Foundation (NSF), foi criada em 1974,
considerando uma comunidade de pesquisadores maior do que aquela abarcada pela
ARPANET. Como dito em relatório do mesmo ano referida da agência: “ambiente de
fronteira que ofereceria comunicação avançada, colaboração e troca de recursos
entre pesquisadores geograficamente separados ou isolados” (BRIGGS; BURKE,
2004, p. 311).
A Computer Science Network (CSNET) se
estabelece com apoio financeiro da NSF em 1979 e cresce o suficiente para se
tornar estável. Em 1983, a
DARPA foi ligada a essa rede, que já era composta por outros cinco núcleos de
supercomputação.
De modo concomitante à realocação da DARPA e da construção
de backbones financiados pelo governo
americano, o protocolo TCP é subdividido em TCP (Protocolo de Controle de
Transmissão, em inglês: Transmission
Control Protocol) e IP (Internet
Protocol). O Protocolo da internet permitia que o tráfego de informações
fosse encaminhado de uma rede para outra. Todas as redes conectadas pelo
endereço IP na Internet se comunicam para que todas possam trocar mensagens.
Esse fato é particularmente importante, pois a Defense
Communications Agency (DCA), hoje Defense Information System Agency (DISA) os
estabeleceram para a ARPANET como o protocolo de série, conhecido como TCP/IP.
Em 1984, Sistema de Nome de Domínio (Domain Name System -
DNS) é introduzido e o número de servidores conectados passa dos mil.
Após a implantação da Rede de Ciência da Computação (CSNET),
a National Science Foundation (NSF), cria uma rede de pesquisa acadêmica a fim
de facilitar o acesso de pesquisadores aos centros de supercomputação por ela
financiados.
Em 1985,
a NSF começou a financiar a criação de cinco novos
centros de supercomputação, são eles:
John von Neumann Computing Center (JVNC) na
Universidade de Princeton;
San Diego Supercomputer Center (SDSC) no campus
da Universidade da California em
San Diego (UCSD);
National Center for Supercomputing Applications
(NCSA) na Universidade de Illinois em Urbana-Champaign;
Cornell Theory Center na Universidade Cornell;
Pittsburgh Supercomputing Center (PSC), esforço
conjunto da Universidade Carnegie Mellon, da Universidade de Pittsburgh e Westinghouse.
Também em 1985, sob a liderança de Dennis Jennings, a NSF
estabeleceu o National Science Foundation Network (NSFNET), uma rede de
pesquisa de propósito geral, um hub
para conectar os cinco centros de supercomputação, juntamente com o centro
financiado pela NSF, o National Center for Atmospheric Research (NCAR) entre si
e com as redes de pesquisa e educação regionais que por sua vez se conectariam
as redes nos campi.
Utilizando a arquitetura de rede em três camadas (three tier network architecture), a
NSFNET proveria acesso para os centros de supercomputação e outros locais pela
rede do backbone, sem nenhum custo
para os centros ou para as redes regionais usando os protocolos TCP/IP,
inicialmente implantados com sucesso na ARPANET.
O NSFNET backbone
(com capacidade de 56 Kbps) começa a
operar em 1986, estabelecendo rede com cinco centros de supercomputação e o
National Center for Atmospheric Research (NCAR), que também era financiado pela
NSF.
A consequência imediata da melhora estrutural na rede é a
explosão de conexões, principalmente nas universidades. No ano seguinte, o
número de servidores passa dos 10 mil, espalhados pelo mundo. Em 1989, esse
volume de servidores aumenta em 10 vezes.
Nas palavras de Castells:
a rápida difusão de
protocolos de comunicação entre computadores não teria ocorrido sem a
distribuição aberta, gratuita de software e o uso cooperativo de
recursos que se tornou o código de conduta dos hackers.[...] O advento do PC
ajudou consideravelmente a difusão de redes de computadores. [...] A maioria
das redes contudo exigia um backbone ancorado em máquinas mais potentes
, e isso só foi possível graças ao contato entre redes baseadas em ciência e
comunidades de hackers nas universidades. (2003, p. 25)
As redes exclusivas da Big
Science, uma vez abertas à comunidade acadêmica (“redes contraculturais”,
segundo Castells) se converterão em espaços para circulação da inovação e do
conhecimento.
De modo concomitante ao desenvolvimento da base estrutural
para distribuição da rede estabelecida, padrões e protocolos para transmissão de
dados também já desenvolvidos e ao crescimento da rede para fora do contexto
puramente acadêmico/científico, a hipertextualidade apresenta-se como
imperativo da rede mundial que se formaria nos anos seguintes.
O cientista Tim Berners-Lee, do CERN, antiga sigla do
Conseil Européen pour la
Recherche Nucléaire hoje designado European Organization for
Nuclear Research, esboçou a ideia da World Wide Web já em 1989. Criada por ele
em 1992. Lee especulou sobre a criação de um ambiente onde se acessa tudo de
todos os lugares com a seguinte máxima: “Suponha que eu tinha a possibilidade
de programar meu computador para criar um espaço em que tudo possa ser ligado a
tudo” (BRIGGS; BURKE, 2004, p. 312). A rede seria um espaço livre, aberto e sem
proprietários e no hipertexto se refere à ao texto digital que agrega conjuntos
de informação acessíveis por meio de hiperlinks.
Coaduna-se à ideia mirabolante do cientista inglês a tão
conhecida proposição de Vannevar Bush no famosíssimo artigo “As we may think”. De 1945, o escrito
parece preconizar, com o Memex, o que seria definido mais tarde como
hipertexto. Barret (1989, p. 12) chama o Memex de um “sistema hipertextual
prototípico”, projetado sob um princípio ‘associacionista’, que trabalha da
mesma maneira que a mente humana”.
Ainda que a abertura total da internet figure como passo
natural de sua história, essa possibilidade apenas se concretizou com a criação
do protocolo HTTPS (HyperText Transfer Protocol Secure), possibilitando o envio
de dados criptografados para transações comercias pela internet. O que se pode
notar é que o interesse mundial aliado ao interesse comercial, que
evidentemente observava o potencial financeiro e rentável daquela
"novidade", proporcionou a explosão e a popularização da Internet na
década de 1990. A
internet, portanto, já era um símbolo político de abertura para todas as mídias
de comunicação para objetivos públicos e privados.
A rede como espaço de intervenção social livre é resultado da
aceleração do processo de inovação tecnológica estabelecido e na consolidação
da rede, primeiro em meio acadêmico e em um segundo momento como espaço aberto
ao comércio e às transações financeiras. Nas palavras de Cocco; Galvão; Silva.
(2003, p. 11):
Nas mudanças econômicas, tecnológicas, sociais
e culturais que acompanham a emergência e a ampla difusão das novas tecnologias
de informação e comunicação (NTIC) e a dimensão cognitiva da economia, a
produção constante e intermitente do “novo” impõe-se como um elemento comum,
evidenciando deslocamentos paradigmáticos com profundas implicações na própria
relação entre trabalho e vida. A produção do novo aparece como questão
essencial para a ciência econômica na medida em que implica a inserção do
aleatório, da incerteza e do desequilíbrio no cerne da atividade produtiva. A
invenção e a inovação ascendem à posição de elementos fundamentais para o
sucesso econômico de empresas, sistemas produtivos, regiões e países,
implicando novas demandas para as políticas públicas. (COCCO; GALVÃO; SILVA,
2003.)
A resultante dessa série de fatores foi a popularização da
internet a nível mundial. O Internet
World Stats é um sítio internacional que possui dados sobre o uso da
internet no mundo, estatísticas populacionais, estatísticas de viagem e dados
de Internet de Pesquisa de Mercado, de mais de 233 países e regiões do mundo,
estimou que cerca de 2,5 bilhões de pessoas eram usuárias da internet em junho
de 2012.
O Brasil chegou à marca dos 82 milhões de internautas. De
acordo com pesquisa da Ibope Nielsen, divulgada em julho. O número de
internautas no Brasil cresceu para 82,4 milhões de pessoas no primeiro
trimestre de 2012.
Os indivíduos buscam, cada vez mais, uma constante atualização
de informações na web, estabelecendo
redes de conhecimento resultantes de conexões e da interação entre os atores,
uma troca intensa de informações que são, geralmente, convertidas em
conhecimento.
Uma das considerações contemporâneas desse espaço de intervenção
social coletivo concerne à organização desse caos invisível cujo crescimento é
exponencial. É necessário atentar para a internet invisível (deep web) – informações que não usam o
protocolo HTTP, da web. Ou seja: apenas o seu navegador de internet não é
suficiente para ver esses sites. A deep web é composta de grandes
quantidades de informação que tem sido postadas online e, que por razões técnicas não foram catalogadas ou
atualizadas pelos motores de busca.
A deep web começou
em 1994 e era conhecida como o 'Web Invisível’. Foi rebatizada em 2001. Contudo,
se acredita que a origem da deep Web remonta
ao começo da década de 1990, com a criação da "Onion Routing" –
programa tratava de propostas de pesquisa, design e análise de sistemas
anônimos de comunicação pela United
States Naval Research Laboratory, o primeiro passo para o Projeto
Tor".
Em 2006, TOR deixou de ser um acrônimo de The Onion Router
para se transformar em ONG, a Tor Project,
uma rede de túneis escondidos na internet em que todos ficam quase invisíveis.
O nome do projeto se justifica, pois a estrutura da rede é semelhante é a uma
cebola, uma vez que em muitas é necessário atravessar várias camadas para se
chegar ao conteúdo desejado.
A deep web é um
espaço livre para práticas ilegais, pois potencializa o nível de potencialidade
e anonimato presentes na web visível. Redes como a Silk Road, rede secreta para
compra e venda de drogas de todos os tipos, são um exemplo o que está invisível
nesse inóspito repositório de informações que não pode ser controlado. Agências
policiais em todo o mundo estão se esforçando para chegar a estratégias para
parar o tráfego online dessa rede. Esforços sem sucesso até agora.
O aparecimento da deep
web é ainda mais preocupante pelo seu potencial de ‘arma’ de controle e
espionagem. De acordo com a revista Wired,
a U.S. National Security Agency (NSA) tem planos de usá-los para espionagem
cibernética. "A web profunda contém relatórios do governo, bancos de dados
e outras fontes de informação de alto valor para o Departamento de Defesa e da
comunidade de inteligência", segundo afirmou o relatório de 2010 do
Defense Science Board (DSB).
segunda-feira, 10 de junho de 2013
Ciência 2.0 e E-Science: pequenas grandes diferenças
Antes do advento da
internet, o modus faciendi da Ciência se caracterizava por sua natureza integrada e controlada. O
desenvolvimento de pesquisas é tradicionalmente levado a cabo em ambientes
privados (laboratórios, centros de pesquisa e universidades, etc.) e o
reconhecimento acadêmico dos eruditos obtido pela submissão aos pares por meio
das publicações científicas, revisadas por editores, gatekeepers e outros cientistas.
Francis Bacon,
fundador da ciência moderna, propôs o método de estudo das ciências naturais
que se diferenciava do esquema silogístico sugerido por Aristóteles. Para o
filósofo inglês, a descoberta de fatos verdadeiros depende da observação e
experimentação regulada pelo raciocínio indutivo.
As mudanças no
paradigma cientifico, no modo de fazer ciência no século XXI finalmente
ocorreram com a consolidação da Web 2.0. Não que pesquisas de grande vulto não
fossem levadas a cabo desde a criação da rede mundial de computadores, todavia,
a construção abordagem colaborativa e coletiva do conhecimento foi possível
graças a esse momento particular na história da internet.
No artigo ‘Science
2.0’, Ben Schneiderman
chama a estratégia de pesquisa baconiano de ciência 1.0 ou ciência tradicional.
Na tentativa de definir a ciência 2.0, contudo, não exclui as características
do modelo clássico, como descrito na citação a seguir:
As estratégias de orientação de Ciência 1.0 ainda
são necessáriass para a Ciência 2.0: teste de hipóteses, modelos preditivos, e
a necessidade de validade, generalização e replicabilidade. No entanto, os desafios da ciência
2.0 não podem ser estudadas adequadamente em condições de laboratório porque
experimentos controlados não captam o rico contexto de colaboração da Web 2.0,
onde a interação entre as variáveis prejudica a validade dos métodos
reducionistas. (2008, p. 1350) (tradução nossa).
Schneiderman (2008)
alega que os pesquisadores devem levar a colaboração em rede para a próxima
fase e colher as potenciais recompensas intelectuais e sociais. Sob essa
perspectiva, a ciência 2.0 questiona os métodos de pesquisa face à sistemas
sociais e inovação tecnológica.
Há que se considerar
a relutância dos acadêmicos em publicar seus estudos em ambientes abertos. O
modelo tradicional tem o apelo da recompensa emocional de ver seus trabalhos em
periódicos de renome. Embora a crise dos periódicos (o modelo ainda em voga
limita o número de gatekeepers[1] que avaliam documentos em periódicos
científicos e restringe o fluxo de informação) tenha impelido a publicação em
acesso aberto, o modelo tradicional ainda é bastante forte no meio acadêmico.
Apesar da sensação de
que a ciência 2.0 indica uma tendência geral para pesquisa realizada de modo
cooperativo e em rede, há pouca clareza em como isso poderia acontecer. Em
sentido mais amplo, ela compartilha das ferramentas da web 2.0, com web sites que partilham o conhecimento científico
até a escritura de artigos em linguagem não acadêmica, wikis para divulgar
dados brutos e teorias nascentes, mas o breakthough metodológico não aconteceu.
Brandon Keim (2008),
em crítica à visão de Shneiderman, afirma que “progresso não deve ser chamado
de ‘Ciência 2.0’ ou ‘Ciência 1.0’, mas simplesmente da ciência.”.
O
termo ‘e-Science’ foi concebido por John Taylor, diretor geral do
Conselho de Pesquisa do National e-Science Centre, no Reino Unido para designar
grande iniciativa de financiamento que começaria em novembro de 2000. Ele a
define mais explicitamente como: "e-Science é sobre colaboração global em áreas-chave da ciência, e da próxima
geração de infra-estrutura que irá possibilitá-la.". [tradução nossa].
A e-Science trata da pesquisa ciência realizada em
ambientes distribuídos que utiliza imenso volume de dados habilitados pela
internet. Ela faz a distribuição de tarefas por meio de várias organizações,
tem uma sobrecarga em termos de complexidade da gestão e exige implementação de
infra-estrutura global de redes de conexão e financiamento massivo e coletivo.
A rede mundial de
computadores permitiu o acesso a informações em páginas da web, em qualquer
lugar na internet. Uma infra-estrutura muito mais forte é necessária para
apoiar a e-Science. Além de informações
armazenadas em páginas web, os cientistas terão fácil acesso às caras
instalações remotas e a grandes quantidades de informação especializada
armazenados em bancos de dados dedicados.
O Grid é uma "arquitetura" proposta
a congregar todos esses recursos e tornar realidade essa visão de e-Science. Ian Foster, Kesselman
e Tuecke (2001), definem o Grid, em termos de middleware, para a viabilização
da construção de "organizações virtuais": Estas são entendidas como “coleções
dinâmicas de indivíduos, instituições e recursos” (tradução nossa). Eles vão
mais além quando argumentam que:
o problema real e
específico subjacente ao conceito de Grid é a compartilhamento recursos coordenado e a resolução de problemas em
organizações virtuais dinâmicas e multi-institucionais. O compartilhamento com
o qual estamos preocupados não é a troca primária de arquivos, mas sim o acesso
direto a computadores, softwares, dados e outros
recursos, como exigido por uma série de estratégias de solução de problemas e
corretagem de recursos emergindo na indústria, ciência e engenharia. Esse
compartilhamento é, necessariamente, altamente controlado, com provedores de
recursos e consumidores definindo de modo claro o que é compartilhado, a quem é
permitido compartilhar e as condições sob as quais a partilha ocorre. Um
conjunto de indivíduos e/ou instituições definidos por tais regras de
compartilhamento formam o que nós chamamos de organização virtual (VO) (p.2). (tradução nossa).
Exemplo conhecido de
estrutura desenvolvida para E-Science é o da física de partículas. O CERN construiu instalações de computação
adequadas no intuito de viabilizar a análise de resultados e armazenar dados
oriundos do grande colisor de hadrons (acelerador de partículas). O resultado
foi a o que a revista Science considerou como a mais importante descoberta do
ano de 2012, a existência de uma nova partícula
subatômica que se comporta como o Bóson de Higgs.
Desse modo, a e-Science se difere da Ciência 2.0. Esta faz uso
difuso de ferramentas da Web 2.0. Ela já nasce do esforço coletivo orientado
entre pesquisadores ao redor do mundo que, para tanto, levam a cabo pesquisas
de grande aporte de maneira distribuída. Esta está tecendo a infra-estrutura
para que o desenvolvimento da ciência no futuro.
Messerrschmidt aponta
o processo de conexão entre a e-Science e a preservação de dados digitais estariam baseados nos repositórios
institucionais, que proveriam o suporte para atividades de preservação e
curadoria. (2003 citado por MÁRDERO ARELLANO, 2008, p. 33).
[1] Literalmente: porteiro ou guardião. O gatekeeper é a pessoa com poder ou
a capacidade de controlar o acesso a um tomador de decisão ou a determinadas
informações.
terça-feira, 21 de maio de 2013
How big the Big Data is?
90% de todos os dados foram criados nos últimos 2 anos apenas. Se alguém já duvidou da capacidade da Internet de crescer, pode dar-se por equivocado.
Algumas postagens por ai me chamaram atenção para o crescimento da rede:
Internet 2012 in numbers
http://royal.pingdom.com/2010/10/22/incredible-growth-of-the-internet-since-2000/
ictFacts and Figures - 2013
http://www.itu.int/en/ITU-D/Statistics/Documents/facts/ICTFactsFigures2013.pdf
The Internet of Things
http://thenextweb.com/insider/2012/12/09/the-future-of-the-internet-of-things/
Vídeo bem legal e ilustrativo
http://www.youtube.com/watch?v=CsVYID9rMGE
Algumas postagens por ai me chamaram atenção para o crescimento da rede:
Internet 2012 in numbers
http://royal.pingdom.com/2010/10/22/incredible-growth-of-the-internet-since-2000/
ictFacts and Figures - 2013
http://www.itu.int/en/ITU-D/Statistics/Documents/facts/ICTFactsFigures2013.pdf
The Internet of Things
http://thenextweb.com/insider/2012/12/09/the-future-of-the-internet-of-things/
Vídeo bem legal e ilustrativo
http://www.youtube.com/watch?v=CsVYID9rMGE
domingo, 15 de julho de 2012
Fundamentos Teóricos em Curadoria Digital
O presente projeto pretende trazer uma perspectiva sobre a
curadoria digital e preservação da informação. No início, centrar-se em definir
o conceito de curadoria digital e sua importância para a Ciência da Informação,
especificamente para Preservação da Informação Digital. As atuais políticas de preservação,
especialmente aquelas baseadas na Curadoria Digital, consideram os recursos
multimídia da informação produzida hoje em dia? Esta é a pergunta esta pesquisa
pretende responder.
A realidade multimídia do que é produzido em massa na
atualidade ressalta a necessidade de reflexão sobre a sua disponibilidade e
acessibilidade no futuro. A curadoria digital figura como tema de análise e
reflexão deste projeto. O problema desta investigação é: verificar se a
curadoria digital é presente como modelo de preservação digital em repositórios
institucionais acadêmicos brasileiros.
Esta pesquisa de início enquadrava-se como qualitativa, pois
trata-se da construção do estado da arte do tema Curadoria Digital por meio de
extensivo levantamento bibliográfico. Em um segundo momento, entrevistas com stakeholders dos principais projetos existentes (no país e no mundo);
A pesquisa será dividida em dois momentos. Na primeira etapa, será revista a literatura sobre
os conceitos centrais de preservação da informação em formato digital e
curadoria, atentando para os aspectos que lhes tornam peculiares e transversais
no campo da Ciência da Informação. A densidade conceitual visa demonstrar a
riqueza do desenvolvimento de conceitos e relações dos conhecimentos que outros
estudiosos desenvolveram sobre o tema e que são, portanto, de domínio
científico reconhecimento e constroem o
mosaico que compõe o estado da arte da questão.
Serão consultados: artigos científicos, teses e
dissertações, livros, monografias de conclusão de curso de graduação e
especialização e sítios da Internet. A busca de conteúdos será feita nos
periódicos nacionais e internacionais de maior relevância na área de Ciência da
Informaçã, assim como em bibliografias especializadas e em sítios de
organizações, universidades que desenvolvam trabalhos de curadoria digital. Será
realizado também, com apoio da análise documental, um estudo de caso sobre as
práticas de preservação Curadoria no Brasil Preservação da informação, práticas
de curadoria.
Na segunda fase, será realizado levantamento das principais
iniciativas de preservação orientadas pelas concepções de curadoria. Em um
segundo momento, entrevistas serão feitas a profissionais diretamente
envolvidos com Curadoria Digital, que atuem no Brasil e no fora do país. Da
aplicação das entrevistas serão tabulados e analisados os dados qualitativos
obtidos. Essa etapa é essencial para que um estudo de caso sobre as práticas de
Curadoria no Brasil seja elaborado.
Na área de Biblioteca Digital, os trabalhos de Murilo Bastos da Cunha e Anna Maria Tammaro serão utilizados de início. No assunto de Preservação Digital, a tese de Miguel Arrelano apontaram outros autores utilizados a posteriori. Sobre Curadoria Digital, o Journal of Digital Curation servirá como fonte de informação sobre o tema.
Referências
BEAGRIE, Neil. Digital Curation for Science, Digital Libraries, and Individuals. The International Journal of Digital Curation, Issue 1, Volume, Autumn 2006. Disponível em:
<http://www.ijdc.net/index.php/ijdc/article/view/6/2>. Acesso em: 01 nov. 2011.
BOERES, Sonia A. de Assis; MÁRDERO
ARELLANO, Miguel A.
Políticas e estratégias de preservação de documentos digitais. Disponível em:
<http://www.cinform.ufba.br/vi_anais/docs/SoniaMiguelPreservacaoDigital.pdf>.
Acesso em: 04 nov. 2011.
COMMISSION on
Preservation and Access; The Research Libraries Group. Preserving Digital Information:
Report of the Task Force on Archiving of Digital Information.
[S.l.]
: CLIR, May
1996. Disponível em: <
http://www.clir.org/pubs/reports/pub63watersgarrett.pdf>.Acesso em: 02 nov.
2011.
DIGITAL CURATION CENTRE. Disponível em:
< http://www.dcc.ac.uk/digital-curation/why-preserve-digital-data>.
Acesso em: 03 nov. 2011.
GIARETTA, D. (2005). DCC approach to
digital curation, version 1.23. Acesso em: 03 jan., 2011. Disponível
em: <http://dev.dcc.rl.ac.uk/twiki/bin/view/Main/DCCApproachToCuration>.
Acesso em: 02 nov. 2011.
BALL, Alex et
al. A Grand Challenge: Immortal Information and Through-Life Knowledge Management (KIM). The
International Journal of Digital Curation, Issue 1, Volume, Autumn 2006. Disponível em:
<http://www.ijdc.net/index.php/ijdc/article/view/9/5 >. Acesso em: 01 nov. 2011
DIGITAL preservation management: implementing short-term strategies for long-term problems. Disponível em: <
http://www.dpworkshop.org/dpm-eng/eng_index.html>. Acesso em: 08 nov. 2011.
© 2003-2007 Cornell University Library.
FLORIDI, Luciano. On defining library and information science as applied philosophy of information. Social Epistemology,
London, v.16, n. 1, p. 37-49, 2002.
FERREIRA, Carla Alexandra Silva. Preservação da
informação Digital: uma perspectiva
orientada para as bibliotecas. Dissertação de Mestrado. Faculdade de Letras da
Universidade de Coimbra, 2011. Disponível em:
<http://estudogeral.sib.uc.pt/bitstream/10316/15001/1/Preserva%C3%A7%C3%A3o%20da%20Informa%C3%A7%C3%A3o%20Digital.pdf>.
Acesso em: 08 nov. 2011.
Meu encontro com a Ciência: percalços de uma mestranda em CI
Não fui uma criança que fez Ciência. No máximo alguns esbarrões insólitos durante a vida escolar, todos involuntários, ensejados pela minha própria curiosidade e, ao tentar relembrar meus encontros com o que é pesquisar, fazer descobertas ou vislumbrar entendimentos alternativos aos que me eram oferecidos pelos meus professores (Reuen Feuerstein lhes era alheio!) percebi que esse encontro não acontecerá nunca com a maioria dos estudantes. Ainda que o progresso econômico e tecnológico exijam mais preparo dos cidadãos de qualquer nação que enseje pleno desenvolvimento.
Todavia, isso mudou uma vez que me tornei uma aluna de mestrado. Estava sob a maldição do publish or to perish. Dentre as percepções errôneas, reverberadas na minha mente pelo senso comum, figurava a noção de que pesquisa e consequentemente Ciência eram resultado apenas de um método aplicado. Simples assim.
Não é simples assim. Antes de tudo, pensemos sobre o conceito de Ciência. Cervo (2007) afirma que na condição atual, é resultado de descobertas ocasionais, nas primeiras etapas, e de pesquisas cada vez mais metódicas, nas etapas posteriores. Tomanik (2004) envereda por uma acepção mais ampla do que seria ciência, o autor afirma que o objeto da ciência é o que ela se propõe a conhecer, enquanto que o método científico indica como ela se propõe a atingir seus objetivos. Entretanto, o entendimento da pesquisa cientifica abarca outros aspectos, ela é investigação com propósito, forma e método. O investigador deve conhecer o saber já consolidado dentro do seu campo de pesquisa, interpretar os dados que possui atentando para o contexto que a pesquisa se insere, manter o olhar crítico e estar sempre atento às ameaças que invalidem os possíveis resultados obtidos por meio do método científico aceito pela sua área e pelos seus pares.
Assim, método tem a ver com o contexto da sua pesquisa, o seu alcance e os seus objetivos. A pesquisa é uma linha interpretativa de um problema proposto dentro de uma área específica do conhecimento, o metódo valida os resultados obtidos em uma investigação.
O que fazer na era da ciência interdisciplinar? E, o que fazer quando a área em questão é a mais interdisciplinar de todas? Eis o gargalo da Ciência da Informação: ela é dado, comunicação, conhecimento, seu objeto de estudo é o mais imaterial e o mais presente objeto da ciência, a informação em si. Buckland (1991) apresenta informação como processo (o ato de informar), como conhecimento (a informação assimilada, compreendida) e como coisa (a informação registrada e, portanto, tangível). Essa última definição desperta a noção da natureza dinâmica do meu objeto de estudo e , portanto, da importância da construção da pesquisa consciente, voltada para a ética e para a construção do conhecimento socialmente construído.
Referências:
BUCKLAND, Michael. Information as a thing. Disponível em: <http://people.ischool.berkeley.edu/~buckland/thing.html>. Acesso em: 15 jul. 2012.
CERVO, Amado Luiz; BERVIAN, Pedro A; SILVA, Roberto da. Metodologia científica. 6 ed. São Paulo: Pearson Prentice Hall, 2007. ISBN 8576050471.
TOMANIK, Eduardo Augusto. O olhar no espelho: "conversas" sobre pesquisa em Ciências Sociais. 2 ed. rev. Maringá: Eduem, 2004. ISBN 8585545844
Assinar:
Postagens (Atom)