Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
TECNOLOGIAS DA INFORMAÇÃO
TI
2011
Santo André
2011
2
SUMÁRIO
Dados: caracteres, imagens ou sons que podem ser ou não pertinentes e utilizáveis para
uma tarefa em particular. Ou seja, é a informação em estado bruto.
Claude Shannon, em sua teoria matemática, conceitua ‘Informação’ como “tudo o que
reduz a incerteza entre diversas alternativas possíveis”. A explicação desse pesquisador
abre portas a um entendimento muito mais subjetivo da questão. Esse tipo de definição
segue um sentido que aponta não só a tentativa de explicação do termo, mas a uma
tentativa de explicação para sua aplicação objetiva, ou seja, seu propósito em existir.
5
Teorias do Processo
Trata-se do enfoque segundo o qual uma mensagem trafega entre dois entes que ocupam
lugares de transmissor e receptor. É o caso de estudos que se fundam ou partem de
ciências da natureza:
modelos de comunicação
teoria da informação (Shannon-Weaver)
6
(fonte: http://www.jornalismo.ufsc.br/bancodedados/jorlam02.doc)
Teoria da Informação
(fonte: http://www.jornalismo.ufsc.br/bancodedados/jorlam02.doc)
Claude E. Shannon (1916-2001) é conhecido como "o pai da teoria da informação". Sua
teoria foi a primeira a considerar comunicação como um problema matemático
rigorosamente embasado na estatística e deu aos engenheiros da comunicação um modo
de determinar a capacidade de um canal de comunicação em termos de ocorrência de bits.
A teoria não se preocupa com a semântica dos dados, mas pode envolver aspectos
relacionados com a perda de informação na compressão e na transmissão de mensagens
com ruído no canal.
Elementos da comunicação:
Emissor: emite, codifica a mensagem.
Receptor: recebe, decodifica a mensagem.
Mensagem: conteúdo transmitido pelo emissor.
Código: conjunto de signos usado na transmissão e recepção da mensagem que geram
compreensão. O emissor lança mão do código para elaborar sua mensagem,
realizando a operação de codificação. O receptor identificará esse sistema de signos,
fazendo a operação de decodificação, somente se o seu repertório for comum ao do
emissor.
Canal: meio pelo qual circula a mensagem.
Ruído: corresponde a todos os fatores que possam interferir na mensagem que se
pretende transmitir.
Feedback: conjunto dos sinais perceptíveis que permitem ao emissor conhecer o
resultado de sua mensagem: se foi recebida ou não; se foi compreendida ou não.
Funciona como intercâmbio entre emissor e receptor; faz com que a comunicação
torne-se um processo bilateral; inclui a reação do receptor à mensagem transmitida.
Durante uma apresentação você poderá perguntar aos receptores se eles estão
compreendendo a mensagem.
Para ser transformada em conhecimento a informação deve possuir seu valor de uso. Na
realidade a informação por si só não possui um valor intrínseco. Quanto ao valor natural é
“amorfa”. O valor só é determinado em função do interesse despertado no usuário potencial
da mesma. Desta forma, a informação necessita de adaptação para cada tipo e perfil de
usuário para cumprir a função de atrair a atenção dos usuários às suas características.
Sendo assim, ao nos referirmos sobre o valor da informação estamos, na verdade, nos
referindo ao valor de uso da informação.
Pode-se afirmar, pelo ponto de vista do usuário, que o valor do uso da informação é
avaliado por meio de sua relevância e utilidade. Ou seja, ela é avaliada por ser a
informação que contribui ao usuário, e se enquadra ou supera as expectativas
estabelecidas para seu uso.
9
Podemos observar a informação como um produto que precisa ser beneficiado para
possuir valor. Resumidamente pode-se distinguir dois processos vitais nesse
beneficiamento; um o tratamento e outro a recuperação. Esses são processos
complementares e, principalmente, cíclicos que visam o mesmo objetivo, a utilização da
informação atendendo uma solicitação. Ou seja, agrega-se valor quando o material é
preparado para ter condições de ser recuperado mediante uma busca por suas
características.
A tarefa de transformar dados aparentemente amorfos em algo útil foi discutida por Taylor
(apud KIELGAST e HUBBARD, 1997) em seu livro Value-added Processes in Information
Systems. Sua abordagem recai sobre quatro significativas etapas para o processamento
em sistemas de informação: a organização, a análise, a síntese e o julgamento. Nessas
etapas mencionadas por Taylor vemos a descrição dos serviços executados por uma
unidade de informação, seja ela biblioteca, arquivo, centro de documentação, museu etc.,
pois nelas o material é sempre tratado para permitir sua recuperação. Sendo assim,
podemos enquadrar a biblioteconomia, e nós bibliotecários, como área que atua
diretamente com a mais importante riqueza de nossos dias, a Informação.
10
Para sair um pouco da teoria temos a seguir extratos de artigos publicados na revista
Internet Business por Marcos Rabstein. Os textos vêm de um profissional empresarial e
constatam a visão de quem está no mercado para lucrar. Será muito fácil visualizar o
bibliotecário, como profissional da informação, em alguma parte da sistemática citada por
Rabstein, ou seja, o bibliotecário pode ter um campo promissor quando o assunto é
Informação.
(...) A Enciclopédia britânica costumava vender sua coleção com 32 volumes por US$
1.600, até a Microsoft entrar no mercado em 1992 vendendo a Encarta a US$ 49,95.
Desnecessário dizer que a Britânica sofreu uma grave crise de vendas que gerou a
reformulação da estratégia de preços. Sucessivas tentativas de recuperar as vendas
levaram a oferta de uma subscrição on-line US$ 120 por ano e de um CD para US$ 200.
Mas mesmo os mais tradicionais clientes já não aceitavam pagar quase três vezes o preço
da Encarta.
Este exemplo ilustra alguns dos clássicos problemas de “pricing” de informação. Um dos
mais fundamentais aspectos de um bem de informação é que seu custo de produção é
dominado pelo valor da primeira cópia. Em outras palavras, a informação é custosa para
ser produzida e barata para ser reproduzida.
(...) ‘Pricing’ de bens de informação: eles têm custos fixos de produção da primeira cópia
elevados e gastos incrementais baixos. Concluímos que a técnica de ‘mark up’ de preços
para estes tipos de produtos tende a ser cada vez menos usada. E a palavra chave que
explica isto chama-se concorrência.
Por que nelas há um enorme valor agregado e um diferencial em relação ao mercado (falta
de competidores). E o que aconteceria se a concorrência começasse a produzir com a
mesma qualidade a preços bem mais baixos, isso quebraria a empresa que vende caro?
Não, mas ela seria forçada a mudar a sua estratégia. Esta empresa trabalha em um
mercado muito segmentado e restrito, portanto suas margens precisam ser muito altas...
(RABSTEIN, 1999).
ela pode ajudá-los a resolver algum problema? O processo de transformar dados sem
nenhum significado em informação útil é um processo que agrega valor. Basicamente, o
que Taylor descreveu foi um modelo que pode ser aplicado a muitas situações, desde
bibliotecas a centros de pesquisas especializados em informação. A situação não é
importante, mas os processos que fornecem informação que ajuda o usuário a fazer
escolhas, tomar decisões, esclarecer problemas ou fazer sentido de uma situação é que
são importantes. No seu livro, Taylor examina quatro atividades significativas encontradas
em sistemas de informação, a saber, a organização, a análise, a síntese e o julgamento.
Ele descreve as funções dos processos e mostra como elas agregam valor a informação.
A análise da informação costuma ser dividida em análise voltada para os dados e análise
voltada para o problema. A análise voltada para os dados é motivada pelo conteúdo, e o
objetivo é mostrar a legitimidade, a qualidade e a precisão dos dados. Já a análise da
informação voltada para o problema é motivada pelo usuário e o objetivo é ajudar o usuário
a resolver ou tomar uma decisão. Alguns dos processos que são incluídos na análise da
informação consistem em comparar informações semelhantes a procura de discrepâncias,
selecionar a melhor descrição entre descrições múltiplas da mesma situação ou evento e
editar a informação...
Julgamento. Este é o processo final. Ele é executado pela nova geração de trabalhadores
chamados “profissionais do conhecimento” por Peter Drucker, o guru da administração...
(...) Quantidades imensas de informação estão sendo geradas, e todo mundo se torna seu
próprio editor. Na realidade, esse é um dos problemas quando se está falando de
sobrecarga de informação, bem como da qualidade da informação, porque todo mundo
pode transmitir na World Wide Web o que quiser... Existe aí uma grande quantidade de
ruído também...
14
Portanto, o que estamos fazendo às vezes é pôr essa informação na frente, de modo que
ela seja o primeiro artigo que o cliente leia. Dessa forma não enviamos a informação como
a encontramos. Nós a reorganizamos. E também escrevemos resumos da informação para
facilitar ao cliente a compreensão do que está no estoque de informação...
Como disse antes, a análise que estamos fazendo da informação é voltada para o
problema. Isso significa que o nosso resultado é preparado para um usuário específico
numa situação específica. É por isso que precisamos interagir com nossos clientes...
Precisamos saber o que o cliente quer e por que ele quer. E é o "porque" que ajuda o
especialista em informação a avaliar as informações...
Bom conteúdo e boa forma. Uma das normas mais importantes no nosso trabalho com
informação, é a importância de fornecer tanto um bom conteúdo quanto uma boa forma...
A informação oportuna é muito importante, também. Ela precisa ser encontrada para o
cliente quando ele precisa dela, não dois dias depois... O último aspecto nesse caso é o
nível adequado ao usuário... [Adequar o conteúdo segundo a capacidade de compreensão
dos usuários].
(...) Destaco que o valor, pelo menos em termos econômicos, é um conceito relativo, isto é,
eu valorizo a informação "a" em relação a informação "b", dentro de uma escala de
preferências que me é própria... Neste caso, o valor da informação... vai depender:
primeiro, da sua preferência pela informação "a" em detrimento da informação "b";
segundo, da competência cognitiva do indivíduo receptor em poder decodificar... terceiro,
da informação estar codificada em um código simbolicamente significante, e que o receptor
tenha condições de acesso a esse código...
Outro ponto que eu gostaria de levantar, é que agregar valor é diferente de agregar custo,
embora uma agregação de valor possa envolver custos mais elevados. Tanto a informação
17
"a" quanto a informação "b", podem ter custos agregados de indexação e classificação para
seu armazenamento e recuperação, o que não representará nenhum valor para o receptor
se "a" ou "b" continuarem inacessíveis para ele, por razões simbólicas ou cognitivas. Se,
contudo, a informação "a" e a informação "b" forem reelaboradas, visando possibilitar a
melhor compreensão e a assimilação pelo receptor, teremos uma agregação de valor que
teve um custo, considerando que "a" e "b" possuem valor de uso para o receptor...
O fator essencial que trata das condições de sucesso do Valor agregado são os seguintes:
bom conhecimento das necessidades;
a adequação dos produtos às necessidades dos clientes;
a execução e o fornecimento dos produtos de informação;
a contribuição com melhores recursos para fornecer estes mesmos serviços.
conteúdo;
18
ProCite (http://www.procite.com)
ProCite é um software destinado à gestão de bibliografias e produção
de repositórios bibliográficos de acordo com diferentes estilos de
citação. É uma ferramenta poderosa para pesquisadores,
bibliotecários, escritores, e estudantes. Com ProCite você pode
19
Esses sistemas foram originalmente desenvolvidos para serem usados por cientistas
quando preparam listas de referências bibliográficas para publicações técnicas diferentes,
que exigem estilos diferentes nas suas listas de referências.
O que esses sistemas permitem basicamente que se faça é a manipulação dos campos
individuais em uma ficha. O software permite que definamos quais campos de uma ficha
desejamos usar e nos permite organizar os campos dentro da ficha de acordo com nossas
necessidades. Nós usamos essas duas funções para descartar facilmente a informação.
de reagir rapidamente a surpresas, isto é, a uma nova informação. Isso depende menos de
um planejamento cuidadoso do que um oportunismo informado, com igual ênfase nas duas
palavras... "você tem de obter informações inteligentes sobre sua empresa e seu ambiente
competitivo. A informação é diferencial".
Taxando a informação
Hoje a informação realmente é uma commodity, ou seja, uma mercadoria. Todos precisam
de informações para tomar decisões. Seja a informação sobre a situação do tempo, para
escolher suas roupas antes de sair de casa, até as informações necessárias para uma
pesquisa científica.
É claro que não podemos esquecer que empresas vivem e atuam nos mercados baseadas
em informações, isso é uma realidade, ainda que algumas organizações não tenham
21
percebido o fato. Já vimos o texto de Rabstein ratificando essa afirmação e por ora lembro
também de um anúncio feito no jornal Gazeta Mercantil, em 1998. O anúncio que na
realidade tinha a forma de um artigo buscava sensibilizar o empresário a comprar uma
gama de estudos setoriais realizados pela G. Mercantil. O interessante é a condução do
artigo cujo título era ‘Informação para enfrentar a crise: a matéria-prima mais importante’.
Vejamos o primeiro parágrafo do texto: “Numa época de crise e de retração do mercado, a
informação econômica – precisa, adequada e confiável – é a mais valiosa das matérias-
primas que uma empresa pode ter”. Você percebe que as condições citadas que garantem
o valor da informação (precisa, adequada e confiável) nada mais são do que a execução do
processos de tratamentos de informação (armazenamento, processamento e
disseminação), que nós bibliotecários devemos conhecer muito bem?
Nos negócios a informação é condição ‘sine qua non’ para o êxito. Contudo temos como
informação corporativa, não somente aquelas que se apresentam manipuláveis como por
exemplo, um artigo sobre a certificação de qualidade para uma indústria, mas também
variados tipos que muitas vezes podem não estar prontos para o uso.
O universo informacional corporativo pode abranger dados prontos para serem utilizados a
dados que necessitam ser ‘garimpados’ para tornarem-se informação. Assim cabe distinguir
o estado bruto da informação, onde temos:
22
Mas, quais informações as organizações que precisam gerar lucros tem necessidade?
Seriam apenas informações do mercado financeiro? Não, certamente há uma infinidade de
tipos de informações que podem ser úteis a uma organização, vejamos os principais tipos:
Leitura recomendada:
BAPTISTA, Dulce Maria. Do caos documentário a gerência da Informação. Ciência da
Informação, Brasília, v.23, n.2, p.239-248, maio/ago. 1994.
DERTOUZOS, Michael. O que será? São Paulo : Companhia das Letras, 1997.
24
As bibliotecas durante muito tempo, consoante com suas atividades de acesso aos
documentos, tinham uma única e sólida política para o desenvolvimento de coleções,
sendo sua premissa principal a crescente aquisição de exemplares. Tanto que um dos
parâmetros para averiguar a ‘qualidade’ de uma biblioteca era o número de títulos
constantes no acervo. Isto é, a quantidade da coleção permitia um melhor atendimento,
pelo fato do documento estar a mão quando solicitado pelo usuário.
trabalho surgiu a CDU (Classificação Decimal Universal). Otlet ainda imaginou sistemas de
controle para a informação, tais como máquinas que armazenassem e processassem a
informação (VILAN FILHO, 1994).
Após Otlet, temos outro pesquisador às voltas com o problema da explosão documentária.
É Vannevar Bush, um renomado cientista do MIT. Bush, no célebre de 1945, “As we may
think”, discorre sobre a “a tarefa massiva de tornar mais acessível, um acervo crescente de
26
Michael Dertouzos, propõe a utilização das armas do “inimigo” para vencermos o gigante
da sobrecarga de informações. Em seu livro O que será?, quando enfatiza a produção
independente de informação em mecanismos como a Internet, afirma que uma das
27
A mesma situação ocorre no caso da livre troca de informações. Embora seja igualitário,
nobre até, haver a possibilidade de todos escreverem o que quiserem, e ‘publicar’ isso
livremente no Mercado de Informação, o resultado será o mesmo: uma enorme pilha de
info-junk que a maioria de nós não se interessara em ler. Aqui, também, sentiremos a
necessidades de intermediários da palavra escrita... Será que os programas gerenciadores
cuidarão disso? Duvido, pois lhes faltará inteligência suficiente para a tarefa. É mais
provável que as pessoas recorram a editores e críticos de carne e osso, que possam usar
seu discernimento para separar as pérolas no meio da pilha de lixo.
Na Era da informação, devemos dedicar muito esforço para afastar e filtrar informações
indesejáveis, ou info-junk.
custo de fazer exatamente a mesma coisa, no Mercado de Informação, sem a ajuda dos
intermediários... Mas a simples ligação entre produtores, consumidores de informação e
serviços de informação por meio do Mercado de Informação não elimina os intermediários.
O pandemônio não terá precedentes. Inundados pela montanha de lixo, seremos
incapazes ou nos revoltaremos contra a idéia de passar a vida separando o joio do trigo.
Daremos muito valor aos intermediários que realizarem essa tarefa repulsiva para nós. E,
ao nos valermos desses intermediários, perceberemos que eles tem outras características
que valorizamos, como reputação, que não pode ser facilmente duplicada no cenário da
compra direta. (Dertouzos, 1997)
(...) Dados brutos podem ser informação, mas não necessariamente. A não ser que sejam
usados para informar, não têm valor intrínseco. Eles devem ser imbuídos de forma e
aplicados para se tornar informação significativa. Contudo, em uma época faminta de
informação como a nossa, freqüentemente permite-se que passem por informação.
Leitura recomendada:
ROWLEY, Jennifer. Informática para bibliotecas. Brasília : Briquet de Lemos, 1994.
Cap.13, p.236-260.
De uma maneira geral, para que a informação seja processada é preciso que ela tenha
forma. Ou seja, que esteja sobre um suporte: madeira, pedra, papel etc. Pode-se
facilmente verificar que esses materiais são documentos, pois contém informação. Será
que o mesmo raciocínio se aplicaria a um arquivo de computador? Qual seria a definição
para ‘documento’?
Processamento da Informação
O ciclo documentário está apoiado em duas bases, como expõe Lucas (1997), uma é a
“fabricação de informações documentárias” e outra, a “recuperação da informação”.
Aprofundando, como trata a autora o primeiro item: “supõe a transformação de um objeto
(documento) em um outro objeto (informação documentária) por meio de operações de
análise e de síntese. Sua função é a de permitir selecionar, de um universo de objetos,
aqueles que poderão responder a uma necessidade de informação.”
O conceito de inteligência competitiva surgiu na década de 80, como uma disciplina capaz
de integrar o planejamento estratégico, atividade de marketing e de informação,
objetivando o monitoramento constante do ambiente externo, com respostas rápidas e
precisas à empresa no que diz respeito aos movimentos do mercado. O que torna o
processo de inteligência competitiva diferente é a geração de resultados em horas ou dias,
em vez de semanas e meses, normalmente requeridos com as metodologias tradicionais
31
LÉVY (1993) considera que as novas tecnologias da informação, da mesma forma que a
invenção da escrita por volta de 3000 a.C. e da imprensa por Gutemberg, no século XV,
são tecnologias da inteligência, no sentido de se constituírem em novas ferramentas
cognitivas. Na medida em que viabilizam novas possibilidades cognitivas, possibilitam um
salto qualitativo em nossos possibilidades de raciocínio e apreensão de conhecimento. O
trabalho de Lévy é emblemático de uma série de outras colocações, que vinculam de forma
definitiva o trabalho informacional com a questão da gestão do conhecimento e da
inteligência (FARRADANE, 1980; DEDIJER, 1987; MIRANDA, 1995; BORGES, 1995).
Simultaneamente, outros impactos se dão também pelo lado do usuário, propiciando novas
facilidades de acesso e tendendo a alterar profundamente o papel desempenhado pela
biblioteca, tradicional intermediária entre os usuários e recursos informacionais. Com o
acesso às redes, os usuários tendem a se tornar mais autônomos. Entre nós no entanto,
muitos usuários ainda não descobriram as potencialidades das novas tecnologias, o que
abre todo um novo espaço para um trabalho informacional de promover, capacitar,
organizar e prover o acesso a esses novos recursos (G ONÇALVES, 1998).
uso deve ser repensado. O foco do trabalho informacional se desloca do tratamento para a
facilitação do acesso; a “explosão informacional” torna mandatório que sejam
desenvolvidas novas propostas de “catalogação na fonte” de documentos eletrônicos como
por exemplo o Dublin Core (WEIBEL).
Tudo isso aponta para a necessidade de um novo pacto com os usuários, para um novo
papel, para sua incorporação definitiva nas práticas informacionais, para um papel mais
fundamental dos mesmos na co-gestão, sustentação e nas práticas do dia-a-dia das
unidades de informação.
Ora, informação é meio; só tem sentido como viabilizadora de outros fins demandados pela
sociedade: cultura, ciência, ensino / aprendizagem, atividades econômicas. Mais do que
nunca entre nós, precisa ser repensada a “utilidade social” da biblioteca, sua visibilidade. O
conceito de demanda social é útil para analisar as instituições de informação brasileiras e
sua relação com os usuários. Sobre isso S HERA (1971, p. 11) nos adverte: O objetivo da
biblioteconomia seja qual for o nível social que deva operar é aumentar a utilidade social
dos registros gráficos, seja para atender à criança analfabeta absorta em seu primeiro livro
de gravuras, ou um erudito absorvido em alguma indagação esotérica. Diante da
intangibilidade do nosso objeto de trabalho, utilidade social, visibilidade, demanda social
devem ser buscados obsessivamente pelas bibliotecas. A tecnologia da informação deve
ser vista como potencializadora de novos e melhores serviços aos usuários, aumentando a
utilidade social da biblioteca. Nessa perspectiva, vejamos como essas questões se refletem
no ensino.”
Definição
Arquitetura da informação é “a estruturação e organização dos dados envolvidos no
processo de armazenamento, recuperação, apresentação das informações recuperadas,
interfaces e personalização”, pois ela aborda todas as etapas de desenvolvimento de uma
biblioteca digital, incluindo desde o levantamento de requisitos até a manutenção da
mesma. (CAMARGO, 2006)
Um dos motivos que levam ao uso da arquitetura vem do fato de que as informações
normalmente encontram-se muito dispersas nas organizações. Elas provêm de muitas
fontes, são usadas para finalidades variadas, ficam armazenadas em uma diversidade de
meios e formatos. Não de surpreender que os funcionários de muitas empresas, tenham
dificuldades em acessar dados. Um levantamento estimou que os gerentes passam 17 por
cento de seu tempo (um total de seis semanas por ano) buscando informações. Se o
acesso é assim tão difícil não é de se estranhar que as empresas gastem milhões de
dólares duplicando dados que já existem.
(DAVENPORT, 1998)
Objetivos
Construir uma biblioteca digital e/ou WebSites envolve coleções de documentos digitais em
vários formatos, mídia e conteúdo, associados a componentes de hardwares e softwares
38
O antigo modelo de biblioteca tem também outros pontos fortes. O item decisivo é que, ao
enfatizar a necessidade de julgamento e de trabalho humanos, torna-se superior a
qualquer visão utópica acerca de um cérebro artificial gigante. A tarefa de categorizar
dados e organiza-los em uma biblioteca, por exemplo, somente podem ser
desempenhadas por pessoas. Na verdade, uma pesquisa recente entre gerentes
responsáveis por bibliotecas mostrou que uma das tarefas mais importantes dos
bibliotecários é conduzir levantamentos. Os bibliotecários têm uma posição garantida no
quadro de informações de uma empresa, particularmente porque sua história profissional –
ao contrário do que acontece com os programadores e profissionais de SI – os predispõem
ao contato direto com os usuários.
40
Ainda que o papel do bibliotecário possa incluir a difusão de dados, ele está mais habilitado
a lidar com conteúdos. Bibliotecários estão mais familiarizados com as informações com
que lidam que a maior parte dos profissionais da informação. Administrando não só com
informações de fontes internas, mas também as obtidas externamente, bibliotecários
empresariais começaram a expandir o escopo de suas atividades e a trabalhar mais
diretamente com os usuários. Dessa forma, souberam usar seus serviços para conferir
vantagem competitiva à empresa.
Ainda assim, a maior parte dos dados que circulam regularmente nas empresas não pode
ser administrada de maneira rentável como se fosse um livro de biblioteca. Uma equipe de
informação que considera sua atribuição apenas facilitar a manutenção de uma biblioteca –
seja ela em papel ou baseada em computador – estão ignorando dados importantes:
Bibliotecas não criam nem melhoram informações. Em vez disso, elas tombam, catalogam,
e armazenam informações. Raramente as sintetizam ou reestruturam; deixam essa tarefa
para o usuário. Contudo, em um ambiente ecologicamente orientado, a equipe de
informação deve constantemente gerar novos significados a partir dos dados armazenados.
(DAVENPORT, 1998)
Definição
A definição mais satisfatória encontrada para Informática Documentária é: "o conjunto de
aplicações da Informática à Documentação, técnica que se refere às intervenções da
Informática nas diversas fases de produção e utilização de documentos: produção de
textos, difusão pelo editor, gestão pela biblioteca, análise e indexação para a constituição
de bases de dados bibliográficos e para a difusão seletiva, e softwares para a pesquisa
nestas bases de dados "(DEWEZE,1994, p.1). Segundo o autor, estas aplicações
especificamente documentárias permitem ao estudante de Ciência da Informação fazer a
ponte entre o ensino da Documentação e as técnicas informáticas, além de contribuir para
colocar e analisar corretamente os problemas de Documentação em vista de sua resolução
informática...
42
(...) com origem na França, o termo Informatique Documentaire foi adotado em outros
idiomas como o espanhol (Informática Documental) e o português (Informática
Documentária). Já em inglês, não há uma expressão ou termo similar.
Definição
Entende-se por sociedade da informação como um estágio de desenvolvimento social
caracterizado pela capacidade de seus membros (cidadãos, empresas, poder público) de
obter e compartilhar qualquer informação, instantaneamente, de qualquer lugar e da
maneira mais adequada. A sociedade da informação designa uma forma nova de
organização da economia e da sociedade.
série de transformações sociais, pois provocam mudanças nos valores, nas atitudes, e no
comportamento, mudando com isso também a cultura e os costumes da sociedade.
(PALHARES. Disponível em: http://dici.ibict.br/archive/00000494/)
Estudos sustentam que noção de SI surge como um fundamento dentro das tendências
voltadas para o estabelecimento da infra-estrutura para dar suporte o avanço à tecnologia
de rede e às novas exigências do mercado, tendo informação como um bem social e
elemento de emancipação da cidadania e da ação governamental sem, contudo, se
plasmar num perspectiva igualitária sobre os benefícios que iria oferecer à sociedade.
(NHARRELUGA)
44
Definição
Tecnologias de informação podem ser definidas como o conjunto de técnicas,
equipamentos e processos necessários à geração, processamento e uso da informação.
Abaixo temos um extrato do texto “Otimização dos serviços de informação através das
novas tecnologias...” de Cláudia Lopes, através dele é possível ter uma idéia introdutória
sobre as Novas Tecnologias da Informação e sua influência na biblioteconomia.
Segundo Guinchat (1994), pode-se definir como “novas tecnologias” como sendo um
conjunto de equipamentos, de procedimentos e de métodos utilizados no tratamento da
informação e da comunicação. Porém, com as novas tecnologias, a relação entre o
45
profissional - neste caso o bibliotecário – nem sempre foi amigável. Quando do início da
utilização do computador nas bibliotecas e centros de informação, este era visto como um
intruso ameaçador. Atualmente esta visão não pode ser compartilhada pelo profissional de
informação, já que a sociedade exige exaustividade e especificidade, isso força a
Biblioteconomia a utilizar recursos tecnológicos da área de informática e telecomunicações
para satisfazer sua clientela.
Todavia este foco está se deslocando para os serviços de apoio à interface cliente-
equipamento. As máquinas, por si só, não são mais centrantes e sim, a capacidade de
administrar e explorar a informação. O ser humano já não mais capaz de processar todo o
fluxo de dados e informações com que é literalmente bombardeado todos os dias. É
importante perceber que a medida que a tecnologia, principalmente a de transmissão da
informação, torna-se cada vez mais sofisticada, a possibilidade do indivíduo conseguir
processar torna-se menor.
46
Hoje, não só a utilização de novas tecnologias, como a busca pela qualidade, faz com que
sejam repensados não só o serviço de referência (o atendimento ao cliente), mas também
todos os processos que o levam a obter sucesso, já que é a partir desse sucesso que é
julgado todo o sistema.
2.3. Hipertexto
Definição
Hipertexto é um sistema para a visualização de informação cujos documentos contém
referências internas para outros documentos (chamadas de hiperlinks ou, simplesmente,
links), e para a fácil publicação, atualização e pesquisa de informação. O sistema de
hipertexto mais conhecido atualmente é a World Wide Web. (Wikipedia)
Para Ted Nelson, o hipertexto possibilita novas formas de ler e escrever, um estilo não
linear e associativo, onde a noção de texto primeiro, segundo, original e referência cai por
terra. Poderíamos adotar como noção de hipertexto assim, o conjunto de informações
textuais, podendo estar combinadas com imagens (animadas ou fixas) e sons, organizadas
de forma a permitir uma leitura ( ou navegação) não linear, baseada em indexações e
48
associações de idéias e conceitos, sob a forma de links. Os links agem como portas virtuais
que abrem caminhos para outras informações.
Para Lévy (1993) o hipertexto é um conjunto de nós ligados por conexões. O hipertexto
é um conjunto de nós ligados por conexões. Os nós podem ser palavras, páginas, imagens,
gráficos, sequências sonoras, documentos complexos que podem eles mesmos ser
hipertexto. Os itens de formação não ligados linearmente, como em uma corda como nó,
mas cada um deles, ou a maioria, estende suas conexões em estrela, de modo reticular.
Representação gráfica
Recursos de hipertexto
É interessante lembrar com Lévy (1993), o fato de ter sido o editor veneziano Aldo
Manucio, "que promoveu o (in octavo), inventou o estreito caractere itálico e decidiu livrar
os textos do aparelho crítico e dos comentários que os acompanhavam há séculos...
Paul Otlet
O advogado belga vislumbrou, juntamente com Henri La Fontaine (também belga e
advogado, e Prêmio Nobel da Paz), nos últimos anos de 1800, o registro de todo
conhecimento humano em fichas de 12,5 x 7,5 cm (invenção sua) em uma grande
biblioteca universal que chegou a conter 15 milhões de fichas por volta de 1930, além de
falar em rede universal de informação e documentação, cujo acesso se daria a partir de
estações de trabalho, e no que hoje sabemos ser a internet. Os advogados fundaram o
International Institute of Bibliography (IIB) em 1895, mais tarde denominado International
Federation for Information and Documentation (FID), o que permitiu que suas idéias
pudessem ser colocadas em prática.
50
Em 1930, Paul Otlet profetizou que as pessoas leriam em telas (“telescópios elétricos”)
livros localizados em bibliotecas distantes. E previu que máquinas seriam um dia utilizadas
para “recuperar dados reduzidos aos seus elementos analíticos”`.
Muito do conceito de hipertexto se deve à Otlet. Em seus trabalhos, ele descreveu o que
chamou de “documento universal”, ou seja, um documento era matéria-prima de
conhecimento e as informações nele contidas deveriam ser disponibilizadas; além disso, os
documentos precisavam ter conexões uns com os outros. O conteúdo desse documento
universal seria, então, indexado em fichas segundo a CDU (Classificação Decimal
Universal, desenvolvida por Otlet e outros). Cada ficha teria apenas um ponto central/nó
que estaria relacionado a outro nó através da classificação facetada da CDU. Dessa forma,
as fichas poderiam ser organizadas e acessadas em qualquer seqüência. O usuário, assim,
“navegaria” nesse universo de conhecimento sem estar limitado a somente um documento.
(GAUZ)
Ted Nelson
Hipertexto é um conceito que diz respeito ao nosso modo de ler e escrever. Este termo,
criado por Ted Nelson (Theodor Holm Nelson) em 1965, definia o novo modo de produzir
textos permitido pelos avanços tecnológicos sintetizados na telemática. Nelson criou
também o projeto Xanadu: "uma imensa rede acessível em tempo real, contendo todos os
tesouros literários e científicos do mundo".
O objetivo do projeto Xanadu Docuverse era o termo que criou para descrever uma
biblioteca global online - um lugar onde os escritores pudessem publicar seus textos -
contendo em formato hipermedia toda a literatura da humanidade. Este conceito de
Docuverse é um dos paradigmas fundacionais da Rede. Em 1965, existia um protótipo que
modelou muitos dos conceitos em que consiste qualquer sistema hipermedia, Internet
incluída. Ainda que Xanadu nunca tenha sido comercializado, os vários aspectos do
paradigma compreensivo a ele subjacente foram incorporados na Rede.
51
Vannevar Bush
A figura de Bush assume uma importância marcante na história deste hipertexto, com a
publicação, em 1945, do clássico ensaio As we may think. Neste ensaio Bush esboça o
"Memex" que, de alguma maneira, representa hoje o nosso computador pessoal. Bush era
matemático e responsável por uma agência de Desenvolvimento e Pesquisa Científica do
Governo Norte Americano. Ele coordenava o trabalho de mais de seis mil cientistas. Uma
das questões enfrentadas por Bush era o volume crescente de dados que deviam ser
armazenados e organizados de tal forma que permitisse a outros pesquisadores a
utilização destas informações de maneira rápida e eficiente.
Em 1945, Vannevar Bush , em um célebre artigo intitulado As we may think, previu com
incrível precisão um sistema muito parecido com o que hoje chamamos de hipertexto. Bush
imaginou um sistema, baseado na capacidade de associação e denominado (Memex),
descrevendo-o como: "dispositivo no qual um indivíduo armazena todos os seus livros,
registros e comunicações, e são armazenados de maneira que podem ser consultados com
extrema velocidade e flexibilidade. Ele é um complemento de sua memória.(...) quando em
numerosos itens estiverem ligados formando uma trilha podem ser revistos rápida ou
lentamente através de uma alavanca como a usada para passar as páginas. É exatamente
como se os itens físicos fossem reunidos a partir de fontes separadas e encadernados para
formar um novo livro. É mais que isso, pois cada item pode ser ligado a numerosas trilhas...
(Vilan Filho, 1994)
Douglas Engelbert
Outro personagem de importância histórica relevante é Douglas Engelbert diretor do
Augmentation Research Center (ARC) do Stanford Research Institute. Neste centro de
pesquisa foram testados pela primeira vez, segundo nos informa Lévy: a tela com múltiplas
janelas de trabalho; a possibilidade de manipular, com a ajuda de um mouse, complexos
informacionais representados na tela por um símbolo gráfico; as conexões associativas
(hipertextuais) em bancos de dados ou entre documentos escritos por autores diferentes...
52
Tim Berners-Lee
Um físico da CERN - European Organization for Nuclear Research, laboratório de física na
Suíça, Tim Berners-Lee, tinha dificuldades em buscar as informações necessárias para seu
trabalho utilizando a Internet da forma como estava. Não se conformava com o fato de ter
as informações que necessitava na grande rede de computadores, e comunicar-se com
outros pesquisadores, tendo as dificuldades inerentes do sistema na época.
Definição
Publicação eletrônica é a publicação sem papel, ou seja, com todos os passos do processo
fazendo uso de tecnologia da comunicação; o livro e o periódico eletrônico que existem
sem equivalente em papel é que são produtos verdadeiros da publicação eletrônica. Esta é
a definição que mais reflete o que foi previsto por Lancaster em sua paperless society.
(FISHER, apud FIGUEIREDO).
Usos
aplicação da tecnologia eletrônica para a criação da informação;
aplicação da tecnologia para a produção da informação, isto é, a composição e a
impressão computadorizada, bem como - outras manifestações da tecnologia na
produção de livros, periódicos, jornais, apesar do produto final ser em papel;
53
A publicação eletrônica verdadeira, implica que os autores comporiam para uma mídia
diferente e, em assim fazendo, não estariam cerceados pelas limitações da pagina
impressa. Na publicação eletrônica, a informação que esta sendo processada é
armazenada na forma digital e é processada eletronicamente.
As revistas eletrônicas que estão sendo editadas exclusivamente através da Internet estão
revolucionando a maneira como a informação é disseminada. Não existe nada similar a
elas, no passado, e creio que a exploração criativa dos recursos que elas oferecem ainda
está apenas em sua infância.
O que impressiona é a rapidez da difusão que a revista alcança na rede mundial. Menos de
uma semana depois de lançada, já tinha sido incluída em um dos mais prestigiosos
catálogos de links sobre saúde mental (o Mental Health Net) e recebido três estrelas de
qualidade. Em menos de um mês, já contabilizava mais de 1000 acessos individuais à
versão em inglês e quase outro tanto, na versão em português. Ao ser incluída em índices
como Altavista, WebCrawler, Lycos, HotBot, e outros, esta semana, a revista já pode contar
com uma curva de crescimento que será sempre ascendente, beneficiando milhares de
leitores em dezenas de países. Isso é fantástico para uma publicação brasileira, e só pode
ocorrer graças ao fenômeno da Internet. (SABBATINI).
Contudo essas obras ainda necessitam de um computador para a leitura, por isso o
conceito de um livro eletrônico que tivesse a portabilidade como característica principal
surgiu, o eBook.
Quem vai ganhar a competição? O meio digital ou o meio impresso? Ou será que eles não
competem entre si, mas sim se complementam?
Perguntas como essas estão começando a deixar os editores de livros muito preocupados.
A penetração das formas digitais de livros ainda é muito pequena. Basta visitar uma livraria
e ver quantos títulos de livros existem em papel e quantos em CD-ROM. A maioria dos CDs
são obras de referência e consulta, tais como enciclopédias e Bancos de Dados; ou
programas de informação e aprendizado que se baseiam fortemente em tecnologias
interativas. São muito poucos os romances e livros especializados publicados em CD, por
um motivo bastante óbvio: é muito chato ler um livro no computador (e sai muito caro
imprimi-lo em papel antes de ler). Nove entre dez pessoas não gosta e não quer ler coisas
extensas na tela.
A coisa não é muito diferente com relação à Internet. A Internet tem sido um ótimo exemplo
de como os meios impressos e eletrônicos se complementam. Atualmente existem milhares
ou dezenas de milhares de livros com texto completo disponíveis na Internet. Devido à
problemas de copyright, a maioria dos textos é de autores clássicos, cujos direitos de cópia
já estão vencidos. Por exemplo, é muito fácil achar na Internet o texto completo de
qualquer um dos romances de Sir Arthur Conan Doyle, a Bíblia, textos romanos e gregos
clássicos, etc. Servidores como o do Projeto Gutenberg, que tem centenas de
55
O que está acontecendo de muito curioso é como a Internet está servindo para vender
cada vez mais livros em papel. As livrarias on-line já são um enorme sucesso. A mais
conhecida, a Amazon, tem 2,5 milhões de títulos, e vende por preços bem abaixo do
praticado nas livrarias (há descontos de até 88 %). Diz-se que já está faturando algo em
torno dos 100 milhões de dólares por ano. A sua equivalente nacional, que também vem
obtendo boas vendas, é a BookNet. O mercado on-line é tão apetitoso, que a maior livraria
(física) do planeta, a americana Barnes & Nobles, que tem mais de 700 lojas, e vende há
muito tempo pelo correio, também abriu o seu gigantesco site na WWW, embora com
menos títulos que a Amazon (1 milhão). Ela montou uma estratégia de marketing
multimilionária, que tem como objetivo se tornar a primeira do mundo na Internet.
Recentemente, por exemplo, fechou um contrato com a maior provedora de acesso à
Internet, a America On Line (AOL), de 40 milhões de dólares, para se tornar a livraria on-
line exclusiva da AOL no seu concorrido shopping virtual. A Amazon e as outras perdem de
imediato uma boa parte de um mercado formado por 10 milhões de consumidores
potenciais, o que não é pouca coisa.
O último capítulo da luta é muito criativo. Nos mecanismos de busca e catálogos existe um
‘link’ na página de resultados para você procurar livros sobre o mesmo assunto na livraria
da Amazon. E várias livrarias, como a BookNet, estão oferecendo comissões de vendas
para quem colocar ‘links’ para suas páginas e que levem à venda de livros recomendados.
Entra no jogo, então, o conceito de biblioteca, uma instituição tão antiga quanto o próprio
livro. Como serão as bibliotecas do futuro, se todos os livros forem eletrônicos? Elas terão
razão de continuar a existir? Qual será a função do bibliotecário, o classificador e guardião
tradicional dos livros?
O passo seguinte já foi dado por muitas bibliotecas, também: é a construção de prateleiras
‘virtuais’, onde se disponibiliza para os leitores (fisicamente presentes na biblioteca, ou em
qualquer lugar, através da Internet) as revistas e livros que já existem em forma eletrônica.
A maioria é gratuita, mas muitas têm assinaturas pagas, que a biblioteca faz, em nome de
uma coletividade mais restrita. Para terminar a ‘virtualização’ total da biblioteca, só falta um
passo mais: converter todos os livros e revistas existentes em papel, para uma forma
digitalizada, que permita sua distribuição através da rede.
Essa transição ainda é utópica para a maioria das bibliotecas, devido ao enorme custo e
tempo necessário para o processo de conversão. A Biblioteca do Senado dos EUA tem
experimentado com isso há várias décadas, mas uma fração muito pequena do seu acervo
está disponível nessa forma. Mas parece ser o caminho do futuro.
‘Uma idéia interessante é de que os computadores serão tão compactos e baratos, que
terão o formato e a portabilidade de um livro. Esses ‘livros eletrônicos’ serão um lugar-
comum dentro de poucos anos, constituindo um novo e poderoso fenômeno tecnológico no
mundo das publicações. O pai da idéia da ‘biblioteca virtual portátil’ é um pesquisador
americano chamado Alan Kay, que no final da década dos 60 era um dos integrantes do
Palo Alto Research Center (PARC) da Xerox Corporation, perto de Stanford, na Califórnia.
As equipes do PARC foram as responsáveis praticamente por todas as idéias novas sobre
computação interativa, tais como o mouse, os menus, as interfaces gráficas do tipo
Windows ou Macintosh, etc.
58
Pois bem, Alan Kay escreveu um artigo fantástico, em 1968, no qual ele previu a existência,
em cerca de 25 anos, de um computador tão compacto e portátil, que seria possível
armazenar milhares de livros didáticos e científicos, ultracompactados em sua memória. A
esse computador, que teria o aspecto e tamanho aproximados de um livro, e que não
necessitaria o uso de teclado, Kay batizou de Dynabook (dos termos, em inglês, dynamic
book, ou livro dinâmico). Kay concluiu que ele afetaria enormemente o acesso à
informação, bem como a existência e o uso das bibliotecas e dos livros.
2.5. Multimídia
Definição
Multimídia (multimédia) é o uso de diferentes tipo de mídias para informação, tais como
texto, imagem, áudio, animação, vídeo etc. através do recurso da interatividade.
O termo foi introduzido pela Commodore Business Machines (computador Amiga), para
designar o processo de transmitir informação utilizando os recursos integrados de imagens,
texto e som, sob a monitoração de um computador.
multimídia combina som, vídeo, desenhos e texto; mas assim, elas podem estar
simplesmente descrevendo a televisão. Todas as noites no noticiário você vê uma
combinação de todos esses elementos, mas não os chama de multimídia, porque não se
pode interagir com eles (alem de mudar de canal). Uma versão multimídia de um programa
de televisão poderia conter todos o elementos desse programa, mas seria você que
determinaria ao produtor do programa que informações quer ouvir e quando quer ouvi-las.
A escolha é sua. Simplesmente clique um botão, toque a tela ou acione um teclado e você
pode chamar as manchetes do titulo multimídia. (S.O.S. : informática).
Leitura recomendada:
CUNHA, Isabel Maria R. Ferin, KOBASHI, Nair Yumiko. Análise documentária e inteligência
artificial. Revista Brasileira de Biblioteconomia e Documentação. São Paulo, v.24,1/ 4,
jan./dez. 1991.
de regras, como por exemplo, no caso de bibliotecas, regras de truncagens, noções dos
operadores booleanos etc. (MENDES).
FERREIRA, E, C, H. G.; Geração Automática de Metadados: uma Contribuição para a Web Semântica. Tese
de Doutorado em Engenharia. Universidade de São Paulo. 2006
Ambientes digitais voltados à gestão e disseminação de informação não são apenas uma
coleção de informação digitalizada. Eles são instituições que envolvem serviços e pessoas,
e encerram sistemas extremamente complexos de informação que dão suporte à criação,
estruturação, gestão, pesquisa e recuperação, uso, distribuição e preservação de objetos
de informação. Manipulam dados em qualquer formato (texto, imagens estáticas ou
dinâmicas, sons etc.) e existem em redes distribuídas. O conteúdo dos ambientes digitais
inclui dados e metadados que refletem conteúdo, contexto e estrutura dos objetos de
informação. Os ambientes digitais são construídos para apoiar comunidades específicas de
usuários, e suas capacidades funcionais dão suporte às necessidades da informação e ao
uso daquela comunidade. Esses ambientes permitem que indivíduos, grupos ou programas
interajam entre si, compartilhando dados, informações, recursos de conhecimento e
sistemas.
Os ambientes digitais podem ser justificados pelos seus benefícios e vantagens, quando
comparados com seus respectivos ambientes tradicionais [GF2001]. Por exemplo:
Na polêmica em torno dos direitos autorais, questiona-se, entre outras coisas, a facilidade
proporcionada pelos objetos de informação digital de reproduzir e distribuir cópias não
autorizadas, e a ausência de uma legislação mais específica. A lei 9.610 de 1998 sobre
direitos autorais no Brasil [Lei1998] também é válida para a Internet. De acordo com ela, os
direitos patrimoniais do autor, sejam para livros, obras audiovisuais ou fotográficas, duram
por 70 anos após sua morte. Após este prazo, são de domínio público, podendo ser
reproduzidos e copiados. Durante a vida do autor qualquer reprodução deve ser autorizada
por ele ou por terceiros, caso os direitos tenham sido concedidos para outras pessoas. Um
dos fatores que dificulta a criação de uma legislação direcionada especificamente para esta
questão, é a territorialidade das leis de direitos autorais e a queda de fronteiras
caracterizada pela Internet.
(...) A biblioteca tradicional tinha seu espaço físico delimitado. Os seus serviços e produtos
eram limitados ao seu acervo e, conseqüentemente, sua coleção se restringia aos suportes
utilizados para o registro das informações do seu tipo de acervo ou coleção. Nas
bibliotecas da Antiguidade, estes suportes de registro evoluíram das placas de argila,
passando pelos papiros e pergaminhos para o papel. No final do século XX e início do
século XXI, a Internet veio modificar este contexto, permitindo que a informação eletrônica
ou digital pudesse ser obtida por uma enorme variedade de mecanismos, meios, sistemas
e associação de serviços à própria informação em si. Observa-se a expansão da tecnologia
digital e das redes de comunicação virtual via computador. Surgem o CD-ROM, as
multimídias e o e-book. O uso de novas tecnologias de informação e a associação do
67
De acordo com Hortinha (2001, p.119), em seu livro intitulado E-marketing, a presença na
Internet pode trazer os seguintes benefícios:
(a) melhoria da imagem institucional;
(b) melhoria do serviço aos clientes;
(c) aumento da visibilidade e da marca, produtos e serviços;
(d) expansão para outros mercados;
(e) possibilidade de transações on-line;
(f) redução dos custos de comunicação.
1) função informacional: informações sobre a biblioteca existentes no web site, tais como:
nome da biblioteca, nome da instituição mantenedora, seções da biblioteca, equipe,
notícias e novidades sobre a biblioteca, eventos realizados pela ou na biblioteca, missão da
68
biblioteca, e-mail geral e setorial, telefone geral e setorial, número do fax, endereço físico,
histórico, horário de funcionamento, normas e regulamentos, informações sobre as
instalações físicas, estatísticas, fotos e/ou imagens da biblioteca, relação dos produtos e
serviços oferecidos;
3) função instrucional: instruções sobre o uso dos recursos informacionais oferecidos pela
biblioteca na forma tradicional e on-line existentes no web site, tais como: FAQs (perguntas
mais freqüentes), tutoriais sobre como usar serviços e produtos disponíveis no web site,
informações sobre como usar serviços e produtos oferecidos pela biblioteca, mapa do site
e instruções sobre o uso do site;
O melhor entendimento das TI se faz quando suas influências são observadas nas áreas
onde ela é empregada, assim é possível não só entender seus conceitos, mas,
principalmente compreender o motivo de sua utilização.
Por sua importância, o catálogo foi a primeira coisa a ser digitalizada em muitas bibliotecas
e, posteriormente, a ser disponibilizada na Internet.. Chamado em inglês de OPAC (online
public-access catalog, catálogo público de acesso em rede), referia-se aos documentos
analógicos presentes em determinada instituição, muitas vezes "reunindo" coleções
dispersas por diferentes lugares em uma longa, flexível e única prateleira virtual. A maioria
das bibliotecas universitárias o possui, em seu website, junto com as opções de acesso a
bases de dados digitais, locais ou remotas.
poderoso como o Google... Neste universo, o nível intermediário para localização do texto,
a função da catalogação e indexação, talvez se torne redundante ou desnecessária e
precisa ser repensada.
Leitura recomendada:
REZENDE, Yara, MARCHIORI, Patrícia Zeni. Do acervo ao acesso: a perspectiva da
biblioteca virtual em empresas. Ciência da Informação. Brasília, v.26, n.3, p. 348-352,
set./dez. 1994.
Assim entende Figueiredo (1996), ao determinar que o uso “uma coleção de núcleo”, em
papel, é opção aprazível ao tema. A autora orienta que a demanda exerce papel importante
nesta escolha, contudo cabe acrescentar outro fator importante, a tipologia da unidade de
informação. É difícil antever, na realidade brasileira, uma biblioteca pública, entenda-se
aqui biblioteca escolar, que apenas se utilize de documentos digitais para as “pesquisas”,
ou melhor, para as cópias do dia a dia.
‘O aumento da procura por fontes eletrônicas de informação acaba por exigir que
desenvolvamos novas estruturas para organizar a informação contida nestas novas
‘bibliotecas’, estruturas essas que evoluem e se transformam conforme a tecnologia
permite (...) Encontrá-las, desenvolver políticas para identificá-las e indexá-las, desenvolver
procedimentos para compartilhá-las, repensar a validade dos critérios existentes em face
das necessidades da comunidade virtual, arriscar-se além da etapa da comunidade virtual,
arriscar-se além da etapa determinada pela linearidade da fala e da escrita, representa o
grande desafio aos (ciber) bibliotecários oferecido na época atual (LEVACOC, 1997).’
b) Publicações eletrônicas
74
O trabalho de Almeida et alli (1996) situa o leitor dentro do panorama das publicações
eletrônicas, referindo-se, mais especificamente, às revistas científicas disponíveis na
Internet baseadas na tecnologia Web. Mostra as tendências na utilização de ferramentas
que auxiliam o trabalho de publicação de revistas em meio eletrônico e projetos em curso
no exterior, com número de publicações on-line bastante expressivo. Descreve a
metodologia do Instituto Brasileiro em Informação Ciência e Tecnologia (Ibict) na
disponibilização da revista Ciência da Informação on-line.
Mandel (1997) avança nesta questão quando aborda aspectos relacionados com a
tecnologia de publicação eletrônica, evidenciando que o uso da Internet já mostra uma
direção para mudança do conceito de publicação, servindo a publicação tradicional mais
como uma forma de registro e sancionamento, e não de veiculação. Contempla discussões
sobre como resguardar os direitos autorais, como garantir um sistema de edição e revisão,
como organizar o grande volume de informação e também sobre o que é acervo neste
contexto.
Reflexões sobre a evolução das bibliotecas, que, de minerais chegaram a virtuais, são
apresentadas por Pereira & Rutina (1999). O artigo aborda as implicações que os
documentos eletrônicos (digitais) já estão trazendo às bibliotecas tradicionais do mundo
contemporâneo. Enfatiza a importância da Internet para a comunidade em geral e, em
especial, para os profissionais da informação. Para as autoras, ‘a realidade educacional e
cultural do nosso povo ainda é bastante precária, e muito há por fazer em termos de
instrução fundamental (...). No tocante à informatização de bibliotecas brasileiras,
principalmente as universitárias e aquelas que já haviam informatizado seus catálogos para
acesso em redes locais, passaram a fazê-lo em escala mundial pela Internet.’
Souza (1997) enfoca a biblioteca diante dos recursos da Internet e intranets, reunindo
algumas ferramentas de navegação, ferramentas de busca, denominadas browsers,
informando o endereço dos mais conhecidos e utilizados. Estes mecanismos de busca
75
Finalmente pode-se antever que essa prática afetará profundamente serviços há tempos
desenvolvidos em unidades de informação, tais como o desenvolvimento de coleções.
Assim, a relação direta, ostentada por algumas bibliotecas, da qualidade da biblioteca ou
qualidades dos serviços oferecidos estarem em proporção ao tamanho do acerco já não
será mais real. Agora, tamanho de acervo e qualidade de serviços já não têm mais um
relacionamento direto.
Quanto à entrega de documentos (document delivery ), esta atividade tem sido considerada
o coração dos serviços oferecidos por bibliotecas, editores e outros da indústria da
informação. A entrega de documentos inclui tanto os documentos impressos quanto os
eletrônicos. Embora mecanismos para entrega impressa estejam bem estabelecidos, este
serviço tem se tornado mais eficiente por meio da introdução de pedidos eletrônicos. Além
disso, tem havido rápido desenvolvimento nos últimos anos na entrega de documentos
eletrônicos, particularmente a partir das revistas eletrônicas. Há um número de diferentes
agentes na entrega de documentos, entre eles:
A Web madura, mais conhecida como Web 2.0, vem transformando a rede mundial de
computadores num ambiente cada vez mais interativo, dinâmico e colaborativo. Essas são
algumas das conseqüências positivas dessa nova geração Web. Como conseqüência
negativa podemos citar o aumento substancial do lixo eletrônico presente na rede
produzido pelos usuários. Um problema que, aos poucos, vai ser superado pela ação dos
próprios produtores através da combinação de melhores ferramentas de seleção,
organização e filtragem da informação presentes na Web e pelo aumento do nível de
educação do próprio usuário.
O termo Web 2.0 foi cunhado por Tim O'Reilly (2005) para designar uma segunda geração
de comunidades e serviços baseados na plataforma Web, como aplicações baseadas em
redes sociais e participativas. Mesmo carregando uma conotação de evolução técnica a
Web 2.0 não pode ser confundida com as mudanças tecnológicas cada vez mais
frequentes no cenário das comunicações. Na verdade esse efeito deve ser visto como uma
mudança de comportamento dos usuários frente a Internet, pois usuários mais instruídos e
ativos geram mais interatividade.
O que ocorre na Web de hoje é a mudança de consciência dos utilizadores que a vêem
como um meio de comunicação e informação bem acima de outras mídias e fontes
informacionais onde os fluxos se dão de forma unidirecional. A Web 2.0 permite ao usuário
colaborar com a produção do conhecimento, aumentando dessa forma a consistência da
informação e tornando-a mais verdadeira. Esse fenômeno colaborativo deve ser
incentivado além dos muros invisíveis da Internet, já que o ser humano tem dentro de si um
grande potencial de contribuição para um bem comum.
Um bom exemplo de recurso Web que teve sua ascensão na geração 2.0 são os blogs.
Essas webpages, de autoria pessoal ou coletiva, criadas pelos usuários são caracterizadas
pela facilidade de criação e desenvolvimento, dispensando o conhecimento em linguagens
demarcação, como o HyperText Markup Language (HTML). A instrução tecnológica para
79
manutenção de uma ferramenta de publicação na Web passou a não ser mais um requisito,
causando um aumento surpreendente de páginas Web em um curto espaço de tempo. Os
blogs foram os segundos pioneiros a aderir a tecnologia tag cloud - os primeiros foram os
sites de compartilhamento de conteúdo, como veremos a seguir. Por ser um tipo de site
onde as atualizações são organizadas cronologicamente em ordem inversa, ou seja,
somente o conteúdo recente é visualizado na primeira página, o blog acaba sendo mal
explorado. Com ouso da tag cloud os assuntos predominantes no blog, até mesmo as
postagens mais antigas, podem ser acessados rapidamente clicando na tag que descreve
o assunto.
(GUEDES, 2008)
A Web Semântica ou Inteligente, vem se apresentando como solução para ordenar o caos
informacional existente na web.
Segundo Berners-Lee et alii (2001), a web semântica será uma extensão da web atual
porém apresentará estrutura que possibilitará a compreensão e o gerenciamento dos
conteúdos armazenados na web independente da forma em que estes se apresentem, seja
texto, som, imagem e gráficos à partir da valoração semântica desses conteúdos, e através
de agentes que serão programas coletores de conteúdo advindos de fontes diversas
capazes de processar as informações e permutar resultados com outros programas.
(OLIVEIRA)
Definição
A Web Semântica é um projeto dirigido por Tim Berners-Lee, criador do HTML e da World
Wide Web sob os auspícios do World Wide Web Consortium (W3C). O objetivo deste
projeto é melhorar as potencialidades da Web através da criação de ferramentas e de
80
padrões que permitam atribuir significados claros aos conteúdos das páginas e facilitar a
sua publicação e manutenção.
(http://www.artifice.web.pt/redir.html#pag=00/web-design/02-11-2004-web-semantica.html)
A Web Semântica representa a evolução da web atual. Enquanto a web tradicional foi
desenvolvida para ser entendida apenas pelos usuários, a Web Semântica está sendo
projetada para ser compreendida pelas máquinas, na forma de agentes computacionais,
que são capazes de operar eficientemente sobre as informações, podendo entender seus
significados. Desta maneira, elas irão auxiliar os usuários em operações na web...
O objetivo da Web Semântica é estruturar o conteúdo que está solto na Internet. Para isto é
necessário que agentes percorram a rede, página a página para executar tarefas
consideradas sofisticadas para o usuário. Esses agentes serão capazes de identificar o
significado exato de uma palavra e as relações lógicas entre várias palavras.
Para os computadores entenderem o conteúdo da web é necessário que eles consigam ler
dados estruturados e tenham acesso a conjuntos de regras que o ajudem a conduzir seus
raciocínios. As páginas web terão de ser escritas numa linguagem nova e serem
entendidas por diferentes sistemas.
Algumas tecnologias foram desenvolvidas para a Web Semântica, tais como o XML,
linguagem de marcação que permite aos usuários criarem tags personalizadas sobre o
81
documento criado, diferentemente do HTML, que possui estrutura de tags fixas, impedindo
a criação de novos tipos de descritores...
Outra tecnologia utilizada pela Web Semântica é o RDF, que trabalha com um trio de
informação o qual expressa o significado das informações.
(DZIEKANIAK; KIRINUS)
(http://www.encontros-bibli.ufsc.br/Edicao_18/2_Web_Semantica.pdf)
Objetivos
A Web Semântica é um projeto voltado para WEB que pretende fazer com que toda a sua
informação seja organizada de forma a que não só os humanos, mas principalmente as
máquinas a possam compreender. Isto porque, atualmente, a maioria da informação está
organizada de uma forma que apenas os humanos conseguem entender.
Para um humano, filtrar os resultados de uma pesquisa é uma tarefa relativamente fácil,
mas pode demorar algum tempo e tornar-se bastante desgastante. Para que possamos
colocar as máquinas a desempenhar esta tarefa, é necessário organizar a informação do
site, de forma a que esta faça sentido para as máquinas. O que não deixa de ser curioso, já
que o que o nosso foco é "agradar" às pessoas e não às máquinas!
82
Assim com o XML, a informação seria devidamente identificada de modo que pudesse
manipular os dados de forma que lhe for mais viável, com diversas ferramentas.
2.10.7. Metadados
Definição
Pode-se dizer que metadados são "dados sobre dados". Neste contexto, metadados
referem-se a estrutura descritiva da informação sobre outro dado, o qual é usado para
ajudar na identificação, descrição, localização e gerenciamento de recursos da web.
Entretanto, eles podem ser aplicados em qualquer meio. (DZIEKANIAK)
De forma literal, metadados significa dados sobre dados. Um exemplo comum é um cartão
de catálogo de uma biblioteca, que contém dados sobre os conteúdos e localização de um
livro. Campos comuns de metadados incluem o título, a fonte ou autor, a descrição de
como o recurso pode ser acessado, licença para uso, onde e em que ano foi publicado.
De forma mais geral, trata-se de informação estruturada sobre recursos (digitais e não-
digitais). Os metadados podem ser utilizados para viabilizar uma ampla série de operações
nos recursos. No contexto da OAI, as operações mais comuns são a de descoberta e
aquisição dos recursos. E os recursos podem ser, por exemplo, imagens, livros, obras de
83
arte, músicas, URLs, artigos científicos, entre muitos outros. O formato de metadados mais
amplamente utilizado pela OAI é o Dublin Core.
Ao contrário da HTML que através das marcas pré-definidas gerenciam os textos marcados
e controlam sua representação estabelecendo ligações entre os documentos, a linguagem
XML marca semânticamente um documento. XML consiste em padrão utilizado para
marcação de documentos que contém informações estruturadas, ou seja, documentos que
contém uma estrutura clara e precisa da informação armazenada e obtida com XML. Esta
estruturação define e separa claramente conteúdo, significado e apresentação. Assim os
documentos em XML podem ser indexados com maior precisão que as páginas planas
escritas em HTML.
(OLIVEIRA)
SGML
(Standard Generalized Markup Language)
Definida em 1986
Possibilidade de criação de qualquer conjunto de tags
Padrão comum: DTD (Document Type Definition)
Difícil adoção na Web
Complexidade
84
HTML
(Hypertext Markup Language)
Derivada do SGML
Própria para Web
Extremamente simples
Fácil criação de links hypertexto
Conjunto limitado de tags
Difícil reutilização da informação
Busca por documentos gera muitos resultados irrelevantes
XML
(Extensible Markup Language)
SGML para Web
Especificação mais simples
Formato texto
Descrição de dados estruturados
Número ilimitado de tags
Otimiza entrega de informações
Dados são independentes dos aplicativos ou fornecedores de software
<html>
<head>
<title>Nome da página</title>
</head>
<body>
Texto
85
</body>
</html>
Definição
Resource Description Framework (RDF) é uma linguagem para representar informação na
internet. O RDF tem por objetivo definir um mecanismo de representação de metadados
para descrever recursos não vinculados a um domínio específico de aplicação. Resultado
do trabalho em conjunto desenvolvido por várias comunidades. (DZIEKANIAK)
O RDF recebeu a influência de várias fontes diferentes. As principais influências vieram das
comunidades de padronização da web (HTML, XML e SGML), da Biblioteconomia
(metadados de catalogação), da representação do conhecimento (ontologias), da
programação orientada a objetos, da linguagem de modelagem, entre outras.
A estrutura de descrição de recursos - RDF é composta por três tipos de objetos: recursos,
propriedades e triplas. Um recurso é o que será descrito por uma expressão RDF. Todo
recurso é identificado por um URI (Uniform Resource Identifier, incluindo aí o Uniform
86
Uma tripla é formada por um recurso, uma propriedade e um valor para a propriedade
daquele recurso. Uma tripla possui a seguinte forma <sujeito, predicado, objeto>. O
significado de uma tripla pode ser resumido como: "o recurso (sujeito) que possui a
propriedade (predicado) com determinado valor (objeto)". Um valor ou objeto pode ser
tanto um outro recurso quanto um tipo primitivo definido por XML (Extensible Markup
Language) (BAX; REZENDE, 2001)
2.10.10. XML
Definição
O XML nada mais é do que uma linguagem de marcação de dados (metadados) que
oferece aos seus usuários a descrição de dados estruturados, facilitando declarações
precisas do conteúdo de documentos e mais ainda, facilitando a recuperação destes
documentos via web. (DUARTE; FURTADO JUNIOR, 2000?)
De acordo com os autores supracitados, os arquivos XML são textos para leitura por uma
pessoa assim como o HTML e podem "codificar o conteúdo, as semânticas e as
87
esquematizações para uma grande variedade de aplicações desde as simples até as mais
complexas, dentre elas: - um simples documento, - um registro estruturado tal como uma
ordem de compra de produtos, - um objeto com métodos e dados como objetos Java ou
controle ActiveX, (...) - Todos os links entre informações e pessoas na web."
(DUARTE;FURTADO JUNIOR, 2000?)
A linguagem XML deve respeitar duas restrições: tags devem estar corretamente
aninhadas e atributos devem ser únicos. Quando um documento atende a essas duas
restrições diz-se que um documento é bem formado, sendo possível organizá-lo segundo
uma estrutura de árvore e representá-lo via XML na web, o que auxilia na recuperação da
informação.
(DZIEKANIAK)
88
Objetivos
89
HTML (Hiper Text Markup Language é o padrão utilizado por todos os navegadores
para que os usuários da grande rede de computadores, ou mesmo aplicações rodando na
web tais como máquinas de busca, possam exibir os dados contidos em páginas. Isso é
feito através da definição de tags pré-definidas da linguagem que definem as modalidades
de visualização das páginas.
O problema que surge, é que este conjunto limitado de tags não possibilitam qualquer
forma de interpretação de dados. O primeiro passo dado para vencer este obstáculo
provem do advento do padrão XML (eXtensible Markup language). No XML é possível
personalizar as tags e tratá-las como objetos, ou unidades de informação, atribuindo assim
um significado que é conhecido pela aplicação na qual ela é definida.
O exemplo simples a seguir mostra uma implementação em XML. Perceba que em XML
existem tags específicas para objetos como monitor, modelo etc. Portanto é atribuído
um significado bem definido de certas unidades na página criada. Tais unidades podem ser
então manipuladas por aplicações que conhecem seus significados. É um primeiro passo
em direção a Web Semântica.
90
Exemplo:
<?xml version="1.0"?>
<!-- Microcomputador -->
<microcomputador>
<modelo>
Pentium IV
</modelo>
<velocidade>
1.5 GHz
</velocidade>
<ram>
256MB
</ram>
<monitor>
17 polegadas
</monitor>
<teclado>
Sim
</teclado>
<mouse>
Sim
</mouse>
<estabilizador>
Sim
</estabilizador>
<impressora>
Não
</impressora>
</microcomputador>
(MORAIS)
2.10.11. Folksonomia
O surgimento da World Wide Web (ou simplesmente Web) tem causado uma revolução,
não só na área da Ciência da Computação¸ mas também em toda a sociedade
contemporânea. Hoje em dia, milhões de usuários publicam e têm acesso à informação
livremente na Internet através da Web, fazendo uso da rede com os mais diversos
objetivos.
Com o surgimento da Web 2.0, novos tipos de aplicações que suportam publicação de
materiais, dão espaço a trocas qualitativas realizadas entre pessoas. Primo (2006) aponta
que nesta nova fase da Web os ambientes são criados com tecnologias que priorizam
novas formas de publicação, compartilhamento e organização de informações.
91
Para o autor, os aplicativos Web 2.0 “[...] potencializam processos de trabalho coletivo, de
troca afetiva, de produção e circulação de informações, de construção social de
conhecimento apoiada pela informática” (PRIMO, 2006,p.2).
Anterior a web 2.0, a [...] web era dominada pelos serviços de diretório. O exemplo mais
bem-sucedido foi o Yahoo!, que apesar de hoje ser um conjunto de serviços em constante
evolução, iniciou suas operações como um imenso catálogo de links, divididos de acordo
com uma taxonomia própria. Ao usuário comum ou outro produtor de informação cabia
apenas solicitar ao serviço a inclusão de uma URL para seu site, porém seguindo a
taxonomia do Yahoo!, que enquadrava o link em uma seção já definida. Não era possível,
por exemplo, criar uma nova subseção dentro do sistema. Se o usuário criasse um site
sobre um novo conceito inventado por ele, digamos,¯Sistemas colaborativos”, era
impossível “dizer” ao Yahoo! algo como: “Esta é uma área totalmente nova de pesquisas,
portanto crie uma nova seção para ela e inclua meu link dentro desta categoria”. O Yahoo!
foi, nos seus primeiros anos, exclusivamente um sistema top-down. No Brasil, o site Cadê?
é um exemplo semelhante. Além das regras taxonômicas serem previamente definidas por
seus mantenedores, outras características típicas de um sistema que se estrutura de cima
para baixo eram (e ainda são) observadas. Por exemplo: em uma determinada seção
(serviços de hospedagem), a ordem alfabética dos links é uma regra que pouco tem a ver
com a relevância para o usuário (LACERDA; VALENTE, 2007).
Derivada do termo “folk” que significa pessoa, povo e “taxonomia” que siginifica o estudo da
classificação das coisas, palavra folksonomia quer dizer “classificação feita por pessoas”.
Acreditando que cada indivíduo possui uma lógica ao classificar algo, Thomas Vander Wal
criou a expressão acima para definir a forma como as pessoas identificam o mundo ao seu
redor.
Embora o sistema de etiquetagem não seja algo novo, observa-se que na web social esta
forma colaborativa de organizar conteúdos eletronicamente, está ganhando cada vez mais
popularidade.
Vantagens
Folksonomia tem como base a navegação social onde são exploradas as próprias
preferências do usuário para definir a relevância dos conteúdos. Se por um lado,
buscadores como Google utilizam algoritmos complexos para creditar relevância a um
determinado site, a navegação social utiliza um critério humano simples e interessante: os
próprios usuários escolhem ou votam em um conteúdo, segundo suas opiniões pessoais. O
conjunto de opiniões irá refletir, naquele momento, a avaliação do conteúdo, sem, no
entanto, encerrar as possibilidades de novas alterações.
A idéia por trás dessa nova forma de organizar as informações do site é bem simples:
utiliza o sistema democrático de tagging (etiquetagem/marcação) que reflete a opinião do
público em geral sobre determinado objeto associado à identificação das pessoas que
fazem essa classificação, introduzindo uma abordagem distribuída, inovadora, baseada em
uma classificação social (STURTZ,2008).
Para Vanderlei (2006, p.30) Essa abordagem produz resultados que refletem com mais
exatidão o modelo conceitual da população sobre a informação, tornando a própria
comunidade responsável pela classificação dos dados - algo que seria impossível até para
um exército de bibliotecários experientes, impreciso, se deixado a cargo de sistemas
automatizados.
94
Em uma biblioteca tradicional, por exemplo, é o tesauro (Linguagem Controlada) que vai
determinar o uso deste ou daquele descritor, a fim de que seu entendimento seja favorável
ao contexto dos usuários da biblioteca. Já em ambiente Web, o recurso informacional ao
ser indexado, será usado uma indexação livre, ou seja, em linguagem natural, não são
adotadas regras e/ou políticas de indexação e nem o controle de vocabulários. Os
conteúdos são indexados livremente pelos usuários.
O nome Indexação Social vem ganhando força como equivalente a folksonomia. Grosso
modo, enquanto a indexação propriamente dita é a indexação feita por profissionais
treinados que se utilizam de instrumentos próprios, como Tesauros e Vocabulários
Controlados, a indexação social é uma indexação feita por pessoas comuns, que
compartilham sua forma de olhar o mundo sempre que atribuem uma ou mais palavras-
chave a um recurso web, e compartilham em algum ambiente.
Esta indexação social, feita por indivíduos, provoca questionamentos e reflexões sobre ser
a folksonomia o ressurgimento da indexação manual, mas, desta vez, uma indexação
manual com capacidade para superar a indexação controlada. Conforme Voz (2007)
única em uma tag cloud irá levar o indivíduo a uma coleção de itens que estão associados
com aquela tag.
Desvantagens
Alguns problemas, no entanto, irão surgir dessa indexação social. Pois cada usuário coloca
uma tag com alguma motivação pessoal. De acordo com Cañada (2006), existem 4
motivações existentes ao se criar uma tag:
1. Tags egoístas: são termos usados para que o próprio usuário que o criou possa
encontrar o recurso novamente. Ela tem uma alta motivação para uso, pois é para proveito
próprio.
2. Tags amiguistas: são termos usados para um pequeno grupo de amigos ou grupo social.
O usuário etiqueta um recurso para que seus amigos e companheiros de grupo possam
encontrar os recursos. Tem uma motivação muito alta para uso, pois favorece grupos.
Porém, não serve para grupos extensos ou heterogêneos.
3. Tags altruístas: são termos usados para que os outros encontrem o recurso. É o que é
feito na biblioteca, quando o bibliotecário utiliza os termos mais comuns aos seus usuários.
Ela tem motivação baixa de uso na web, pois não há um benefício direto associado.
4. Tags populistas: são termos de apelo popular utilizados quando se quer que muitos
usuários encontrem o recurso. Tem motivação alta, pois o retorno de acessos é um
benefício.
Noruzi (2007) aponta alguns problemas da folksonomia, que são também problemas
apontados na indexação.
Polissemia: refere-se a uma palavra que tem dois ou mais significados semelhantes. "Poli"
significa "muitos", e "semi" significa "sentidos". Essas ambigüidades entre as tags podem
surgir quando usuários usam a mesma tag em diferentes circunstâncias.
Aquino (2008):
Poderíamos dizer que a folksonomia é uma espécie de vocabulário descontrolado. Isso não
quer dizer que o esquema seja uma desordem total [...]. Na verdade, trata-se de um
97
Definição
Tag Clouds, ou Nuvem de Tags são listas hierarquizadas visualmente, ou seja,
uma forma de apresentar os itens de um website.
A Wikipédia (2008) de língua inglesa define o termo tag cloud como sendo "uma
representação visual das tags geradas pelo usuário, tipicamente usado para
descrever o conteúdo dos sites." Também é conhecida pela expressão inglesa
weighted list (lista ponderada), ou seja, uma relação de conceitos onde o peso
de cada um deles define seu lugar dentro do arranjo visual. Na maioria das tag
cloud ainda existe a opção de visualização por ordem alfabética ou por peso dos
conceitos. Modesto (http://www.ofaj.com.br/colunas_conteudo.php?cod=315)
define a tag cloud como "palavras usadas para ligar conteúdos armazenados
sobre um mesmo assunto [...] uma representação da freqüência de palavras
utilizadas para classificar determinado assunto." Sua função é permitir a rápida
identificação dos temas mais destacados pelos usuários. Por fim apresentamos a
definição de um autor que tem como foco de estudo as Interfaces de
Recuperação da Informação Visual, em inglês Visual Information Retrieval
Interfaces (VIRIs). Hassan-Montero (2006b) define a tag cloud como uma lista de
tags populares,geralmente exibidas em ordem alfabética, e visualmente
ponderada pelo tamanho da fonte, a fim de permitir a navegação visual.
(GUEDES, 2008)
98
Objetivo
Esse recurso foi originado pelas necessidades da Web para aumentar a interatividade do
usuário com o conteúdo das webpages, principalmente de blogs, para fins de organização
e, ao mesmo tempo, criar um ambiente de navegação por conceitos onde a popularidade é
o principal critério de apresentação. Uma vez que o usuário clica sobre uma tag do grupo,
obtém uma lista ordenada de recursos descritos por aquela etiqueta, como também uma
lista de etiquetas relacionadas com a primeira, possibilitando continuar a navegação.
(GUEDES, 2008)
Exemplos
http://www.librarything.com/tagcloud.php
http://technorati.com/tag/
http://delicious.com/tag/
http://www.flickr.com/photos/tags/
http://dublincore.org/about/
http://www.infodocs.com.br/fainc/dublincore/
Embora o Dublin possa ser usado para descrever materiais em formatos tradicionais, o seu
impulso maior tem sido para descreve recursos eletrônicos disponíveis na Internet.
Consiste de um conjunto de 15 (quinze) elementos de metadados, equivalentes a uma
ficha catalográfica, os quais podem ser considerados como o mais baixo denominador
comum para descrição de recursos de informação (Weibel,1997).
Desde de 1996, o Dublin Core Metadata Element Set, ou simplesmente Dublin Core, vem
se evidenciando como a solução mais viável para descrição de recursos eletrônicos na
Internet. Projetos de construção de ferramentas baseadas no Dublin Core têm aumentado
significativamente, assim como a quantidade de documentos disponíveis na Web que
contém suas próprias descrições no formato Dublin Core.
The Nordic Metadata Project - primeiro projeto internacional a optar pelo Dublin Core
e a desenvolver ferramentas para geração, coleta e indexação de metadados. Estão
envolvidos os países escandinavos: Finlândia, Noruega, Dinamarca, Suécia e
Islândia (Hakala et al., 1998).
The Donor Project - (National..., 1999) - projeto desenvolvido pela Biblioteca
Nacional da Holanda. Adota o padrão Dublin Core na gestão de metadados e possui
ferramenta para gerar metadados.
101
Não basta possuir uma linguagem flexível como o XML para construir metadados. Para
compartilhar um significado, é necessário que este seja consensual e inteligível de forma
não ambígua entre todos os participantes de uma comunidade. Para resolver o problema
da explosão de nomenclaturas diferentes e as várias situações em que a interpretação dos
dados de maneira unívoca não é possível, foram criados, no escopo do projeto da Web
Semântica, alguns padrões de metadados, de construção de código XML e uma nova
significação para o termo ontologias, como vemos a seguir.
O Elemento de Metadados Dublin Core Simples (Core Metadata Element Set, DCMES)
consiste de quinze elementos de metadados:
Title: Título
Creator: Criador
Subject: Assunto
Description: Descrição
Publisher: Publicador
Contributor: Contribuidor
Date: Data
Type: Tipo
Format: Formato
Identifier: Identificador
Source: Origem
Language: Idioma
Relation: Relação
Coverage: Abrangência
102
Rights: Direitos
Segundo Lagoze et al. (1996) o Dublin Core pretende ser simples e, para facilitar o uso
pelos criadores e mantenedores de documentos web, descritivo o suficiente para auxiliar na
recuperação de recursos na Internet.
Isto gera um paradoxo: os descritores fornecidos pelo DC, por serem genéricos e simples,
não cobrem a total necessidade de descrição dos recursos, pois dependendo da aplicação
a que se refere um recurso, não se encontram descritores apropriados, ou que, no mínimo,
possam ser aproveitados.
Para sanar esta ausência, foram desenvolvidos elementos extras que complementamos 15
elementos definidos pelo DC, que podem ser denominados de qualifiers. Estes qualifiers
são avaliados pelo DCMI (Dublin Core Metadata Iniciative) para fazerem parte do conjunto
de descritores às aplicações.
Comunicação científica
Meadows usando a metáfora de Isaac Newton: "Se enxerguei mais longe foi porque me
apoiei nos ombros de gigantes", afirma que a comunicação envolvia: "[...] a acumulação e o
fornecimento de informações sobre o próprio trabalho a outras pessoas e, em troca, o
recebimento de informações dessas pessoas." Ainda lembra que: como esse "[...]processo
de acumulação estendia-se no tempo, as informações deveriam ser divulgadas numa forma
durável e prontamente acessível."
Entre a comunidade circula a literatura científica, são publicações que contemplam toda a
documentação dos trabalhos que os cientistas produziram, visando-os tornar público e
parte integrante do corpo universal do conhecimento denominado ciência (MUELLER,
103
1995, p. 64). Podem ser: artigos, trabalhos apresentados em eventos, resumos, cartas,
relatórios,teses, etc.
(MORAES, 2006)
104
Periódico eletrônico
Surgiu com a expectativa de agilizar a comunicação, trazer facilidade no acesso, melhorar
o alcance e baratear os custos de publicação. Segundo Mueller (2003, p. 83) apresenta
algumas características comuns: meio versátil e rápido; a divulgação pode acontecer logo
após a conclusão; com boa conexão de Internet, inexistem barreiras geográficas e
hierárquicas (o material pode ser enviado e apreciado por autoridades no assunto sem
burocracia ou maiores esforços); e permite a recuperação por diferentes modos.
Preprint é considerado como "[...] o nome dado à versão original de um artigo ainda não
publicado oficialmente [...] não são normalmente sujeitos à avaliação prévia." (MUELLER,
2003, p. 87)
Alguns autores também usam o termo acesso aberto (Open Acess) e nessa perspectiva
Costa (2006) afirma: "[...] trata-se da acessibilidade ampla e irrestrita a conteúdos
disponíveis em formato digital, no sentido em que, como observa Suber (apud Bailey Jr,
2006) 'remove barreiras de preço e de permissão... tornando a literatura científica
disponível com o mínimo de restrições de uso'."
[...] é possível que a OAI tenha contribuído para a organização do Movimento de Livre
Acesso. Trata-se, portanto, de dois movimentos distintos, ambos desejam o livre acesso, e
por isso, estão inseridos no modelo baseado do Open Acess, traduzido aqui como acesso
livre no sentido de acesso público e gratuito.
Para garantir a comunicação entre os diferentes arquivos foi necessário criar o Open
Archives Initiative - Protocol for Matadada Harversting (OAI-PMH). Para Marcondes; Sayão
(2002):
[...] é um protocolo que provê interoperabilidade não imediata (ou seja, não é,portanto, um
protocolo para busca on-line) entre repositórios de e-prints, bibliotecas digitais ou qualquer
106
servidor na rede que queira expor, ou seja, tornar visíveis documentos nele armazenados
para um programa externo que queira coletá-los.
(MORAES, 2006)
Objetivos
107
Vantagens
Maior rapidez na disseminação da literatura científica publicada nesses repositórios
Acesso livre => Maior Rapidez na disseminação da IC
Maior visibilidade dos trabalhos publicados
Maior impacto
Acesso livre => Maior Visibilidade => Maior possibilidade de ser citado
Maior interoperabilidade com outros repositórios
OAI-PMH (Open Archives Initiative Protocol of Metadata Harvesting)
(KUAMOTO, Ibict)
108
http://bdtd.ibict.br/ http://www.teses.usp.br/
Coleta via
OAI-PMH
Agregador
Histórico
Do esforço de melhorar o acesso e a comunicação entre esses repositórios surge a OAI,
quando um grupo de cientistas da computação, bibliotecários e os responsáveis pelos
repositórios se reuniram em 1999, na Convenção de Santa Fé, Novo México. Nessa
reunião traçam os requisitos básicos para um novo sistema de publicação científica e
determinam três questões técnicas principais: adoção do protocolo Dienst (mais tarde
passou para OAI-PMH); estabelecem metadados padronizados através dos quinze
elementos do Dublin Core e a criação do UPS (The Universal Preprint Service) que visava
apoiar os serviços de usuários finais com os dados das iniciativas existentes até então.
Esse software foi protótipo do Eprints, desenvolvido pela University of Southampton e
adotado pela OAI.
Cite Base - provedor de serviço que coleta metadados de diversos repositórios e fornece
análise de citação dos trabalhos (MARCONDES, 2006). (http:// www.citebase.org/)
PKP (Public Knowledge Project) - Desenvolveu o sistema OJS (Open Journal System)
para publicação e gestão de periódicos eletrônicos. O IBICT disponibiliza essa ferramenta
em português sob o nome Sistema Eletrônico de Editoração de Revistas (SEER) (NEVES,
2004). (http://seer.ibict.br/ )
Com o lançamento do SEER, o IBICT inicia um novo ciclo, no âmbito da filosofia do Open
Access, para a edição de publicações eletrônicas. O esforço, em última instância, visa ao
repasse do software à comunidade de editores de publicações eletrônicas, subsidiando a
melhoria do padrão editorial de publicações nacionais.
(http://www.ibict.br/secao.php?cat=seer )
(IBICT)
3. INTERNET
A comunicação via Internet pode ser de diversos tipos: Dados, Voz, Vídeo e Multimídia.
No entanto, alguém que passe certo tempo surfando na Web acaba por encontrar "o bom,
o mau e o feio", isto porque, devido à abertura do sistema, qualquer pessoa pode colocar
qualquer tipo de informação na Internet. Não existem avaliações prévias do que é
disponibilizado. O acúmulo de informações sem relevância aponta para a necessidade de
filtros que permitam a recuperação de informações de qualidade e com maior revocação.
não representam senão a matéria prima de um processo intelectual e social vivo, altamente
elaborado (LEVY, 1998, p. 3).
Era o auge da Guerra Fria, e os cientistas queriam uma rede que continuasse de pé em
caso de um bombardeio. Surgiu então o conceito central da Internet : uma rede em que
todos os pontos se equivalem e não há um comando central. Assim, se B deixa de
funcionar, A e C continuam a poder se comunicar.
O nome Internet propriamente dito surgiu bem mais tarde, quando a tecnologia da ARPAnet
passou a ser usada para conectar universidades e laboratórios, primeiro nos EUA e depois
em outros países. Por isso que não há um único lugar ou uma única instituição que
"governa" a Internet.
Nos anos 80, a Internet foi aberta às redes internas das empresas e a outras sub-redes,
sendo que em 1987 passou a ser permitido a utilizadores domésticos ter em também
acesso. Até ao final dos anos 80, a Internet espalhou-se um pouco por todo o mundo.
Em 1992, Tim Berners-Lee criou a World Wide Web, um serviço da Internet que
possibilitava a partilha de documentos multimédia baseados em hipertexto, ou seja,
dotados de uma estrutura de navegação que permitia, através de hiperlinks, a passagem
de umas secções a outras com um simples clique do mouse. Centenas de milhares de
pessoas começaram a pôr informações na Internet, que se tornou uma mania mundial.
Hoje ela é um conjunto de milhares de redes no mundo inteiro. O que essas redes têm em
comum é o protocolo TCP/IP (Transfer Control Protocol / Internet Protocol ), que permite
113
que elas se comuniquem umas com as outras. O protocolo é a língua comum dos
computadores que integram a Internet.
Uma das dúvidas mais freqüentes sobre a Internet é: quem controla seu funcionamento? É
inconcebível para a maioria das pessoas que nenhum grupo ou organização controle essa
ampla rede mundial. A verdade é que não há nenhum gerenciamento centralizado para a
Internet. Pelo contrário, é uma reunião de milhares de redes e organizações individuais,
cada uma delas é administrada e sustentada por seu próprio usuário. Cada rede colabora
com outras redes para dirigir o tráfego da Internet, de modo que as informações possam
percorrê-las. Juntas, todas essas redes e organizações formam o mundo conectado da
Internet. Para que redes e computadores cooperem desse modo, entretanto, é necessário
que haja um acordo geral sobre alguns itens como procedimentos na Internet e padrões
para protocolos. Esses procedimentos e padrões encontram-se em RFCs (requests for
comment ou solicitações para comentários) sobre os quais os usuários e organizações
estão de acordo. (http://www.brasilescola.com/informatica/internet.htm)
A maioria das pessoas conhece a Internet pela Web, contudo a rede não se restringe
apenas a esse tipo de acesso, ainda a Internet oferece inúmeros serviços e modos de
acesso, tais como: FTP (file transfer protocol), Telnet, e-mail, WAIS, GOPHER etc.
Conexão à Internet
Provedor de acesso: é uma empresa que provê acesso à Internet aos seus clientes
através da manutenção de uma central de linhas telefônicas exclusivas ligadas aos seus
servidores de serviços Internet.
Dial-up
Conexão por linha discada, também denominada dial-up é um tipo de acesso à Internet no
qual uma pessoa usa um modem e uma linha telefônica para se ligar a um nó de uma rede
115
Banda Larga
Banda larga é o nome usado para definir qualquer conexão acima da velocidade padrão
dos modems analógicos (56 Kbps). Usando linhas analógicas convencionais, a velocidade
máxima de conexão é de 56 Kbps. Para obter velocidade acima desta tem-se
obrigatoriamente de optar por uma outra maneira de conexão do computador com o
provedor. Atualmente existem inúmeras soluções no mercado.
3.2.1. Backbone
Backbone significa “espinha dorsal”, e é o termo utilizado para identificar a rede principal
pela qual os dados de todos os clientes da Internet passam. É a espinha dorsal da Internet.
Esta rede também é a responsável por enviar e receber dados entre as cidades brasileiras
ou para países de fora. Para que a velocidade de transmissão não seja lenta, o backbone
utiliza o sistema “dividir para conquistar”, pois divide a grande espinha dorsal em várias
redes menores.
Quando você envia um email ou uma mensagem pelo MSN, as informações saem do seu
computador, passando pela rede local para depois “desaguar” no backbone. Assim que o
destino da mensagem é encontrado, a rede local recebe os dados para então repassar
para o computador correto.
Para entender melhor o conceito, pense no backbone como uma grande estrada, que
possui diversas entradas e saídas para outras cidades (redes menores). Nesta estrada,
trafegam todos os dados enviados na Internet, que procuram pela cidade certa a fim de
entregar a mensagem.
(SILVA. Disponível em: <http://www.baixaki.com.br/info/1713-o-que-e-backbone-.htm>)
116
URL: significa Uniform Resouce Locator. Uma URL é um endereço virtual que indica
exatamente onde as informações da empresa ou da pessoa se encontram. A primeira parte
do endereço indica que protocolo está sendo usado e a segunda parte do endereço
especifica o domínio onde o recurso está localizado, no formato
http://www.domínio.tipododominio.sigladopaís.
www Significa que esta é uma página Web ou seja, aqui é possível visualizar imagens,
textos formatados, ouvir sons, músicas, participar de aplicações desenvolvidas em Java ou
outro script. Resumindo é a parte gráfica da Internet. Obs.: não é preciso digitar o WWW
em muitos endereços da web.
Domínio: é o nome de uma área reservada num servidor Internet que corresponde ao
endereço numérico de um website (endereço IP). No Brasil, os domínios sempre terminam
com .br (sigla do Brasil na Internet) e podem apresentar vários tipos (.com para empresas
comerciais, .org para empresas não comerciais, etc.). Ex: aisa.com.br é um domínio
brasileiro do tipo comercial (o mais comumente usado).
118
3.4. Telnet
O acesso Telnet não foi popularizado porque é feito por linha de comando, ou seja,
não possui imagens, links, icones e outras facilidades, mas sim, comandos – como
119
o antigo DOS – que devem ser digitados pelo teclado. O visual de uma conexão
via Telnet é semelhante ao que se tem em BBS's de interface DOS, e a operação
do computador remoto se dá da mesma forma, ou seja, através de uma linha de
comandos Unix ou a partir de um menu de comandos disponíveis que sempre se
apresenta em algum lugar da tela.
Links:
Catálogo da biblioteca da Universidade da Pennsylvania: lias.psu.edu
Informações científicas e tecnológicas. Digite public na conexão: stis.nsf.gov
3.5. e-mail
Para possuir um correio eletrônico é preciso ter uma conta num provedor de
Internet como o UOL, ou utilizar os provedores e e-mail gratuitos, como o HotMail.
O correio eletrônico é um tipo de correio disponível pela Internet onde você usa
uma caixa postal eletrônica simbolizada por um endereço do tipo
seunome@nomedoseuprovedor.com.br. Esta caixa postal eletrônica tem o mesmo
conceito da caixa postal tradicional: sabendo do endereço da sua caixa postal,
qualquer pessoa poderá enviar uma mensagem eletrônica para você. Todas as
mensagens enviadas para você ficam armazenadas nos servidores de e-mail do
121
seu provedor até a hora em que você acesse a Internet (você precisa estar
conectado à Internet para receber seus e-mails) e dê o comando para recebê-las,
baixando-as para o seu microcomputador pessoal.
3.9. Blog
3.10. Videoconferência
3.11. RSS
As pessoas precisam fazer suas buscas na web para encontrar assuntos do seu
interesse, mas isto pode tornar-se uma tarefa difícil quando existirem muitas e
variadas fontes de informação que interessam. E a dificuldade existe pela
necessidade de se abrir cada uma das fontes, lembrar como a informação está
formatada e ainda procurar o último assunto visitado, para se chegar nas
novidades ou assuntos ainda não lidos em cada site.
125
RSS (Really Simple Syndication ou Rich Site Sumary) é um formato XML que
permite a sindicalização de listas de links, juntamente com outras informações, ou
metadados, que visam a fornecer aos usuários informações rápidas para ajudar a
decidir se querem ou não visitar os conteúdos apontados nos links...
Para habilitar esta tecnologia o Web site desenvolve um arquivo feed, ou um canal
que é colocado no servidor como normalmente é feito com qualquer uma de suas
páginas. Uma vez disponibilizado o feed, os computadores poderão fazer uma
busca regular e programada pelos feeds e encontrar novos itens acrescentados
nas listas (ou seja, novidades publicadas no site). Para estas buscas, na maioria
das vezes as pessoas se utilizam de um agregador, que nada mais é do que um
programa capaz de gerenciar as listas e apresentá-las ao usuário em uma
interface própria.
(http://www.maujor.com/tutorial/rsstuto.php)
Para que você possa ser notificado sobre novas atualizações e etc... você terá que
instalar um RSS Reader. Existem diversos tipos no mercado, desde um simples
notificador até alguns com integração com o MSOutlook. Exemplos: RSS Reader,
NetNewsWire, My Yahoo! etc. (UOL)
126
<?xml version="1.0"?>
<rss version="2.0">
<channel>
<title>Example Channel</title>
<link>http://example.com/</link>
<description>My example channel</description>
<item>
<title>News for September the Second</title>
<link>http://example.com/2002/09/01</link>
<description>other things happened today</description>
</item>
<item>
<title>News for September the First</title>
<link>http://example.com/2002/09/02</link>
</item>
</channel>
</rss>
(http://www.maujor.com/tutorial/rsstuto.php)
É através do FTP que podemos fazer com segurança o download (baixar da rede)
e o upload (mandar para a rede) de arquivos diversos na Internet, como MP3,
executáveis de programa, arquivos compactados etc. A interface WWW também
permite a transferência de arquivos contudo o FTP é preparado para minimizar as
falhas que podem ocorrer durante a transferência.
Dois elementos são marcantes nesta mudança estrutural: o primeiro deles é o foco
na participação, que principalmente através da Internet, torna-se o carro chefe da
popularização dessas tecnologias. O segundo é que essa participação dá-se em
uma escala global, nunca antes proporcionada por nenhum meio de comunicação
a indivíduos. É nesse âmbito que o foco nas chamadas "redes sociais" retorna à
discussão. Nesse contexto, observamos novas práticas sociais que emergem da
apropriação desses sistemas, primeiro com a popularização das salas de bate-
papo, depois com ferramentas como fóruns, blogs, fotologs e, finalmente, através
dos chamados sites de redes sociais.
Foi o surgimento desses sites (a partir de 1997, com o Six Degrees) e sua
posterior popularização (a partir de 2002, com o Friendster) que banalizou o uso
do termo "rede social" para os grupos formados na Internet. Sites de redes sociais
são caracterizados principalmente pela exposição pública da rede de conexões de
um indivíduo, que mostra aos demais quem são seus amigos e a quem está
conectado; e pela construção de representações das pessoas ali envolvidas. (Esta
última, enquanto fator necessário para que a primeira possa emergir.) Assim, as
redes sociais na Internet não podem ser confundidas com a ferramenta que as
suporta; são, por si, expressões de grupos sociais, de pessoas e instituições que
estão permanentemente interconectadas pelas novas tecnologias de comunicação
e informação. São constituídas pelas representações das pessoas (os perfis no
Orkut, as páginas pessoais e etc.) e as conexões que existem entre essas
representações ("amigos" no Orkut, links em um blog, etc.).
3.14. Internet2
3.15. Intranet
129
Intranet é uma rede local de computadores (ou seja, restritos a uma determinada
área, prédio ou instituição) que utiliza a mesma tecnologia desenvolvida para a
Internet.
hom e page
Exemplo de estrutura de um web site:
p á g in a p á g in a p á g in a p á g in a
131
A criação de um web site pode ser feita a partir de um editor de textos onde são
especificadas as linhas do código fonte do documento. Porém, existem editores
específicos para HTML como o Front Page da Microsoft. Nestes editores é
possível construir uma página sem ter conhecimentos dos comandos em HTML.
Apesar de parecer simples a utilização desses softwares é indicada quando já se
possui conhecimentos da linguagem de marcação.
Outro componente da página HTML, e talvez o mais importante, é o link. Links são
ligações a outras páginas do conjunto ou mesmo a páginas externas ao web site
criado. O link pode também abrir uma imagem, arquivo de som ou vídeo.
A possibilidade dessas ligações permite a Web trabalhar com a estrutura
hipertextual nos documentos. Desse modo pode-se deixar a cargo do usuário a
decisão de seguir conteúdos de acordo com os próprios interesses.
Em relação ao item ‘5’, para melhor concebermos nosso site a estrutura deve ser
determinada com recursos de fluxogramas Podemos entender uma estrutura
simples de ligações através do seguinte exemplo de um site pessoal contendo três
páginas:
Conteúdo:
A página principal, home page, contém a apresentação e links para páginas de
currículo e hobby;
A pagina sobre o currículo, além do texto, contém um link para uma página
externa de uma Faculdade.
A pagina sobre hobby, além do texto , contém, um link para uma pagina
externa sobre natação.
W e b s ite p e s s o a l
T e x to d e a p re s e n ta ç ã o
li n k p a r a m e u c u r r ic u l o
li n k p a r a m e u h o b b y
F a c u ld a d e E m p re s a S it e s o b re n a t a ç ã o
editores com os quais estamos digitando o texto. Para vermos o resultado final é
preciso:
a) concluir os comandos
b) salvar o arquivo (tipo texto) com a extensão ‘html’
c) visualizar em um browser abrindo o arquivo criado
pagina1.html _______________________________________________________
Ainda no exemplo 1, vemos que a segunda linha esta envolvida pelo comando
<b>, ele transformará o texto em negrito.
Muitos dos comandos de marcação, são pares: <b> e </b>,. sendo que, na
maioria das vezes, o delimitador final de etiqueta será quase igual ao seu inicio,
exceto pela presença de uma barra / antes do seu símbolo.
Assim, no exemplo acima, a etiqueta <b> diz ao browser para começar a indicar
as letras em negrito e, a etiqueta </b> indica ao browser que o texto em negrito a
136
Para criar uma página na Internet você só precisa criar um arquivo (texto)
idêntico ao exemplo, acima, e salvar com extensão .html (nome_do_arquivo.hrml).
Toda página em HTML deve começar pelo comando <html>, é a primeira linha de
código do documento. Esse comando deve ser fechado apenas no final do
documento, isto é a última linha do documento. Todos os demais comandos
HTML devem ser especificados entre <html> e </html>
Este comando tem como finalidade envolver alguns comandos relacionados com a
identificação da página tais como o título que aparecerá na barra de título da
janela ou o URL base do documento. Todo o conteúdo especificado na seção
HEAD não aparece na página visualizada.
O título além de possuir sua função interna, nomear cada página, em alguns casos
também serve, numa função externa, para a determinação de assunto da página.
Esses casos ocorrem quando a página é cadastrada em sites de pesquisa e o
próprio mecanismo desses sites determina que as palavras-chave que
descreveram o assunto da página serão as que compõem o título.
A diretiva inicial para a etiqueta título é <title>; seu fechamento se dá por </title>.
138
Os comandos HEAD e TITLE são usados num mesmo conjunto, veja abaixo:
Sintaxe:
pagina2.html ________________________________________________________
<html>
<head>
<title>Aqui deve estar o título da página </title>
</head>
</html>
____________________________________________________________________
pagina3.html _______________________________________________________
<html>
<head>
<title>Aqui deve estar o título da página </title>
</head>
<body>
</body>
</html>
____________________________________________________________________
Insere uma quebra de parágrafo no texto, ou seja salta uma linha e adiciona um
espaço em branco. Este comando funciona sem a necessidade do fechamento. O
comando deve ser inserido no término do parágrafo.
No documento HTML não basta pressionar a tecla enter para o salto de linha.
quando o documento estiver sendo digitado, num editor de texto, devemos antes
de pressionar a tecla enter, inserir o comando <p>.
Para um documento que não for utilizado o comando <p>, como o seguinte:
140
pagina4.html ________________________________________________________
Este é um texto.
Ele não terá o comando de parágrafo...
E conterá três linhas de texto.
E FIM.
____________________________________________________________________
pagina5.html _________________________________________________________
<html>
<head>
<title> Aqui deve estar o título da página </title>
</head>
<body>
Texto do documento em HTML <p>
Outra linha de texto do documento HTML<p>
Esta linha não terá o espaço em branco para a linha posterior.<br>
Esta linha será mostrada sem um espaço em branco da linha anterior.<p>
</body>
</html>
____________________________________________________________________
Lembre-se o browser ignora qualquer espaço entre linhas feito com a tecla enter,
use sempre o comando br.
141
4.11. Cabeçalhos
<H3>Cabeçalhos</H3>
pagina6.html __________________________________________________________
<html>
<head>
<title> Aqui deve estar o título da página </title>
</head>
<body>
<h1> Cabeçalho do texto </h1>
Texto do documento em HTML <p>
Um link num documento pode ser entendido como uma área sensível ao cursor.
No momento em que o cursor é posicionado na região e ativado (clique) é
solicitada a abertura de outro arquivo, ou seja, é aberto outro documento em html
ou um arquivo de som, imagem etc.
Também, precisamos indicar o lugar para a conexão do link, isto é, a área sensível
da página. Para isso podemos utilizar uma frase de referência, o qual será
mostrada de modo sublinhado. Por exemplo podemos usar a seguinte frase:
Clicando aqui você verá a Segunda página.
pagina7.html ________________________________________________________
<html>
<head>
<title> Aqui deve estar o título da página </title>
</head>
143
<body>
<h1> Cabeçalho do texto </h1>
Texto do documento em HTML <p>
Um link também pode ser feito para uma página que não pertença ao conjunto que
você criou. Para isso é necessário especificar todo o endereço da página no local
do nome_do_arquivo.ext.
Um exemplo é criar um link para o site da FATEA que possui o seguinte endereço:
http://www.regra.com.br/escolas/icjesus/.
Faz com que o texto fique intermitente (pode não funcionar em alguns browsers).
pagina8.html ________________________________________________________
<html>
<head>
<title> Aqui deve estar o título da página </title>
</head>
<body>
<h1> Cabeçalho do texto </h1>
<b>texto em negrito</b><p>
<i>texto em itálico</i><p>
<u>texto sublinhado</u><p>
texto<sup>sobrescrito</sup><p>
texto<sub>subescrito</sub><p>
<blink>texto pulsante</blink><p>
</body>
</html>
____________________________________________________________________
145
4.19. Fontes
O comando <font> é pode especificar vários atributos na mesma linha, tais como
tamanho da letra, cor da letra etc.)
pagina9.html _________________________________________________________
Texto com fonte padrão (fonte 3)<p>
Este comando altera a cor das fontes utilizadas. A sintaxe interna é, após ‘color=’,
envolver o código de cor com aspas.
Exemplo para a cor azul. Código para azul é #0000FF (zero, zero, zero, zero,
efe, efe)
fonte azul: <font color=”#0000FF”> a fonte desse texto será azul</font>
Tabela de cores:
Blue #0000FF
Black #000000
Green #00FF00
Red #FF0000
White #FFFFFF
147
Yellow #FFFF00
Uma tabela completa de cores pode ser visualizada através do arquivo ‘cores.html’
pagina11.html ________________________________________________________
<html>
<head>
<title> Aqui deve estar o título da página </title>
</head>
<body>
<h1> Cabeçalho do texto </h1>
<img src=fanda2.gif>
</body>
</html>
____________________________________________________________________
Para que nossa página seja realmente visualizada em qualquer browser será
preciso uns requintes a mais, como no caso dos caracteres especiais.
Exemplo:
letra ‘é’ = é
Para a palavra ‘café’ teríamos café.
148
páginas Web como, por exemplo: título, autoria, figuras, etc. Como afirma Ferneda
(2003) uma página Web pode incluir tags que redirecionem para outras URLs,
estas ligações são chamadas de links e formam uma estrutura complexa que
caracteriza a adoção do termo Web, teia em inglês. As tags de uma página em
HTML informam aos browsers como o documento deve ser apresentado,
descrevendo sua aparência e forma de apresentação.
Sua maior vantagem também é fonte de problemas,ao utilizar as tags para definir
forma e estrutura ao mesmo tempo, a linguagem HTML impossibilita a atribuição
de significados aos conteúdos das páginas Web, comprometendo a eficácia na
recuperação da informação nos ambientes Web através das ferramentas de
busca.
Os motores de busca não possuem uma organização hierarquizada dos sites que
compõem sua base de dados. Procuram armazenar o maior número possível de
recursos informacionais através de softwares de busca denominados de robôs.
Estes robôs varrem a Web seguindo os links, descrevendo e indexando de forma
automática as informações coletadas. Encontra-se na literatura especializada
diversas denominações para os robôs de busca:aranhas (spiders), agentes,
viajantes (wanderers), rastreadores (crawlers) ou vermes (worms).
(CENDÓN,2001;SANTARÉM SEGUNDO,2004)
A maioria dos motores de busca indexa, ou seja, inclui em seu índice, cada
palavra do texto completo, apenas o URL as palavras que ocorrem com freqüência
ou palavras e frases mais importantes contidas no título ou nos cabeçalhos e nas
primeiras linhas, por exemplo Alguns motores indexam outros termos que não
fazem parte do texto visível, mas que contém informações importantes e úteis.
(CENDÓN,2001,p.42)
Search engines: são websites para consulta à base de dados que contenham
informação do conteúdo de páginas da Internet.
Links:
Os Melhores Diretórios e Search Engines para busca na Web:
Google: http://WWW.google.com
Altavista: http://WWW.altavista.com
Yahoo: http://WWW.yahoo.com
MetaCrawler: http://WWW.metacrawler.com
Search Engines são sites através dos quais é possível localizar na Web sites que
apresentem conteúdo sobre determinado assunto. Sem estes instrumentos seria
impossível navegar efetivamente na Internet e localizar o que se deseja encontrar.
Existem vários tipos destes instrumentos a nossa disposição, cada um fazendo a
mesma função com algumas peculiaridades.
153
5.2. Diretórios
Os sites coletados passam pela seleção, na maioria das vezes, por seres
humanos, os editores, que tomam conhecimento de novos recursos por meio de
sugestões de usuários, de pesquisas na Internet (em listas de anúncios de novas
páginas e atualizações, por exemplo), ou ainda, pelo uso de robôs para coletar
novos URLs. O número de editores empregados, que pode variar de 30 (utilizados
pelo Snap * ) a mais de 15 mil (como no caso do Open Directory da Netscape), é
um sinal da qualidade e atualização dos dados, mas não uma garantia. Embora
normalmente os critérios para seleção utilizados não sejam divulgados, apenas os
melhores recursos são escolhidos para inclusão. Apesar desta triagem, devido à
enorme quantidade de sugestões, centenas de sites podem ser acrescentados
semanalmente. Os grandes diretórios podem conter dezenas de milhares de
categorias e subcategorias e mais de um milhão de sites.
ALIWEB (Archie-Like Indexing on the Web) e Harvest são exemplos das primeiras
tentativas de criar motores de busca por palavras-chave, e utilizavam tecnologias
diferentes das atuais. O primeiro dos motores baseados em robôs foi o
WebCrawler, lançado em abril de 1994. Todos os motores atuais utilizam o método
de robôs sendo formados por quatro componentes: um robô, que localiza e busca
documentos na Web; um indexador, que extrai a informação dos documentos e
constrói a base de dados; o motor de busca propriamente dito; a interface, que é
utilizada pelos usuários.
Os motores de busca podem usar vários robôs que trabalham em paralelo para
construir sua base de dados. Por exemplo, o Excite empregava, no começo do
ano 2000, cerca de 10 aranhas para pesquisa na rede. Ela anunciou que deverá
157
acrescentar outra dezena delas, cada uma com a capacidade para cobrir 50
milhões de páginas da Internet. Na coleta de páginas para suas bases de dados, a
maioria dos motores de busca permite também que os usuários sugiram URLs, em
vez de esperar que os documentos sejam encontrados através da varredura
realizada regularmente pelos robôs.
A interface, normalmente uma página Web, é utilizada pelos usuários para efetuar
a pesquisa na base de dados. Fornece meios para que o usuário formule a sua
consulta, que é recebida e transmitida para o software de busca ou motor de
busca propriamente dito. Este é um programa que localiza, entre os milhões de
itens na base de dados, aqueles que devem constituir a resposta. O programa
também é responsável pela ordenação dos resultados, de maneira que os mais
relevantes apareçam em primeiro lugar na lista de resultados. Os resultados
mostrados contêm uma lista de descrições de sites e seus links.
A maioria dos motores de busca indexa, ou seja, inclui, em seu índice, cada
palavra do texto visível das páginas. Entretanto, alguns extraem, em vez do texto
completo, apenas o URL, as palavras que ocorrem com freqüência, ou palavras e
frases mais importantes contidas no título ou nos cabeçalhos e nas primeiras
linhas, por exemplo. Alguns motores indexam também outros termos, que não
fazem parte do texto visível, mas que contêm informações importantes e úteis.
Exemplos deste tipo de texto são os textos incluídos nos metatags para
classificação, descrição e palavras-chave e texto ALT do tag Image, ou seja, texto
associado com imagens. Os metatags de classificação fornecem uma palavra-
chave que define o conteúdo da página. Os de descrição retornam à descrição da
página feita pelo seu autor no lugar do resumo que o robô criaria
automaticamente. Os de palavras-chave fornecem as palavras-chave designadas
pelo autor para descrever seu conteúdo ou assunto. Por exemplo, no metatag
<META name=”keyword” content=“Brasil, informação para negócios”>., as
palavras Brasil e informação para negócios podem não fazer parte do texto visível
da página, entretanto foram indicadas pelo seu autor como indicadores do assunto
sobre os quais a página versa. (...)
(CENDÓN, 2001)
5.6. Metabuscadores
Alguns buscadores reúnem o poder dos outros buscadores para produzir ainda
mais resultados. São os chamados "metabuscadores". Trata-se de programas que
irão procurar a palavra solicitada em vários mecanismos de busca e diretórios
simultaneamente. Na prática, quando o internauta digita um termo em um
metabuscador, é como se ele fizesse a mesma coisa em uma dúzia ou mais de
diferentes serviços de busca.
Como os metabuscadores não possuem um banco de dados próprio, uma vez que
eles utilizam as informações dos outros buscadores, um novo site não pode ser
registrado em um deles, apenas nos buscadores comuns.
uma quantidade de informação que servirá mais para confundir do que para
ajudar.
Ixquick - Pesquisa no AOL, All the Web, Ask Jeeves/Direct Hit, EntireWeb,
FindWhat, Go, Hotbot, Kanoodle, LookSmart, MSN, Netscape, Open
Directory e Overture. http://www.ixquick.com/
Metacrawler: http://www.metacrawler.com.br/
(Renato Rodrigues)
5.7. Google
163
Google Inc. é o nome da empresa que criou e mantém o maior site de busca da
internet, o Google Search. O serviço foi criado a partir de um projeto de doutorado
dos então estudantes Larry Page e Sergey Brin da Universidade de Stanford em
1996. Este projeto, chamado de Backrub, surgiu devido à frustração dos seus
criadores com os sites de busca da época e teve por objetivo construir um site de
busca mais avançado, rápido e com maior qualidade de links. Brin e Page
conseguiram seu objetivo e, além disso, apresentaram um sistema com grande
relevância às respostas e um ambiente extremamente simples.
Uma das propostas dos criadores do Google era ter uma publicidade discreta e
bem dirigida para que o utilizador perca o menor tempo possível, sem distrações.
O nome Google foi escolhido por causa da expressão googol, que representa o
número 1 seguido de 100 zeros, para demonstrar assim a imensidão da Web.
(WIKIPEDIA)
5.7.1. Page rank do Google
164
Existe uma técnica para aumentar as chances dos buscadores tais como
Google, Cadê, Altavista, etc... localizar seu site entre as 10 primeiras páginas
sugeridas.
ASPAS (" ") -As aspas são utilizadas na lógica booleana para garantir que uma
expressão completa (ou conjunto de termos) seja incluída na busca. É muito útil
para o caso de expressões em português.
167
6. BIBLIOGRAFIA
ALBRECHT, Rogéria Fernandes; OHIRA, Maria Lourdes Blatt. Base de dados: metodologia para
seleção e coleta de documentos. Rev. ACB: Biblioteconomia em Santa Catarina, Santa
Catarina, v.5, n.5, p.133-143, 2000.
Amaral, Sueli Angélica do. Web sites: uso de tecnologias no cumprimento das funções da
biblioteca. Informação & Sociedade, v.15, n.2, 2005. Disponível em:
<http://www.informacaoesociedade.ufpb.br/ojs2/index.php/ies/article/download/30/28 >. Acesso em:
28 nov. 2006.
ARAUJO, Vania Maria Rodrigues Hermes de. Sistemas de Informação: nova abordagem teórico-
conceitual. Ciência da Informação, Brasília, v.24, n.1, p.54-76, p.54-76, jan./abr. 1995.
BAX, Marcello Peixoto. Gestão da documentação por imagens: um tipo específico de GED.
Perspectivas em Ciência da Informação. Belo Horizonte, v.7, n.2, p.141-154, jul./dez 2002.
BENASSI, Marcos de Toledo. O acesso da base Eric via Internet: o usuário diante de duas
interfaces distintas. Transinformação, Campinas, v.9, n.2, p. 69-72, maio/ago. 1997
BLATTMANN, Ursula; FACHIN, Gleisy Bories; RADOS, Gregorio Jean Varkakis. Recuperar a
Informação eletrônica pela Internet. Revista ACB. Florianópolis, v.4, n.4, p.9-27, 1999.
CAMARGO, Liliane Soares de Araújo; Vidotti, Silvana Ap. Borseti Gregório. Arquitetura da
informação para biblioteca digital personalizável. Encontros Bibli: Rev. Eletr. Bibliotecon. Ci. Inf.
Florianópolis, n. esp., jan./jun. 2006.
CHATAIGNIER , Maria Cecilia Pragana; SILVA , Margareth Prevot da. Biblioteca Digital: a
experiência do Impa. Ciência da Informação, Brasília, v.30, n.3, p.7-12, set./dez j 2001.
CUNHA, Murilo Bastos da. As tecnologias de informação e a integração das bibliotecas brasileiras.
Ciência da Informação, Brasília, v. 23, n. 2, p. 182-189, maio/ago. 1994.
CUNHA, Isabel Maria R. Ferin; KOBASHI, Nair Yumiko. Análise documentária e inteligência
artificial. Revista Brasileira de Biblioteconomia e Documentação. São Paulo, v.24,1/ 4, jan./dez.
1991.
DERTOUZOS, Michael. O que será? São Paulo : Companhia das Letras , 1997.
DIAS, Cláudia Agusto. Hipertexto: evolução história, e efeitos sociais. Ciência da Informação,
Brasília, v.28, n.3, p.269-277, set./dez. 1999.
Digital library toolkit. Sun Microsistems. 2.ed. mar. 2000. Disponível em:
<http://WWW.sun.com/products-n-solutions/edu/libraries/digitaltoolkit.html>. Acesso em: 28 jan.
2002.
DZIEKANIAK, G., KIRINUS, J.. Web semântica. Encontros Bibli: Revista Eletrônica de
Biblioteconomia e Ciência da Informação, América do Norte, 9, out. 2007. Disponível em:
http://www.periodicos.ufsc.br/index.php/eb/article/view/155. Acesso em: 20 Jan. 2011.
DZIEKANIAK, Gisele Vasconcelos; KIRINUS, Josiane Boeira. Web Semântica. Enc. Bibli: R. Eletr.
Bibliotecon. Ci. Inf., Florianópolis, n. 18, p. 20-39, 2004. Disponível em <http://www.encontros-
bibli.ufsc.br /Edicao_18/2_Web_Semantica.pdf>. Acesso em 31 jan. 2006.
FUNARO, Vânia Martins B. O.; Carvalho, Telma de; Ramos, Lúcia Maria S. V. Costa. Inserindo a
disseminação seletiva da informação na era eletrônica. In: Seminário Nacional de Bibliotecas
Universitárias, 2000, Florianópolis. Anais eletrônicos... Florianópolis, 2000. Disponível em:
<http://snbu.bvs.br/snbu2000/parallel.html >. Acesso em: ago. 2006.
GONÇALVES, Marcos André; FOX, Edward A. Technology and Research in a Global Networked
University Digital Library (NUDL). Ciência da Informação, Brasília, v.30, n.3, p.13-23, set./dez.
2001.
169
GUEDES, R., SOUZA, R.. NAVEGANDO ENTRE NUVENS DE ETIQUETAS: UMA PROPOSTA DE
UTILIZAÇÃO DA TAG CLOUD EM CATÁLOGOS ELETRÔNICOS DE BIBLIOTECAS.
PontodeAcesso, América do Norte, 2, dez. 2008. Disponível em:
http://www.portalseer.ufba.br/index.php/revistaici/article/view/3186/2334. Acesso em: 28 Jan. 2010.
GUIMARÃES, José Augusto Chaves. Moderno profissional da informação: elementos para sua
formação no Brasil. Transinformação, Campinas, v.9, n.1, p.124-137, jan./abr. 1997.
LEVACOV, Marilia. Bibliotecas virtuais: (r)evolução. Ciência da Informação, Brasília, v.26, n.2,
p.125-135, maio/ago. 1997.
LOPES, Cláudia. Otimização dos serviços de informação através da novas tecnologias : o exemplo
da divisão de documentação técnica do Serviço Geológico do Brasil. In: Seminário sobre
automação em bibliotecas e centros de documentação, 4., 1997, Águas de Lindóia. Anais... São
José dos Campos : INPE, [1997?]. p.210-213.
LOPES, Ilza Leite. Uso das linguagens controlada e natural em bases de dados: revisão de
literatura. Ciência da Informação, Brasília, v. 31, n.1, p.41-52, jan./abr. 2002
MARCONDES, Carlor H. et alli. Bibliotecas Digitais. 2. ed. Salvador : EDUFBA ; Brasília : IBICT,
2006. 337 p.
MARTIN, James. Hiper documentos e como criá-los. Rio de Janeiro, 1992. 221p.
MEY, Eliane Serrão Alves; MENDES, Maria Tereza Reis. CCAA2 em 58 lições. Brasília : ABDF,
1989. 169p.
MORAES, Rosana Portugal Tavares de. O livre acesso e os arquivos abertos na comunicação
científica. Niterói: [s.n.], 2006.
MORAES, Rosana Portugal Tavares de; MARCONDES, C. H. O livre acesso e os arquivos abertos
na comunicação científica. In: CONGRESSO BRASILEIRO DE BIBLIOTECONOMIA,
DOCUMENTAÇÃO E CIÊNCIA DA INFORMAÇÃO, 22., 2007, Brasília. Anais eletrônicos. Brasília:
FEBAB, 2007. 1 CD-ROM.
MORENO, Fernanda Passini; Arellano, Miguel Angel Márdero. Requisitos funcionais para registros
bibliográficos: Revista Digital de Bibliotecnomia e Ciência da Informação, Campinas, v. 3, n. 1,
p. 20-38, jul./dez. 2005.
NASCIMENTO, Geysa Flávia Câmara de Lima. Folksonomia como estratégia de indexação dos
bibliotecários no del.icio.us. João Pessoa : Universidade Federal da Paraíba, 2008. Dissertação
(Mestrado em Ciência da Informação) - Universidade Federal da Paraíba - Centro de Ciências
Sociais Aplicadas, 2008.
NHARRELUGA, R.. O GOVERNO ELETRÔNICO COMO UMA POLÍTICA PÚBLICA DE
INFORMAÇÃO. PontodeAcesso, América do Norte, 3, ago. 2009. Disponível em:
http://www.portalseer.ufba.br/index.php/revistaici/article/view/3388. Acesso em: 28 Jan. 2010.
NEGROPONTE, Nicholas. A vida digital. São Paulo : Companhia das Letras, 1995. 231p.
NORTON, Peter. Introdução à informática. São Paulo : Makron Books, 1996. 619p.
OHIRA, Maria Lourdes Blatt; PRADO, Noêmia Shoffen. Bibliotecas virtuais e digitais: análise de
artigos de periódicos brasileiros (1995/2000). Ciência da Informação, Brasília. v.31 n.1, p.61-74,
jan./abr. 2002.
OLIVEIRA, Rosa Maria Vivona Bertolini. Web Semântica: novo desafio para os profissionais da
informação. In: SEMINÁRIO NACIONAL DE BIBLIOTECAS UNIVERSTÁRIAS. Disponível em
<http://www.sibi.ufrj.br/ snbu/snbu2002/oralpdf/124.a.pdf>. Acesso 2010.
ORTEGA, Cristina Dotta. Informática documentária: estado da arte. São Paulo : USP, 2002. 235
p. Dissertação (Mestrado em Ciências da Comunicação) - Escola de Comunicação e Artes de São
Paulo.
PACKER, Abel. SciELO : uma metodologia para publicação eletrônica. Ciência da Informação,
Brasília, v.27, n.2, p.109-121, maio/ago. 1998.
PAVANI, Ana M. B. A model of multilingual digital library. Ciência da Informação, Brasília. v.30, n.3,
p.73-81, set./dez. 2001.
171
PEREIRA, Ana Maria; SANTOS, Plácida L. V. A. Costa. Biblioteca virtual: uma realidade. In:
Encontro de Biblioteconomia do Centro-Oeste Paulista, 4. , 1996.
PEREIRA, Maria de Nazaré Freitas. Bibliotecas Virtuais: realidade, possibilidade ou alvo de sonho.
Ciência da Informação, Brasília. v.24, n.1, p.101-109, jan./abr. 1995.
POBLACION, Dinah Aguiar; Noronha, Dayse Pires; Currás, Emilia. Literatura cinzenta versus
literatura branca. Ciência da Informação, Brasília, v.25, n.2, 1995.
RAABE, André; POHLMANN FILHO, Omer. Estudo comparativo entre sistemas de digitalização de
documentos formatos HTML e PDF. Ciência da Informação, Brasília, v.27, n.3, p.300-310,
set./dez. 1998.
REENEN, Johann van. Working in a digital world : new leadership practices for the development of
a digital library workforce. Ciêcia da Informação, Brasília, v.30, n.3, p.82-91, set./dez. 2001.
RESENDE, Yara. Natura cosméticos: quando e virtuoso ser virtual. Ciência da Informação,
Brasília, v.26, n.2, p.154-158, maio/ago. 1997.
RESMER, Maria José. Conversão de base de dados MicroIsis para Internet. Ciência da
Informação. v. 26, n.2, 1997.
ROWLEY, Jennifer. Informática para bibliotecas. Brasília : Briquet de Lemos, 1994. 307p.
SENSO, José A.; Piñero, Antonio de la Rosa. El concepto de metadato: Algo más que descripcion
de recursos electrónicos. Ciência da Informação, Brasília, v.32, n.2, p.95-106, maio/ago, 2003.
SIQUEIRA, Idmea Semeghini Prospero; PEREIRA, Antonio Eduardo Costa; ARAGON, Doris Ferraz
de. Sistema hipermídia: caracterização, protótipo, novo projeto e a questão da interação humano-
computador. Revista Brasileira de Biblioteconomia e Documentação, v.24, n.1/4, p.9.37,
jan./dez. 1991.
SOUZA, Marcia Izabel Fugisawa; VENDRUSCULO, Laurimar Goncalves; MELO, Geane Cristina.
Metadados para a descrição de recursos de informação eletrônica: utilização do padrão Dublin
Core. Ciência da Informação, Brasília, v.29, n.1, p.93-102, jan./abr. 2000.
SOUZA, Marcia Izabel Fugisawa e Santos, Adriana Delfino dos e Oliveira, Maria José de e Cintra,
Maria Antonia Martins de Ulhoa e Vendrusculo, Laurimar Gonçalves (2000) Informação para
internet: uso de metadados e o padrão Dublin Core para catalogação de recursos eletrônicos na
embrapa. In Proceedings XIX Congresso Brasileiro de Biblioteconomia e Documentação 1, Centro
de eventos da PUCRS.
SOUZA, Terezinha Batista; CATARINO, Maria Elisabet; SANTOS, Paulo Cesar dos. Metadados:
catalogando dados na Internet. Transinformação, Campinas, v.9, n.2, p. 93-105, maio/ago. 1997.
SOUZA, R., ALVARENGA, L.. A Web Semântica e suas contribuições para a ciência da informação.
Ciência da Informação, América do Norte, 33, jun. 2004. Disponível em:
http://revista.ibict.br/index.php/ciinf/article/view/50. Acesso em: 31 Jan. 2010.
TAKAHASHI, Tadao (org.). Sociedade da informação no Brasil : livro verde. Brasília : Ministério
da Ciência e Tecnologia, 2000. 195p.
TARGINO, Maria das Graças. Novas tecnologias de comunicação: mitos, ritos ou ditos? Ciência
da Informação, Brasília, v.24, n.2, p.194-203, maio/ago. 1995.
TAPARANOFF, Kira. Técnicas para tomada de decisão nos sistemas de informação. p.13,
1995.
TACQUES, Maria de Nazareth Montojos (org.). Manual de entrada de dados em formato MARC.
Rio de Janeiro : Fundação Biblioteca Nacional, 1997. 105p.
173
TOMAÉL, Maria Inês, et. alli. Critérios de qualidade para avaliar fontes de informação na Internet.
In: Tomaél, Maria Inês; VALEMTIM, Marta Lígia Pomim. Avaliação de fontes de informação na
Internet. Londrina : Eduael, 2004. 162p.
TRISKA, Ricardo; CAFÉ, Lígia. Arquivos abertos: subprojeto da Biblioteca Digital Brasileira.
Ciência da Informação, Brasília, v.30, n.3, p.92-96, set./dez. 2001. Disponível em: <http:// >.
Acesso em: 24 jan. 2002.
VALENTIM, Marta Lígia Pomim. Bases de Dados e a globalização da informação. In: Seminário
sobre automação em bibliotecas e centros de documentação, 4., 1997, Águas de Lindóia. Anais...
São José dos Campos : INPE, [1997?]. p.62-70.
VANTI, Nadia Aurora Peres. Da bibliometria à webometria: uma exploração conceitual dos
mecanismos utilizados medir o registro da informação difusão do conhecimento. Ciência da
Informação, Brasília, v.31, n.2, p. 152-162, maio/ago. 2002.
VILAN FILHO, Jayme Leiro. Hipertexto: visão geral de uma nova tecnologia de informação.
Ciência da Informação, Brasília, v.23, n.3, p.295-308, set./dez. 1994.
WEITZEN, H. Skip. O poder da informação : como transformar a informação que você domina em
um negócio lucrativo. São Paulo : Makron Books, MacGraw-Hill, 1991, 243p.
174
Leitura recomendada:
CÔRTE, Adelaide Ramos, ALMEIDA, Iêda Muniz de. (Cood.) Avaliação de
softwares para bibliotecas (coord.). São Paulo: Polis, APB, 2000. 108p.
ACCESS MICROSOFT
http://www.microsoft.com/brasil
ALEXANDRIA
http://www.alexandria.com.br/software.htm
O ALEPH foi estruturado sob um padrão de máxima flexibilidade; utiliza um conjunto de tabelas
que podem ser modeladas de acordo com as necessidades de cada usuário e modificadas quando
necessário
ARCHES LIB
http://www.wa-corbi.com.br/arches.htm
O ARCHES LIB é um software para controle de bibliotecas, foi desenvolvido com a colaboração de
bibliotecários em conjunto com a equipe de Informática WA-CORBI.
ARGONAUTA
http://server01.datacoop.com.br/vportal/datacoop/index.php?
option=com_content&task=view&id=15&Itemid=29
Desenvolvida pela Datacoop, a Família engloba softwares para automação de bibliotecas, museus,
arquivos e catálogo web dos acervos.
ATHON
176
BIBLIOBASE
http://www.salvato.com.br/prod_bibliobase.php
BIBLIOTECA ARGONAUTA
BIBLIOSHOP ON-LINE
Florianópolis, Santa Catarina Brasil . Telefones (0xx48) 333-0422 / 9991-8046
http://www.biblioshop.com.br/
Características: Situação da obra, reserva e renovação via Internet (WebEMP); Envio de e-mail
para usuário com exemplar pendente; Envio de e-mail para usuário com reserva disponível;
Geração de cartas; Geração de carteirinhas de usuário; Geração de etiquetas de código de
barras; Permite empréstimo através de senha; Controle de acesso dos operadores.
Com uma interface de fácil utilização, permite realizar pesquisas por campos tais como:
assunto, tipo de material, coleção, autor, título, ano e idioma; utilizando inclusive operadores
booleanos. Para facilitar a pesquisa, o WebISIS ainda dispõe de um dicionário de termos.
O BIBLOS for Windows é um sistema integrado para pequenas bibliotecas. É orientado por menus
e possui uma ajuda on-line com as explicações necessárias para o preenchimento das
informações.
CORUJA
http://www.coruja.eti.br/
CLARITY
Informatizar tratamento e recuperação de informações e armazenamento eletrônico de documentos
em ambiente Windows.
DOBIS
O DOBIS é designado para bibliotecas públicas, universitárias, especializadas e nacionais,
unitárias ou em rede.
Características: Fichas catalográficas, saídas pelo sistema COM (Computer Out-put Microfilm),
relatórios e listagens estatísticas e administrativas.
EBOOK
EMP
EXATO
http://www.acervo.com.br/frame_exato.htm
FOLIO VIEWS
GNUTECA
INFORMA
http://www.modonovo.com.br/fam2000.html
HIGH SCHOOL
LIBRARIUM
http://www.pr.gov.br/bibliotecas/librarium.html
LIGHT BASE
Possui interface o usuário, através de menus, janelas, auxílio sensível ao contexto e, no caso de
campos livres, um editor de textos que possui parágrafos justificados, marcação de blocos, busca e
substituição. É desenvolvido em linguagem C ++ possuindo versões para DOS, UNIX, VMS e
Windows.
Na pesquisa possui além de da sintaxe boolenana em variados tipos de campos uma forma de
pesquisa fonética.
MICROISIS
O software é estruturado de forma hierárquica (sequencial) e por isso, segundo Mattes (1999)
“só pode ser utilizado para registro de itens bibliográficos (não permite, por exemplo, numa
mesma aplicação controlar os registros bibliográficos e os arquivos de autoridade) e para
recuperação deles.” Permite a utilização de programas em uma linguagem de programação
181
Características:
Entre as vantagens do MICROISIS, destaca-se a intercâmbio de dados (exportação e
importação) com outros sistemas por meio da norma ISO 2709; pesquisa de cada elemento de
campo ou subcampo.
MINIBIBLIO
http://www.athenas.com.br/
Sistema utilitário distribuído, de maneira livre, pela Athenas Software & Systems. A plataforma é
baseada no ambiente Microsoft Windows utilizando Borland Delphi e Borland Interbase como
ferramentas. Para cadastro e gerenciamento de livros, revistas, vídeos, manuais, discos e/ou
dados. Possibilita o controle de empréstimos. Bastante versátil, apresenta diferentes possibilidades
de configuração visual e funcional.
MULTIACERVO
Características: Registros em formato MARC, acesso por protocolo Z39.50, acesso integrado à
Internet (esta característica faz que qualquer PC remoto, tenha acesso aos serviços da biblioteca),
OPAC.
OPENBIBLIO
http://openbibliobrasil.cjb.net/
ORTODOCS
http://www.potiron.com.br/v2_index.htm
PERGAMUM
http://www.pergamum.pucpr.br/
PHL
http://www.elysio.com.br/
SÁBIO
SAGRES
SEIBIB
SOPHIA
http://www.primasoft.com.br/2006/html/interna_2.php?
184
Um sistema integrado para gestão de bibliotecas que contempla funções que abrangem as
principais rotinas de uma biblioteca ou de um centro de documentação e informação.
Cadastramento de obras e usuários, controle de circulações, consultas de obras por assunto, autor,
título, etiquetas com código de barras para identificação de exemplares e usuários, são algumas
das rotinas que você pode realizar com rapidez e precisão nas informações.
SYSBLIBI
Gestor de bibliotecas. Podendo ser executado em rede local, o Sysbibli permite que mais de uma
pessoa possa manipular as suas informações ao mesmo tempo, desde o cadastramento de
publicações, empréstimos, até consultas e emissão de relatórios, permitindo inclusive consultas
pela INTERNET.
THEMIS
http://www.aurum.com.br/index2.php?cat=produto_themis4
THESAURUS
http://www.viaapia.com.br/
Sistema desenvolvido por Via Appia Informática destinado à completa automação das rotinas de
bibliotecas públicas e privadas. Voltado para acervos grandes e médios.
THESAURUS LIGHT
http://www.viaapia.com.br/
VIRTUA
VTLS VIRTUA
http://www.vtls.com.br/
WINSISIS
http://productos.bvsalud.org/product.php?id=wwwisis&lang=pt