O Infoblogdi aborda a informática de uma maneira mais fácil envolvendo tecnologia, internet, tutorias e dicas de download de programas.

Ferramentas de SEO



     As ferramentas de SEO são de grande importância, pois oferece recursos e auxiliam nas otimizações dos sites para obter melhores resultados no posicionamento do site.
Essas ferramentas geralmente respondem as seguintes perguntas:
Qual foi o número de vistas geradas para meu site ?
Quantas dessas visitas se converteram em capital ?
Qual a expectativa para o mês seguinte ?
Houve alguma melhorar em relação ao mesmo período do ano anterior ?
Minha página demora a carregar, há alguma perda com isso ?
O google passou no meu site ?
Quais palavras chaves, trazem mais visitas para meu site ?
Essa palavra chave aparece muito em meu site ?

1. Google Analytics
O Google Analytics é uma ferramenta de análise da web que fornece uma ótima visibilidade do tráfego e da eficiência do marketing do site. Ele possui recursos avançados, flexíveis e fáceis de usar permitindo assim a analise dados de tráfego. 


2. WebSite Grader
O WebSite Grader é um serviço gratuito que ajuda o site a subir nas posições dos buscadores. Ele reúne as informações sobre o site pesquisado com base no código HTML e em outras fontes, como Google e Alexa. Tudo fica reunido em um relatório, que sugere mudanças para melhorar o desempenho do site. O desempenho no SEO é medido com um índice que vai de zero a cem. O relatório do  WebSite Grader é dividido em seis partes:
SEO interno;
SEO externo;
Blogosfera;
Mídias Sociais;
Conversão de Visitantes;
Análise de Concorrentes.
A primeira seção avalia itens como presença de metadados e número de imagens na página.
A seção SEO Externo fornece PageRank, classificação no Alexa e informa se o site está incluído em diretórios, como Yahoo! E Dmoz.



3. SEO Power Suite
Segundo o site LINK-ASSISTANT, é uma ferramenta que oferece um pacote completo de programas de software eficaz de SEO para acelerar o processo de otimização.

                        
Essa ferramenta é composta dos seguintes programas:
3.1 Rank Traker
O RankTracker é uma aplicação robusta SEO que possui um módulo de pesquisa poderosa palavra-chave que dá aos usuários a opção de utilizar qualquer uma ou todas  de 13 diferentes ferramentas-chave da investigação, alguns dos quais incluem: palavra do Google Ferramenta de Seleção (e outros três ferramentas-chave de pesquisa do Google), Yahoo! Search Assist, sugestões de busca Bing, sugestões de pesquisa.



   3.2 Web Auditor

É um software que permite otimizar o site em dois níveis: On-site (domínio) e na página (conteúdo).


                                
3.3 SEO Spy Glass
É um software que permite: Saber quantos backlinks os concorrentes possuem, descobrir o Alexa Rank de cada backlink, saber como muitos backlinks são provenientes de endereços IP individuais, descobrir o que a densidade de palavras-chave e palavras-âncora de texto ou frases dos concorrentes, determinar o valor de cada de links do concorrente é, incluindo o Google Page Rank para cada um e descobrir o que URLs dos concorrentes com sua âncora frases do texto.


3.4 Link Assistant
         É uma ferramenta de criação de link, encontra milhares de relevâncias, parceiros de link de alta qualidade, descobre link formulários online e preenche automaticamente os formulários, mostra o Google PageRank, Alexa Rank, e a popularidade da ligação de cada parceiro de link, permite criar um diretório da ligação profissional, publica páginas via FTP, cria e-mails personalizados, oferece link, monitora ranking do site em todos os principais motores de busca, mostra o site Alexa Rank e popularidade de link no Google, Yahoo e MSN.




Black Hat


     O Black Hat (chapéus pretos) são técnicas que visam melhorar o posicionamento do site em Search Engines através de métodos enganosos que podem levar seu site a ser banido do Search Engines.

Segue abaixo algumas técnicas de Black Hat que deve ser evitadas num site:
  • Links transparentes: não deixar os links da mesma cor de fundo do site.
  • Links enganadores: são links presentes na página, que parecem que levam a um lugar, mas na verdade levam a outro.
  • Enchimento de meta tags: preencher meta-tags com palavras repetidas inúmeras vezes.
  • Uso exagerado de palavras chave: palavras-chave em demasia são condenadas       pelos mecanismos de busca.
  • Cloaking: é uma técnica de disfarce em que a página apresentada ao mecanismo de busca é diferente da página apresentada ao usuário.
  • Cruzamento excessivo de links: pode-ser um sina que a empresa criou diversos domínios com o propósito de criar uma falsa estrutura de links levando a um mesmo site.
  • Conteúdo Duplicado: hoje em dia os mecanismos de busca punem quem apenas duplica conteúdo de outros sites.
  • Texto escondido: texto com a mesma cor de fundo da página, com várias palavras repetidas para que os usuários não enxergam, mas os motores de buscas sim.
  • Páginas contendo apenas links: fazenda de links apenas para elevar a relevância da página. Geralmente, para isso, são usadas páginas que só contém links.

 O Google afirma identificar a grande parte de truques para manipular os seus resultados. De fato, cada vez mais o Googlebot procura "emular" o comportamento de pessoas, e entre os principais mecanismos de pesquisa é de longe o que melhor realiza essa tarefa. Além isso, o Google oferece um endereço para que webmasters denunciem sites que possam ser considerados spam ou que tenham inflado artificialmente os seus posicionamentos para determinadas palavras-chave. É preciso ter pelo menos um site cadastrado na interface para Webmasters do Google para poder acessar esta ferramenta:- https://www.google.com/webmasters/tools/spamreport?hl=pt_br.
Os mecanismos de busca podem tomar diversas ações, dentre elas:

  • Desconsiderar de seu algoritmo o que considera irregular, sem penalizar o site;
  • Penalizar o site com a perda de posições na tela de resultados;
  • Desindexar (apagar) o site de seu índice. 

Algumas ferramentas para detectar sites Black Hat:
Dois programas (em inglês) podem detectar sites que utilizam técnicas black hat SEO:

  • Search Engine Spam Detector: identifica texto invisível, texto que foge de padrões naturais de linguagem, palavras-chave demasiadamente enfatizadas, ou doorway pages.
  • Copyscape: Verifica a existência de páginas com conteúdo duplicado ao seu na web.

Speed Page


     Páginas rápidas devem carregar em no máximo 30 segundos em uma conexão discada. Deve-se dar uma atenção especial para com as páginas iniciais, pois elas são a porta de entrada para o usuário.
Algumas sugestões do autor para reduzir o tempo de carregamento de páginas são:
  • Animações: Utilizar animações quando necessárias. As animações devem servir para chamar a atenção e podem ser utilizadas somente nos lugares em que houver necessidade;
  • Simplicidade do site: O site precisa ser eficiente para atrair os usuários e não ter apenas um belo design.
  • Imagens pequenas: Utilizar o recurso de thumbnails (imagens pequenas) para fotos de produtos.
  • Imagens: Utilizar as mesmas imagens no site inteiro quando possível. Com isso pode-se aumenta a velocidade de carregamento das páginas, pois as imagens já foram baixadas pelo navegador antes,  que só as reutiliza para exibir outra página.
Existem ferramentas que medem a velocidade de abertura de cada página do site, como por exemplo: http://www.iwebtool.com/speed_test.

PageRank


Os links internos de site garantem que os crawlers e os usuários irão navegar entre as páginas, enquanto que os links citados em outros sites contam como votos a seu favor. 
O sistema de votos funciona da seguinte maneira: os votos que surgem de sites mais votados, portanto mais populares, recebem um peso maior em relação aos votos de sites com menor número de votos. 
O algoritmo que aplica estas regras chama-se PageRank, é implementado pela maioria dos sistemas de busca. Criar links relevantes contribui naturalmente para um alto PageRank.
            Resumidamente quer dizer que quanto mais sites bem classificados tiverem link para o seu site, melhor será a classificação e posição deste site nos resultados dos mecanismos de busca.
    O PageRank do site pode ser visualizado ao instalar a barra de navegação do Google. Com esta barra pode-se acompanhar o desenvolvimento dos sites concorrentes e também se o trabalho de otimização está sendo realizado da maneira correta.  

Links


Os links são fatores importantes nos rankings e recebem um grande peso junto aos mecanismos de busca. São a principal rota de tráfego da internet e o alicerce de comunidades, agrupando sites relevantes em conteúdo. 
Os sistemas de busca analisam e atribuem importância à relevância e à quantidade de todos os links de um site.
Os links devem habitualmente estar relacionados ao conteúdo do site e devem apontar para sites relevantes às palavras-chaves, sendo assim, recebe um peso maior nos rankings, caso contrário terá pouco valor para os sistemas de busca. Apontar para uma “má vizinhança” ou sites irrelevantes, faz com que o receba um peso menor.
Os links internos de site garantem que os crawlers e os usuários irão navegar entre as páginas, enquanto que seus links citados em outros sites contam como votos a seu favor. 
O sistema de votos funciona da seguinte maneira: os votos que surgem de sites mais votados, portanto mais populares, recebem um peso maior em relação aos votos de sites com menor número de votos. 
O algoritmo que aplica estas regras chama-se Pagerank é implementado pela maioria dos sistemas de busca. Criar links relevantes contribui naturalmente para um alto Pagerank.

Mídias Sociais


As redes sociais são grupos de pessoas com algum tipo de conexão um ás outras, e juntamente com o crescimento das redes socias, vem às mídias sociais.
As mídias sociais são os conteúdos gerados pelas redes sociais, ou seja, são as tecnologias e práticas que as pessoas usam para compartilhar conteúdo, opiniões, experiências, perspectivas e multimídias. 
Visto a crescente das mídias sociais,  o Facebook possui mais de 60 milhões de membros ativos pessoas ativas, e não as que criaram perfis e nunca usaram. Tem uma média diária de 250 mil novos cadastrados desde o começo de 2007, dobrando o número de usuários ativos a cada seis meses. Mais da metade dos usuários retoma todo dia, e juntos geram mais de 65 bilhões de visitas às páginas todo mês.
A otimização de sites cuida da participação em mídias sociais como Orkut, Twitter, Facebook, You Tube, dentre outras.
Trata-se de estabelecer um relacionamento direto com o cliente, muito mais eficiente que os e-mails, um verdadeiro marketing de relacionamento tanto para venda e divulgação, como para busca de opiniões,  elogios, fonte de pesquisa, tendências, e também para receber críticas e sugestões.
O método correto na otimização para mídias sociais é primeiramente juntar-se as comunidades e criar relacionamentos, ao fazer a otimização não se pode concentrar em adicionar palavra-chave ao conteúdo, nem em ajustar as meta tags. Deve-se concentrar em fornecer algo de que os membros da rede social escolhida necessitem. Pode-ser um artigo, uma sugestão de notícias que sejam relevantes ao seu ramo, pode até ser o ato de compartilhar o conhecimento em um fórum relacionado à área de atuação, participar de uma comunidade será a melhor ferramenta de otimização.
São exemplos de algumas mídias sociais:

  • Wikis: Wikipedia;
  • Redes Sociais: Orkut, Facebook, MySpace;
  • Miniblogs: Twitter;
  • Notícias: Twitter, RSS, Ueba, Digg;
  • Virtual Reality: Seconf Life;
  • Vídeo Sharing: YouTube, Videolog;
  • Photo Sharing: Flickr.



SEM e Links Patrocinados

     

As estratégias de SEM - Marketing de Busca na Otimização de Sites e nos Links Patrocinados são diferentes.

     Os links patrocinados são campanhas de SEM - Marketing de Busca, onde você compra, através de leilões dos mecanismos de busca, suas palavras chaves, paga-se pelos cliques que recebe (Pay per Click). 

     É preciso conhecer algumas técnicas para redigir e usar as palavras chaves nos anúncios para atrair público qualificado.

     O Google disponibiliza uma ferramenta no Google Adwords, que é um Estimador de Tráfego do Google, que faz a previsão de tráfego e custo para uma dada palavra chave. Dessa forma é possível comparar (estimar) o custo de uma campanha de Otimização de Sites na parte gratuita (Orgânica) e Links Patrocinados. 

     Segue abaixo, na tabela 1 uma breve comparação entre Otimização de Sites na parte gratuita (Orgânica) e Links Patrocinados (PPC). 



Orgânica (Gratuita)
Links Patrocinados (PPC)
Posicionamento Site
Mecanismo de busca
Administrador da campanha
Tráfego
65%
35%
Custo
Gratuito
Custo por clique
Resultados
Médio a longo prazo
Conteúdo e Relevância
Imediato
Bom anúncio
Investimento

Tabela 1: Comparação Orgânica x Links Patrocinados.
    
     SEM (Search Engine Marketing), chamado de Marketing nos mecanismos de busca, é composto pelo SEO (Search Engine Optimization), otimização de sites para os mecanismos de busca e PPC(Pay Per Click), pagar por clique. 

Sitemap

    
     O Google  Sitemaps  é uma experiência em indexação da Internet. Ao utilizar
Sitemaps para informar e direcionar os robôs de indexação, o Google espera expandir sua cobertura na Internet e obter mais agilidade na descoberta e inclusão de páginas ao seu índice. 
     O Sitemap hoje só é utilizado pelos robôs de indexação do Google e fornece uma visualização adicional dentro do site, porém esse arquivo não substitui os métodos normais de indexação da Internet, realizado por várias empresas no segmento de buscas na Internet. 
     É uma solução para sites que utilizam  links na linguagem  javascript em suas barras e navegação, porque os robôs de busca  não conseguem navegar e conseqüentemente indexar páginas com este tipo de link. 
     Segundo Marshall Simmonds, vice-presidente do  Enterprise Search Marketing  da  The New York Times Company, faz todo o sentido fornecer rapidamente novos  links aos usuários.  “Não queremos ficar esperando que o mecanismo forneça resultados. Queremos inserir o conteúdo no mecanismo de forma mais rápida. Sempre que possível, optamos por fornecer o conteúdo, em vez de esperar que o usuário o busque. Isso nos proporciona uma experiência mais interativa” (GOOGLE, 2006).
     O Sitemap é válido para todos os tipos e formatos de sites; já existe uma versão de Sitemaps para dispositivos móveis como: celulares, palms e PDAs.
     O protocolo do  Sitemap  é um dialeto do XML (Extensible Markup Language) que resume  informações relevantes do site para os robôs de indexação da Internet.
     Para cada página do site, pode-se  incluir "dicas" de indexação, como a data da última modificação, e alterar a freqüência de alteração.

Robots.txt


     Trata-se de um documento em modo texto que deve ser incluído no diretório raiz de seu domínio, que essencialmente contém instruções para que
qualquer Crawlers cheguem ao site dizendo o que eles podem indexar.
     O Robots.txt, é umasugestão para quem tem acesso aos servidores Web, abaixo segue um exemplo de comoescrever um arquivo em texto:
User-agent: *
Disallow: /
     Uma das maneiras de controlar a visita dos Crawlers no site é ditar algumas regras a eles.
     Essas regras podem ser:
  • Padrão de Exclusão de Robôs
  • Protocolo de Exclusão de Robôs
  • Robots.txt
     Caso o arquivo robots.txt não permita que os indexadores visitem alguma página dosite, essa página não é indexada pelos mecanismos de busca, e consequentemente nãoaparece nos resultados das buscas.

User-agent – diz ao Crawler qual agente do usuário está sendo comandado.
* - indica que todos Crawlers estão cobertos.
: - indicam que informações importantes serão apresentadas.
Disallow – diz ao Crawler o que ele não pode acessar.
/ - indica todos os diretórios. 

Dependendo do motor de buscas os Crawlers possuem diferentes nomes, segue
abaixo uma lista com alguns nomes de Crawlers:
  • Google: Googlebot
  • MSN: MSNbot
  • Yahoo! Web Search: Yahoo SLURP ou apenas SLURP
  • Ask: Teoma
  • Alta Vista: Scooter
 
 Alguns sites não possuem os robots.txt, para visualizar um arquivo robots.txt de um site, basta digitar junto ao link uma extensão robots.txt.
Exemplo: www.osite.com/robots.txt
Deve-se tomar  o cuidado para não colocar os arquivos em branco, vazio para o
Crawlers, esse documento em branco significa que não deseja que eles visitem a página da Web podendo assim, prejudicar no ranking do site.
Outra função do arquivo  robots.txt  é indicar aos indexadores dos mecanismos de
busca onde se localiza o  Sitemap.xml  do site.

Conteúdo


     O objetivo da otimização é tornar o site relevante para os usuários e
consequentemente para os sites de buscas.
      As pessoas buscam informações, dados e produtos que atendam as suas
necessidades e um bom conteúdo é aquele que atende a essas necessidades. 
     De acordo com Ledford (2009), recomenda-se um conteúdo recente e original.
     Ele é o elemento principal que faz com que os clientes voltem ao site várias vezes. Quando eles retornam muitas vezes, o tráfego indica aos indexadores dos mecanismos de busca que seu site é valido e popular. 
     Segue abaixo, algumas recomendações:
  • Use conteúdo relevante que tenha a ver com o site;
  • Ortografia e gramáticas corretas;
  • Divisão do conteúdo em títulos, cabeçalhos e sub cabeçalhos;
  • Palavras chaves sem exagero, o uso excessivo, leva a perda de ranking nos mecanismos de busca que o consideram como spam. O ideal é que a densidade das palavras chave permaneça em 5 a 7%. Escolha 3 palavras chaves e as espalhe no contexto. 
     Se houver muitas repetições troque as por sinônimos;

  • Uso de um pedido de ação. Convide os usuários a agir; 
  • Definir claramente a apresentação do produto; 
  • Otimizar e colocar a disposição materiais, como: vídeos, textos para downloads, fóruns; 
  • Artigos periódicos;
  • Utilizar conteúdo liberado para publicação, citada a fonte.

Meta Robots


     A  tag meta robots é utilizada quando o desenvolvedor não quer que os robôs dos
mecanismos de busca acessem alguma página do seu site. É utilizada também em conjunto com o arquivo robots.txt como cartão de visita para os robôs dos mecanismos de busca, indicando a página inicial do site e também os links que o robô deve seguir a partir dessa página. 
     Não é uma tag aceita por todos os mecanismos de busca e também não é uma  tag muito utilizada pelos desenvolvedores, mas como a utilização dela não é caracterizada como  spam  por nenhum mecanismo de busca, vale a pena a sua utilização.

Meta Keyword


      Devem-se ter cuidado com as seguintes variações ao escolher estas palavras-chave:
  • Singular e plural. Utilizar sempre as palavras mais procuradas pelos usuários e caso precise utilizar singular e plural, colocar na frente  à  palavra com mais relevância naquela determinada página;
  • Letras maiúsculas e minúsculas. Na literatura e na prática não  dá para ver a
    distinção entre buscas com letras maiúsculas e minúsculas e por isso nunca se deve utilizar repetição de palavras-chave com esta variação. Esta prática pode caracterizar spam, já que os mecanismos não reconhecem esta diferença.  
  • Espaço e vírgula. São usados para separar as palavras-chave e não fazem diferençapara melhor otimização nos mecanismos de busca.  
  • Alguns desenvolvedores preferem utilizar espaços para usar menos caracteres nas palavras-chave e outros preferem utilizar vírgulas para melhor organização.  
  • Palavras com grafia incorreta. Muitas palavras difíceis são compreendidas e
    soletradas erradamente pelos usuários. 
     Caso o desenvolvedor queira colocar essas palavras na  tag meta keyword, ele só deve fazer isso se no conteúdo do texto da página estiver esta palavra escrita incorretamente também. Caso isso não aconteça é melhor nem utilizar essas palavras, pois elas não serão percebidas nem classificadas pelos mecanismos de busca.

Meta Description


     A tag meta description é a descrição que você deseja que o usuário dos mecanismos de busca veja do site. Deve ser feita página a página, ou pelo menos por seções de páginas dentro do site, porque os mecanismos levam em consideração se o conteúdo da página está de acordo com a descrição especificada pelo desenvolvedor da página. 
     Caso o mecanismo encontre alguma irregularidade entre esses fatores este começa a classificar o site para baixo nos resultados e pode até vir a classificar sua página como spam.
     Quando isso acontece, o mecanismo elimina o site dos resultados de busca e passa a não classificá-lo mais.
     Recomenda-se que está  tag  tenha de 200 a 250 caracteres.

Alt tags


     Os sites de busca registram textos e links, mas não conteúdo gráfico. Para isso deve-se utilizar a tag alt, que associa uma imagem do site a uma palavra
ou frase, no qual é lida pelos sites de buscas.

Tag Heading


     As tag heading são utilizadas para deixar claro aos sites de busca que os trechos do texto, são relevantes juntamente com as palavras chaves contidas.
     As tags H1,H2....H6, são colocadas nessa ordem, no inicio e no final, mostra aos
sites de busca que determinados trechos de texto são mais relevantes por apresentarem títulos e subtítulos nas páginas.

Tags Meta


     As  meta tags contêm informações que não aparecem na janela do navegador do usuário, mas permitem ao desenvolvedor do site colocar informações para os mecanismos de busca que levam estas tags em consideração.
     O formato genérico da tag meta é:





As  meta tags mais comuns para a visibilidade nos mecanismos de busca são:  
  • Description  (descrição);
  • Keyword  (palavra-chave); 
  • Robots (robôs).

Tag Title

 
     Os mecanismos de busca utilizam o título da página como título dos resultados de busca, seguido de uma descrição da página e do  link  referente à página.
Segue abaixo alguns requisitos para um bom título:
  • Ser atraente para o usuário, pois um bom título da página será o diferencial na
    escolha do usuário na lista de resultados nos mecanismos de busca.
  • O título que fica quando o usuário adiciona seu site como favorito em seu navegador, e com certeza um bom texto fará a diferença quando este usuário quiser voltar a visitar o site.  
  • O título da página é o primeiro espaço da página explorado pelo uso das palavras-chave definidas anteriormente, é recomendada a utilização de até 70 caracteres e também que a repetição de alguma palavra-chave só aconteça em caso denecessidade e não ultrapasse três repetições. 

URL


     Os mecanismos de busca dão importância  às  palavras-chave existentes no meio da URL (Universal Resource Locator ou Localizador Universal de Recursos), mais conhecido como endereço da página, de modo que, se determinada
palavra-chave já estiver contida na URL já é uma vantagem competitiva e torna-se uma URL mais amigável aos mecanismos de busca.
     Deve se manter a URL o mais curta possível e o mais descritiva possível, pois já dá idéia ao visitante e ao mecanismo de busca do que irá encontrar.
     Afirma, o especialista em SEO e engenheiro do Google Matt Cutts, o hífen não é lido pelo mecanismo de busca, que assim entende as palavras da URL em separado, ao contrário do underline, que faz sua união. Melhor usar o hífen ao invés de underline.
Ex: www.o-site.com.br ao invés de www.o_site.com.br

Palavras-Chave


     Durante a otimização de um site, devem ser escolhidas palavras-chave que sejam abrangentes o suficiente para que o seu site seja facilmente encontrado, e também palavras que restrinjam a pesquisa realizada pelo usuário a um menor número de resultados que contenham seu site.
     Algumas sugestões de como escolher e utilizar as palavras-chave:
  • Artigos e preposições devem ficar de fora da lista, pois são pouco específicos e muitos mecanismos de busca os ignoram;  
  • Palavras compostas devem ser utilizadas como duas palavras, separadamente; Não utilizar palavras de conteúdo pornográfico;  
  • Utilizar sinônimos e plurais somente se necessários;  
  • A ordem de importância das palavras sempre é da esquerda para direita, pois é assim que os robôs de busca lêem as páginas.  
     Os usuários, possíveis e-consumidores do site, podem ser divididos em iniciantes e avançados.  Os iniciantes tendem a utilizar termos mais genéricos ao realizarem suas buscas e os avançados tendem fazer  uma pesquisa utilizando termos mais específicos e utilizam recursos de busca avançada com diferentes combinações lógicas. 
     Alguns  locais onde as palavras-chave podem ser usadas dentro do código HTML são: domínio, title, meta  keywords, meta  description, outros meta  tags, conteúdo de texto, headers, links, alt tags, comentários,  tag no frames, nome dos frames, nome de imagens,  title das imagens, campos ocultos de formulário, entre outros.

SEO On Page x SEO Off Page


     SEO On Page é a otimização interna de um site de uma forma simples. Com essa otimização pode-se melhorar a forma como os motores de busca vêem o site, as técnicas mais usadas são:
  • Palavras-chave;
  • URL amigáveis;
  • Meta tags;
  • Tag HTML;
  • Conteúdo relevante;
  • Robots.txt;
  • Sitemap.xml.

     SEO Off Page são as otimizações feitas fora das páginas do site que afetam o seu Google ranking. Essas técnicas são consideradas as mais poderosas para os resultados de pesquisa. As técnicas mais usadas são: 
  • Links patrocinados;
  • Mídias sociais;
  • Links;
  • Diretórios;
  • PageRank;
  • Speed Page;
  • Black Hat.

Profissão TI - Analista de Sistemas

    
     Analistas de sistemas de computador melhoram sistemas de computador existentes. Eles também planejam e desenvolvem novos sistemas e ajudam organizações a redesenhar os sistemas de computador.

     Às vezes apenas sugerem e implementam alguns softwares para aprimorar o uso dos computadores.   
     Também projetam sistemas de software. Analistas de Sistema se especializam freqüentemente em administração de sistemas, ciência, ou engenharia.
     Analistas de sistemas começam projetos colhendo informação, discutem as necessidades de uma organização com seus gerentes e funcionários. Uma vez as metas estão claras, os analistas determinam se eles precisarem projetar um novo sistema de software.
     Os analistas preparam relatórios que mostram quanto valerão as mudanças. Estes relatórios também discutem como as organizações podem se beneficiar e o que podem esperar dessas mudanças, e os gerentes usam estes relatórios para ajudar decidirem se o sistema proposto valerá o custo.
     Uma vez que estes planos são aprovados, os analistas de sistemas coordenam a atualização ou instalação do sistema de computador. Alguns analistas de sistemas escrevem o código de programação. Quando eles tiverem um sistema quase concluído, os analistas os testam com seus usuários.
     Eles observam a interação dos funcionários com o sistema e como eles o usam, buscando saber se o sistema implantado atende as necessidades da empresa como planejado. Eles também vasculham o computador em busca de problemas existentes e em potencial e procuram corrigi-los.
     Quando o sistema estiver pronto e implantado, os analistas promovem o treinamento dos funcionários, para que estes possam utilizá-lo de forma satisfatória. Eles também escrevem manuais que descrevem como usar o sistema. Estes manuais devem ser escritos em condições que os gerentes e outros usuários podem entender.
     Além disso, analistas escrevem documentação para as pessoas que farão a manutenção do sistema. Alguns analistas são os empregados de organizações. Estes analistas também ajudam os funcionários a resolver problemas com seus computadores.

SEO (Search Engine Optimization)

  
     SEO significa otimização de sites para os mecanismos de buscas. É um conjunto de técnicas para que um site se posicione bem em alguma busca realizada pelo usuário, através de palavras-chaves.
     Segundo pesquisas realizadas, a maior parte dos usuários visita os sites posicionados nas primeiras dez colocações dos resultados, ou seja a primeira página dos resultados, os demais usuários verificam até as três primeiras páginas do resultado.
     A otimização de sites permite que os mecanismos de busca realizem e localizem as informações e classifiquem os sites nas melhores posições.
     Um site encontrado e bem posicionado, demonstra ao usuário ser um site confiável além de estar nas primeiras classificações dos mecanismos de busca. As técnicas de SEO são gerenciadas por uma interface, implementado em código HTML.

Caffeine


     O Google anunciou no seu blog GOOGLEBLOG em junho de 2010, o início das operações do Caffeine, seu novo sistema de indexação da web e afirma resultados das buscas serão 50% mais atualizados em comparação com a tecnologia anterior, quer se trate de uma notícia, um blog ou um post no fórum, agora pode-se encontrar links para conteúdos relevantes muito cedo após a sua publicação que era possível antes.
     Ainda no GOOGLEBLOG, a empresa explica por que investiu em um novo sistema de indexação. "O conteúdo na web está crescendo de uma forma absurda", conta a engenheira de software Carrie Grimes. "E cresce não apenas em tamanho e números mas com o advento de vídeo, imagens, notícias e atualizações de tempo real."
     A Google conta que, com o velho sistema de indexação baseado em camadas, alguns índices eram atualizados mais lentamente que outros, dependendo de sua posição nas camadas. "A camada principal poderia ser atualizada a cada duas semanas", explica.
     O sistema Caffeine analisa a web em "pequenos pedaços" e atualiza o índice de busca de forma contínua, ou seja, quando encontra novas páginas, ou novas informações em páginas existentes, elas são inseridas diretamente no índice, assim os resultados de buscas torna-se mais frescos.
     A cada segundo, explica a empresa, o sistema de indexação do Caffeine processa "centenas de milhares de páginas em paralelo". O Caffeine ocupa um banco de dados com cerca de 100 milhões de gigabytes, e acrescenta novas informações a uma taxa de “centenas de milhares de gigabytes por dia”.

Mecanismos de busca em robôs (spider ou crawler)

  
     Esse mecanismo é baseado em robôs (spider ou crawlers) que usam um software especial para vasculhar as páginas da internet. Esse software pode ser chamado de bot, rebot, spider ou crawler, eles navegam em páginas e encontram um site seguindo links destas páginas.
     Os Crawlers coletam conteúdo dos sites e os salvam em um banco de dados que é ordenado e indexado de acordo com o algoritmo do motor de busca. Ele anota os links do site e começa a ler o texto e vai seguindo os links, esses links também chamados de Fronteira de Navegação levam os Crawlers a outras páginas ou até mesmo faz com que o Crawlers saia do site.
     Depois que um Crawlers encontra uma página, ele solicita esta página a um servidor Web através de um HTTP, o servidor então retorna a fonte do código em HTML da sua página para o Crawlers. O Crawlers efetua a leitura, dando mais valor ao conteúdo e a forma que ele foi colocado no código fonte, desconsiderando qualquer tipo de arquivo de mídia.
     Dessa forma, a visibilidade do conteúdo deve ser levada em conta na hora do desenvolvimento.
     Depois de ler a página, o mecanismo de busca vai comprimir e armazená-la nos índices de mecanismos de buscas (Search Engine Index). Os dados são armazenados nesses índices de maneira que a busca consiga encontrar as páginas relevantes de acordo com as palavras-chave informadas e exibi-las nas páginas de resultado.
     O processo de inclusão da página no índice é chamado “indexação”, e é dessa forma que ela aparecerá nos resultados dos mecanismos de buscas, podendo variar de posição.
     O mecanismo de busca utiliza muitos fatores internos e externos para avaliar o posicionamento da página, esse processo é chamado de ranking.
Alguns sites podem ser penalizados perdendo algumas posições no ranking do motor de buscas se não cooperarem com os Crawlers.
     Um buscador que utilizava esse mecanismo de busca era o Google, atualmente ele anunciou o seu novo mecanismo de indexação de web, chamado Caffeine.

Mecanismos pagos por performance ou por inclusão paga.

     
     Esse mecanismo utiliza o resultado de outros mecanismos de busca para expor em suas listas de resultados.
     Geralmente as empresas contratam estes serviços de outras empresas que já tenham essa tecnologia desenvolvida e pagam uma taxa única para obter esse mecanismo.
     Exemplo Links Patrocinados do Google ou Yahoo.

Diretórios ou catálogos de busca

  
     Esse mecanismo de busca também conhecido como catálogo é desenvolvido por pessoas, diferentes das ferramentas de buscas que usam robôs. Esses catálogos também são chamados de Humam-Based (base humana), por terém que passar por análise humana. A boa classificação do site se dará devido à informação que foi fornecida durante o cadastramento do site.
     O nome diretório é devido ao banco de dados ser dividido e organizado em diretórios.
     Como exemplo comum, podemos citar as roupas tem uma subdivisão em vestidos, que por sua vez podem ser divididos em longos e curtos.
     O Google utiliza o DMOZ e o Yahoo! possui um diretório próprio.

Classificação dos Mecanismos de Busca


Os mecanismos de buscas na Internet podem ser classificados em:


  • Diretórios ou catálogos de busca.
  • Mecanismos pagos por desempenho ou por inclusão paga.
  • Mecanismos de busca baseado em robôs (spider ou crawlers).
 Em junho de 2010, o Google anuncia no GOOGLEBLOG, a inclusão de um novo sistema de indexação de web, chamado:
  • Caffeine.

Os Mecanismos de Buscas


     A grande quantidade de informações na web cresce de forma exponencial a cada dia, tornando-se uma dificuldade para encontrarmos o que procuramos.
     Os sistemas de buscas podem ser definidos como “um banco de dados que ajuda as pessoas a encontrar informações na Internet de acordo com as palavras ou termos digitados pelos usuários.”
     O usuário quer fazer uma pesquisa, ele digita uma palavra-chave, o mecanismo de busca vasculha o seu gigantesco banco de dados e mostra uma longa lista com todas as páginas de forma organizada que contém aquela palavra, o resultado é exibido em ordem de relevância e dividido em muitas páginas. O posicionamento da página é muito importante, pois o usuário costuma encontrar o que procura nas primeiras páginas.