ponedeljek, 25. april 2011

Optimizacija spletnih strani - Onsite SEO (2. del)

Poleg že v prejšnjem postu omenjenih alternativnih tekstov in optimizacije html kode, bi rad izpostavil še določene druge pripomočke in postopke, ki jih skoraj obvezno morate uporabiti na vaši strani. 

1. ROBOTS.TXT IN META TAG ROBOTS


Datoteka robots.txt omogoča lastnikom spletnih strani, da dajo navodilo iskalnim pajkom, katere dele strani lahko vključijo v svoje rezultate in katere ne. Gre za preprosto tekstovno datoteko, ki se mora naložiti v vrhnji direktorij vaše spletne strani. V datoteki se določi katere direktorije naj iskalni pajki ne indeksirajo. Če datoteka ne obstaja, potem pajki avtomatsko indeksirajo vse direktorije vaše strani.

Primer 1:
User-agent: *
Disallow: /

"User-agent:*" pomeni navedbo iskalnih pajkov, ker imamo v tem primeru * to pomeni da pravilo velja za vse iskalne pajke.
"Disallow:/" v tem primeru smo določili kot direktorij, ki ni dovoljen za prikaz v rezultatih, kar vrhnji direktorij, kar pomeni, da iskalni pajki nebi smeli obisklati nobene od strani na naši spletni strani.

Primer 2:
User-agent: *
Disallow: /modules/
Disallow: /tmp/
Disallow: /mb/

V tem primeru smo za indeksiranje vsem iskalnim pajkom zaprli le direktorije modules, tmp in mb.

Druga možnost, ki pride prav predvsem, ko je stran še v delovni fazi oz. na delovni povezavi je html meta tag s katerim poveste iskalnim pajkom, da naj ne indeksirajo vsebine vaše strani in ne sledijo povezavam na vaši strani. Ta del kode je: <META NAME="ROBOTS" CONTENT="NOINDEX, NOFOLLOW">
Vstavimo ga v glavo html kode med <head></head>.

Ko je stran povsem dokončana, lahko ta delček kode odmaknemo in omogočimo indeksacijo. Pomembno je, da se ta koda nahaja na vseh straneh in podstraneh. To najlažje dosežemo v primeru, da stran uporablja oblikovno zasnovo (template) tako, da jo dodamo v to zasnovo. Drugače pa je potrebno kodo vstaviti ročno v vsako stran in podstran.

Bolj podrobo razlago s primeri robots.txt datoteke najdete na strani The Web Robots Pages.

2. SITEMAP.XML

Sitemap.xml je posebna oblika načrta vaše spletne strani, ki se lahko pošlje v Google preko njihovega orodja za lastnike spletnih strani ( Google Webmaster Tools ). Za dostop do tega orodja potrebujete Googlov račun. Velika večina danes uporabljanih sistemov za postavitve spletnih strani že vključuje modul za sitemap.xml, ki se običajno še samodejno posodablja. Če tega vaša spletna stran nima, lahko sitemap.xml ustvarite tudi s pomočjo strani http://www.xml-sitemaps.com/ kamor vnesete povezavo vaše spletne strani in si s pomočjo orodja na spletni strani prenesete pripravljeno sitemap.xml datoteko. To datoteko lahko pošljete tudi v iskalnika Yahoo in Bing preko njunih orodji za lastnike spletnih strani.
Na ta način iskalniki lažje ugotovijo katere spletne strani in podstrani imate in jih indeksirajo oz. uvrstijo v svoj nabor rezultatov.

3. BREADCRUMBS - KRUŠNE DROBTINICE

Breadcrumbs oz. v direktnem prevodu krušne drobtinice so niz povezav do trenutne strani, ki je ponavadi pozicioniran v zgornjem levem ali desnem robu nad vsebino posamezne strani. Preko tega niza uporabnik najlažje ugotovi kje v strukturi strani se nahaja in se premakne nazaj na višji nivo. Zadeva je koristna tako za uporabnike, kot tudi za iskalne pajke, ki preko krušnih drobtinic še laže zaznajo strukturo vaše strani in indeksirajo vse podstrani. V primeru, da Google prepozna vaše krušne drobtinice, so vaše strani lahko prikazane v Googlovih rezultatih z več povezavami hkrati: Google Breadcrumbs.