Уводна статия за термини – търсачка, робот, спайдер, база данни и др.
По статистика над 80% от търсенето на информация в Интернет започва с използването на някоя търсеща платформа. У нас, както и в повечето страни търсенете в интернет започва с Google. Това е световна търсеща машина. Търсещи машини (наречени търсачки) са средства за търсене, които позволяват намиране на информация по зададени от потребителя термини (ключови думи за сайт). Те разполагат с база данни в които са записани множество резултати. Всяка една от тях работи по различен принцип за индексиране на сайт и за подреждането му в списъка на показваните резултати.
Съвременните посетители попадат на вашия сайт с помощта на търсачките чрез търсени от тях ключови думи. Има много програми за автоматична регистрация, ние не използваме такива. Аз лично не препоръчвам използването им, ако търсите реални и добри резултати, по-добре отделете няколко часа или ден дори, но регистрирайте ръчно своя сайт.
Услугата Регистриране на сайт в търсачки ние извършваме ръчно, което гарантира качеството на услугата. За ваше огорчение търсачката не вижда „красотата“ на сайта ви – ефектите на снимки и текстове, цветни блокове и мигащи абзаци. Те изчитат кода /сорса/ на самия сайт. От него извличат информация за сайта ви. Т.е. колкото дадена дума е по-често срещана в заглавието на сайт, описанието му и в съдържанието толкова резултата е по-висок – т.е. вашия сайт е по-напред в списъка с резултатите. Затова трябва да се обърне внимание на правилното подбиране на думи за:
- заглавие на сайт
- описание на сайт
- ключови думи на сайт
- съдържание на сайт
Регистрация на сайт в търсачки
Предлагаме услуга по регистриране на сайт във водещите търсещи машини. Това са: Google и Bing. Цената на услугата за регистрация към двете търсачки е 50 лева. На практика повечето търсещи сайтове включват резултати именно от тези два сайта. Така създавайки си в тях успешни регистрации, само след месец ще установите че сайта ви присъства в доста търсачки без да сте подавали регистрация там.
Регистрацията в Google и Bing включват следните стъпки: – създаване на карта тип xml на сайта; регистрация в Webmaster акаунт; подаване на карта за страниците в сайта. След успешните регистрации ще ви подадем данни за направените акаунти, като в тях може да проследите кои линкове са ви индексирани и съответно какви важни ключови думи са взети в предвид. Може да получавате и статистика колко често сайта ви е показван в резултатите и съответно кои думи колко често се срещат в сайта ви.
Що е робот ?
“Робот” или “спайдер” – програмиран код, който периодично обхожда хиляди уеб сървъри и събира информация за нови ресурси и на изменения на съществуващите. Принципът на събиране и каталогизиране на страници е прост: Като започва с дадена страница и проследява съдържанието й (индексиране на сайт), роботът проследява други URL /връзки в сайт/ в самата страница, открива новите страници и продължава с тяхното обхождане по същия начин. Така за кратко време роботът успява да събере огромен брой индексирани страници.
Базата данни съдържа копие от всяка страница (пълния текст или сведения за заглавие, ключови термини и др. информация), обходена от робота. Има търсачки, които индексират пълния текст на документа, т.е. всяка дума от този текст може да бъде търсеща – ако се зададе в полето на търсене, този документ ще бъде повикан в резултатите (Excite, Alta Vista, Google, HotBot, Infoseek, WebCrawler).
При други търсачки, роботите регистрират само заглавие, подзаглавни данни, анотации, или просто първите няколко реда от текста, които носят информация за темата на документа. (Lycos, ALIWEb, Galaxy, WWW search, Magelan).
Както вече казах, всяка уеб търсачка си има свой механизъм за търсене, който позволява на потребителя да въведе интересуващите го понятия, да търси в тази база-данни и да получи списък от адреси на сайтове по интересуващата го тема. Подреждането /класиране на сайт/ става най-често според честотата на срещане на думите от запитването като първо условие. Като второ – резултатите обикновено се подреждат по честота на посещаемост от други потребители и по брой на направени връзки към тях. Най-отгоре в списъка ще появят най-популярните и посещавани сайтове, към които са направени най-много препратки /аналогично към тях има най-много връзки от други сайтове/.
На създателите на уеб сайтове се препоръчва да подадат сами информацията, от която се нуждаят търсачките, за да може техният сайт да бъде индексиран правилно и “повикван” при търсене.