Audyt |
Audyt SEO |
Baza wiedzy | Jak pomóc w pracy robotom sieciowym ?
Jak pomóc w pracy robotom sieciowym ?
Roboty sieciowe mają specyficzną pracę. Ich rolą jest zachowywać się jak pająk i podążać za linkami zamieszczonymi na różnych podstronach kolejnych adresów WWW, w celu indeksowania danych. Teraz powstaje pytanie, czy można jakoś pomóc robotom sieciowym w pracy przy indeksowaniu naszej witryny.
Z całą pewnością można im przeszkadzać i utrudniać wykonanie zadania. Jest to bardzo proste. Wystarczy z poziomu pliku robots.txt wpisać adresy podstron które mają być pomijane przy indeksowaniu. Można też na ten przykład nie zamieścić mapy strony lub co gorsza umieścić starą czyli nie aktualną mapę strony. Można też umieścić w stronie dużo nie działających linków lub nie dbać o czystość kodu robiąc bałagan w znacznikach i atrybutach. To tylko część z możliwości jakie mamy aby utrudnić pracę robotom sieciowym.
Warto przeczytać również :
Jak serwer wpływa na prędkość indeksowania ?
Jak działa Google i jak zbiera informacje ?
Dlaczego indeksowanie jest takie ważne ?
Jak pomóc robotom sieciowym w pracy ?
W pierwszej kolejności warto zlecić
profesjonalny audyt SEO, przy pomocy raportu po audycie, można namierzyć większość elementów do zmiany. W każdym razie, działanie po omacku raczej nie pomoże. Lepiej mieć plan a taki plan najlepiej oprzeć na profesjonalnym audycie SEO.
Przyjmijmy że taka usługa została zlecona a w wyniku pracy specjalisty otrzymaliśmy dokument w formie raportu po audycie SEO. Taki dokument powinien wymieniać jakie błędy zostały popełnione oraz na jakiej podstronie. Przy pomocy tak skonstruowanego raportu po audycie SEO, sprawny programista powinien odnaleźć wszystkie elementy do poprawy i tak je zoptymalizować aby były poprawnie zastosowane oraz wypełnione.
W pierwszej kolejności powinniśmy zająć się elementami które generują kody błędów 4xx oraz 5xx. Takie kody wyświetlane są po braku dostępu do pliku źródłowego. Powodów może być wiele, między innymi, brak pliku, błąd w linku, zła konfiguracja serwera, oczywiście to tylko cześć z przypadków jakie mogą się zdarzyć. Przy okazji naprawy linków wywołujących błędy kodowane pozbędziemy się kilku linków niedziałających.
Ważnym elementem jest naprawienie wszystkich błędów HTML. Z błędami w CSS jeszcze można żyć. Ale błędy popełnione w składni HTML skutecznie utrudniają pracę robotom sieciowym. Dlatego pamiętaj o zamykaniu znaczników które wcześniej otworzysz. O prawidłowym zastosowaniu atrybutów w znacznikach takich jak title czy alt. A na resztę błędów otrzymasz instrukcję z W3C.
Eliminując błędy w kodzie HTML i znacznikach możesz usprawnić pracę robotów sieciowych. Pomagając w pracy tym pożytecznym pajączkom, pomagasz też sobie. Szybsze indeksowanie to również zapoznanie się z większą ilością podstron przy jednym podejściu przez robota. A im więcej taki robot pozna podstron i ich zawartości tym lepiej dla Twojej witryny internetowej. Poznając całą strukturę strony internetowej, robot przekaże wszystkie zdobyte informacje. A to pozwoli zdobyć wyższe pozycje w wynikach zwracanych przez wyszukiwarki swoim użytkownikom.