Jak wygląda profesjonalne podejście do SEO?

piątek, 7 maj 04, 10:50

Bardzo ciekawa rozmowa na temat pozycjonowania - a właściwie profesjonalnego, kompleksowego i skutecznego podejścia do tematu. Obowiązkowa lektura dla osób zainteresownaych tematem.

Robert Rudecki napisał/a na Merytorium.pl dnia 2004-05-07 12:45:15:

Przedstawiam poniżej ofertę mojego znajomego w zakresie pozycjonowania ponieważ widzę, że zainteresowanie tym tematem jest dość spore.

Mam nadzieję, że to nie zostanie potraktowane jako spamowanie forum. Jeśli ktoś to odczuł w ten sposób, z góry przepraszam ale moje działanie jest jak najbardziej skierowane dla osób, które chcą skorzystać z fachowej porady człowieka, który na tym się zna.

Pozdrawiam,
Robert Rudecki

Na świecie nie używa się określenia pozycjonowanie - a jeśli już to zwykle w bardzo pejoratywnym kontekście. Obecnie wykonuje się SEO (Search Engine Optimization). Polega to na kompletnej przebudowie całości serwisu - zwykle jest to etap związany z planowaniem serwisu lub kompleksową zmianą.

Zmiany dotyczą doumentów, ich outline'u (czyli struktury logicznej), layoutu (czyli elementów grafiki i kompozycji na stronie), podziału tematycznego i logicznego zawartości strony i serwisu i nadania poprawnych struktur, optymalizacji tekstów, optymalizacji skryptów, adresów stron i linków... to jest wersja "standard". PR do zdobycia tym sposobem to ok 5/10

W wersji "hard" (przy ok 0.5 mln dokumentów konkurencji i powyżej) dodatkowo zmieniane są wszystkie możliwe elementy na stronie. WSZYSTKIE. Poziom kluczowych słów musi wahać się między 5 a 10 % CAŁOŚCI DOKUMENTU (włączając cały HTML). PR do zdobycia 5/10 - ale zeby pozycja była stabilna serwis musi składaś się z minimalnie 100-200 podstron.

W weresji - nazwijmy ją "extreem" - powyżej 1 mln dokumentów konkurencji, dodatkowo wykonuje się strukturyzację sąsiedztwa (czyli buduje się sieć wzajemnych wymian linków z innymi serwisami). Tylko w ten sposób można wyjść z PR 5/10. Poziom linków wchodzących musi być nie mniejszy od 100 stron o min. PR 4/10. Ok 300 podstron dokładnie podzielonych tematycznie w struktury. To jest robota na pół roku - rok.

Najwyższy polski PR mają strony wp.pl (PR 7-8/10) Mają nie do końca
przemyślaną strukturę tematyczną więc nie jest to maks. Z takiej ilości
danych wycisnąłbym 9/10.

9/10 i 10/10 to np. cnn.com - bezpośrednie źródło danych, które nie powołuje się na nic poniżej 7/10, ma ok 1000 linków wchodzących, strukturę podziału logicznego i tematycznego, dostosowanie do oglądania wszystkimi możliwymi urządzeniami (readery dla niewidomych, GSM, WAP, LYNX, przeglądarki. systemy newsreaderów). Dane podzielone są w piramidy tematyczne. 5-6 poziomów głebokości danych. Same w sobie stanowią "sieć danych" więc na mapie internetu stanowią bardzo gęste kłębowisko. To są serwery danych - takie gwiazdy w ciemności. Można coś takiego zrobić przy mądrym przeorganizowaniu np. zasobów PAP.pl (co ciekawe, pap nie jest indeksowany przez google.... ale dziennik.pap.com.pl ma PR 6/10 )

Pozycjonuje się na to, czego szukają użytkownicy internetu - nie na to,
czego oczekuje zleceniodawca. Wybiera się zbiory fraz i słow, które pasują do zamówienia klienta. Pozycjonowanie na słowa wybrane przez klienta - zwykle kończą się tym że strona jest wysoko w wyszukiwarkach na słowa których nikt nie szuka (cała para w gwizdek). Jest to mozolne zliczanie wyrazów i fraz - u siebie, u konkurencji, w wyszukiwarkach.
Ważenie dokumentów (określanie procentowego udziału tematyki oraz rozkładu na stronie).

Pozycjonowanie wykonuje się w kilku etapach. W zależności od historii
serwisu (tego jak wcześniej go zbudowano - i jak był indeksowany)
indeksowanie trwa od miesiąca do kwartału (i to jest czas samego oczekiwania na wyniki a nie czas przerabiania). Doorwaye, spam itp które można kupić także na aukcjach to syf, który nie pozycjonuje. Daje niestabilną i chwilową pozycję (do momentu reindeksowania sieci przez googlebota). Po zreindeksowaniu pozycja może spaść o 10-20 stron, jeśli bot wykryje tricki i źle umiejscowi serwis na mapie innych źródeł danych. Polskie wyszukiwarki + inne niż google są prymitywne. Można je oszukać... ale użytkownicy internetu wiedzą że tam nie znajdą nic dokładnego. Najdokładniejsze dane daje google.

Co więcej... google oficjalnie podaje, że zaindeksowało prawie 5 mld stron. Najprawdopodobniej jest ich o wiele więcej. Na samą literę "a" google podają 3,5 mld wyników - a przecież języki azjatyckie nie mają tego znaku.
Nieoficjalnie mówi się o ok 8 mld. dokumentów. Do tego należy dodać
podsystemy googla - zwłaszcza graficzne i słownikowe. Konkurowanie ze
stronami o ok 1 mld. dokumentów jest bardzo trudne (lub prawie niemożliwe). Wymaga masy zawartości stron i bardzo stabilnej pozycji medialnej.

no i max! czyli 11/10 i 12/10... to wynika z przeliczeń dmoz.org/google.PR .

ok 11-12/10 ma samo google.com. Pasek zapalony do końca... i jeszcze zapas poza skalą.

Pozdrawiam,
Jacek Z. Strzembkowski

e-mail: info@aukcje.org

PS. mogę się podjąć pozycjonowania, do kilku mln dokumentów konkurencji. Ale dla kogoś kto zdaje sobie sprawę z tego czego oczekuje. I jakie są koszta przebudowy. Takie coś kosztuje. I to jest prawdziwe SEO a nie pozycjonowanie za 50 PLN.
Czytaj na Forum Merytorium.pl