Do góry

Czym było pozycjonowanie i optymalizacja stron – historia

Elementy copywritingu jako ważne czynniki rankujace

Wiki – Optymalizacja dla wyszukiwarek internetowych (ang. Search engine optimization – SEO; zwana także pozycjonowaniem, ang. Web Positioning) – działania zmierzające do osiągnięcia przez dany serwis internetowy jak najwyższej pozycji w wynikach organicznych wyszukiwarek internetowych dla wybranych słów i wyrażeń kluczowych. W polskiej nomenklaturze branżowej dominuje rozróżnienie między pozycjonowaniem a optymalizacją stron. Pierwszy z terminów odnosi się do działań prowadzonych poza docelową witryną (np. Link building), zaś optymalizacja w takim kontekście oznacza działania prowadzone bezpośrednio na stronie internetowej (wpływające na jej budowę, treść i strukturę).

Optymalizacja stron w podejściu historycznym

Optymalizację strony podzielić można na działania związane z modyfikacją treści na witrynie (pod kątem fraz, na które zamierza się prowadzić kampanię) oraz zmianami w kodzie strony, niemającymi bezpośredniego wpływu na wygląd serwisu.
W skład optymalizacji treści wchodzi m.in.:
1.    dopasowanie treści w tagu tytułowym,
2.    umieszczenie lub rozmieszczenie słów kluczowych w istniejących tekstach lub tworzenie nowych (SEO copywriting),
3.    dobór adekwatnych nagłówków,
4.    odpowiednie zaaranżowanie treści menu i innych elementów, wchodzących w skład linkowania wewnętrznego serwisu,
5.    ustawienie tekstu alternatywnego dla elementów graficznych oraz innych obiektów (np. Flash).
Dawniej działania te ograniczały się do zmiany treści tagów meta Keywords i Description, których obecność na stronie dla większości współczesnych wyszukiwarek ma znaczenie marginalne.

Kod i struktura strony

Działania w dużej mierze niewidoczne dla przeciętnego użytkownika strony, mające jednak wpływ na jej indeksowanie i klasyfikacje w wyszukiwarkach to np.:
1.    dostosowanie strony do standardów W3C,
2.    oddzielenia warstwy logicznej struktury dokumentu od warstwy jego prezentacji (np. poprzez zastosowanie CSS),
3.    poprawa czasu ładowania strony,
4.    rozwiązanie problemu powielonej treści, np. poprzez wskazanie wersji preferowanej za pomocą konwertowania kanonicznego z poziomu kodu HTML lub nagłówku HTTP dokumentu[1]; w przypadku zawartości błędnie powielonej wykonując przekierowanie 301[2],
5.    zastosowanie przyjaznych adresów, np. przy użyciu mod_rewrite,
6.    umożliwienie głębokiego linkowania w przypadku animacji Flash oraz zapewnienie alternatywnej wersji dla przeglądarek bez wsparcia dla wspomnianej technologii (w tym robotów wyszukiwarek internetowych),
Pozycjonowanie
Pozycjonowanie jest następującym zazwyczaj po optymalizacji procesem pozyskiwania odnośników z serwisów zewnętrznych, które są jednym z czynników wpływających na pozycje w wynikach wyszukiwania.

Terminologia
•    SERP – (ang. Search engine results page) – wyniki wyszukiwania w wyszukiwarce
•    PR – PageRank – matematyczny algorytm stworzony przez Google, na podstawie którego obliczana jest ważność znalezionych stron dla każdego zapytania a także liczbowy efekt działania tego algorytmu.
o    TPR – (ang. Toolbar PageRank) – PageRank wyświetlany w postaci zielonego paska na pasku narzędziowym zainstalowanym w przeglądarce stron WWW tzw. Google Toolbar
o    GDPR – (ang. Google Directory PageRank) – PageRank publicznie dostępny w katalogu Google
o    RPR – (ang. Real PageRank) – Wskaźnik PageRank nie jest wartością wyświetlaną przez wskaźnik na Google Toolbar:
    TPR – RPR
    0/10 – 0.15 – 0.9
    1/10 – 0.9 – 5.4
    2/10 – 5.4 – 32.4
    3/10 – 32.4 – 194.4
    4/10 – 194.4 – 1,166.4
    5/10 – 1,166.4 – 6,998.4
    6/10 – 6,998.4 – 41,990.4
    7/10 – 41,990.4 – 251,942.4
    8/10 – 251,942.4 – 1,511,654.4
    9/10 – 1,511,654.4 – 9,069,926.4
    10/10 – 9,069,926.4 – 0.85 ? N + 0.15
•    AT – Anchor Text – tekst/wyrażenie zawarte w <a href=”http://example.com/”>treść odsyłacza</a>
•    Content – Zawartość stron/witryn: tekst, obrazki. Kiedyś obowiązywała zasada „Content is King” – czyli najważniejsza dla pozycjonowania na stronie jest jej zawartość/treść – content
•    Duplicate Content Penalties – Tworzenie kilku kopii jednego dokumentu lub strony, w przypadku kopii strony mówi się o mirrors strony
•    IBL – Inbound Links – Liczba linków wskazujących na dany adres pliku/strony www, najlepiej z odpowiednim anchor text-em
•    Index/indeks stron – Zbiór stron dostępnych w danej wyszukiwarce – stron zindeksowanych przez robota wyszukiwarki
•    Link exchange – Wymiana linków jest stosowana do podniesienia IBL pomiędzy stronami o wysokim PR
•    Link popularity – Wartość otrzymana dla zapytania (link:adres strony)
•    Naturalne linkowanie – Polega na rozpowszechnianiu w sieci linków do strony bez budowania specjalnych do tego celu stworzonych stron
•    OBL – Outbound Links – Liczba linków wskazujących na zewnętrzne adresy plików/stron www
•    Pozycjoner – Prawidłowa nazwa konsultant ds. pozycjonowania stron www/seo
•    TBPR Update – Toolbar PageRank Update – inaczej update PageRank
•    Update PageRank – Zmiana wartości publicznie dostępnej PR wskazywanej przez Toolbar Google
•    TB Program Update – Zmiana w oprogramowaniu odpowiadającym za sposób obliczania PR
•    GDPR Update – Google Directory Update – Zmiana wartości PR publicznie dostępnej w katalogu Google PR
•    Update IBL – Zmiana wartości dla zapytania (link:adres strony)
•    BL Update – Backlink Update – Zmiana wartości dla zapytania (link:adres strony)
•    Algo Update – Algorithm Update – Zmiana algorytmu odpowiadającego za rezultaty SERP
•    Site – Liczba zaindeksowanych przez wyszukiwarkę podstron witryny

Historiapozycjonowania stron

Pozycjonowanie stron rozpoczęło się wraz z rozwojem pierwszych wyszukiwarek internetowych. Webmasterzy dążyli do tego, aby ich strona pojawiła się jako pierwsza w wynikach wyszukiwania dla danego zapytania. Początkowo nie było to trudne, gdyż wyniki w wyszukiwarkach opierały się na analizie słów kluczowych podanych przez autora w nagłówku strony. Później jednak, między innymi ze względu na łatwą manipulację słowami kluczowymi, wyszukiwarki zaczęły je ignorować, odwołując się bezpośrednio do treści strony.
Ewolucja wyszukiwarek wywołała ewolucję pozycjonowania przechodzącego przez wszelkie algorytmy binarne i wektorową analizę treści strony. Dopiero wyszukiwarki oparte na analizie topologii sieci, zliczające linki (takie jak Google), podniosły poziom trudności pozycjonowania stron. Zaawansowane algorytmy analizy topologii sieci wielu osobom wydawały się odporne na wszelkiego rodzaju próby manipulacji/modyfikacji SERP, jednak zjawisko Google Bomb, polegające na masowym dodawaniu na stronach linku ze wskazanym przez pomysłodawcę anchor tekstem, pokazało drogę do łatwego modyfikowania indeksu.
Termin „pozycjonowanie” pojawił się ok. 2002 r, wcześniej funkcjonował anglojęzyczny „web positioning”. Pierwsze powszechnie znane „polskie” Google Bomb pojawiło się na przełomie 2003 i 2004 roku i polegało na linkowaniu ze słowem kluczowym kretyn adresu do sejmowej strony internetowej polskiego posła Andrzeja Leppera, co w efekcie dało pojawianie się wspomnianej strony na czołowych miejscach w wynikach wyszukiwania w Google dla hasła „kretyn” (zwykle jako pierwszy wynik). Akcja ta zyskała wielu naśladowców i podobne zjawiska można było zaobserwować dla innych słów i wyrażeń.
Skala działalności Google Bombing we wrześniu 2008 roku doprowadziła przed Sąd także młodego webmastera, 23-letniego Marka W. z Cieszyna, któremu został postawiony zarzut obrazy głowy państwa – Lecha Kaczyńskiego. Po wpisaniu w okno zapytań Google jednego z powszechnie uznawanych za obraźliwe słowa – strona www prezydenta RP pojawiała się jako jedna z pierwszych.
Pod koniec 2009 roku Google wprowadziło wyszukiwanie w czasie rzeczywistym (Real Time Search), polegające na przedstawianiu najaktualniejszych wyników z serwisów społecznościowych oraz mikro-blogów. 19 marca 2010 roku funkcja wyszukiwania w czasie rzeczywistym została oficjalnie wdrożona do polskiej wersji wyszukiwarki Google.

SEO na rynku międzynarodowym

Udziały rynku optymalizacji dla wyszukiwarek internetowych są różne w zależności od rynku i także jego konkurencyjności. W 2003 roku Danny Sullivan ustalił, że Google realizuje ok. 75% wszystkich wyszukiwań. Na rynkach poza USA udział Google jest często większy i w 2007 roku Google było dominującą wyszukiwarką na świecie. W 2006 roku Google obejmowało 40% rynku w USA, ale miało ok. 85-90% udziałów w Niemczech. Podczas gdy w tym samym czasie w USA istniały ponad setki firm przeprowadzających optymalizację dla wyszukiwarek internetowych, w Niemczech było zaledwie pięć.
W Rosji sytuacja jest odwrotna. Lokalna wyszukiwarka Yandex kontroluje 50% płatnych reklam z dochodu państwa, podczas gdy Google ma mniej niż 9% udziału. W Chinach Baidu w dalszym ciągu prowadzi w udziałach na rynku, choć w 2007 Google także uzyskało tu udziały.
Pomyślna optymalizacja dla wyszukiwarek dla rynków międzynarodowych może wymagać zawodowego tłumaczenia stron internetowych, rejestracji nazwy domeny z grupy domen wysokiej jakości na rynku docelowym i hostingu, który zapewnia lokalny adres IP. W przeciwnym wypadku fundamentalne elementy optymalizacji dla wyszukiwarek są w istocie te same i niezależne od języka.

Kontrowersje w okół SEO

Kontrowersje w pozycjonowaniu stron wynikają ze sposobów zdobywania linków prowadzących do stron – IBL oraz z nieetycznych technik stosowanych w pozycjonowaniu. Działania niezgodne z zaleceniami dla webmasterów przyjęło się nazywać spamem w wyszukiwarkach. Spam w wyszukiwarkach jest traktowany podobnie jak spam pocztowy, czyli elektroniczne wiadomości masowo rozsyłane do osób, które ich nie oczekują.
W wyszukiwarkach stworzono specjalne strony, na których można zgłaszać strony, które stosują nieetyczne metody pozycjonowania, np. Google – Raport dotyczący spamu.

Etyczne i nieetyczne techniki pozycjonowania

W związku z ogromnym zainteresowaniem pozycją danej strony w wyszukiwarce zaczęto stosować różnorodne metody pozycjonowania m.in. takie, których nie akceptują twórcy wyszukiwarek lub nie są zgodne z zaleceniami dla tworzących strony, gdyż „zaśmiecają” wyniki wyszukiwania. Te metody zaczęto nazywać nieetycznymi. Są to na przykład:
•    Duże nagromadzenie słów kluczowych
•    Słowa kluczowe niezgodne z treścią
•    Ukrywanie słów kluczowych, np. użycie tekstu w kolorze tła, umieszczenie na niewidocznym elemencie lub w miejscu zwykle nie oglądanym przez użytkownika.
•    Cloaking (ang. cloak – płaszcz) – serwowanie robotom wyszukiwarek (rozpoznawanych np. po adresach lub tzw. User-agent) specjalnie spreparowanej wersji strony.
Wykrycie stosowania takich technik może jednak przynieść odwrotny skutek – całkowitą eliminację strony z wyników wyszukiwania.
Należy wspomnieć, że wiele metod ułatwiających użytkownikom poruszanie się po stronie i odnajdowanie informacji może przyczynić się do poprawy wyników w wyszukiwarkach. Niektóre przykłady to:
•    Wymiana linków i banerów ze stronami o podobnej tematyce, umieszczanie stron w katalogach tematycznych
•    Rezygnacja z nawigacji uzależnionej od dodatkowych technologii, np. JavaScriptu, Flasha lub ramek, poprawa możliwości poruszania się po stronie, użycie mapy strony
•    Usunięcie błędów (np. składniowych) z kodu strony
•    Optymalizacja kodu strony, usunięcie nadmiarowych znaczników HTML
•    Dobre opisanie elementów strony, np. tytułu strony lub treści alternatywnej dla grafiki
•    Czytelne opisywanie odnośników (unikanie opisów typu „tutaj” albo „kliknij” na korzyść lepiej opisujących zawartość strony, do której prowadzą)
•    Stosowanie „przyjaznych” adresów (np. http://example.com/sklep/drukarki/laserowe/ zamiast http://example.com/index.php?page=236&id=32)
•    Wyróżnianie (np. pogrubienie, podkreślenie) ważniejszych słów, stosowanie nagłówków
Bardzo istotne jest również optymalizowanie treści i artykułów zawartych na stronie tak, aby lepiej odzwierciedlała założone w fazie projektu frazy kluczowe, poprzez np. używanie słów kluczowych w mianowniku.
W odróżnieniu od nieuczciwych metod pozycjonowania, tutaj można być pewnym, że te metody będą zawsze akceptowane przez wyszukiwarki, a ich stosowanie nie spowoduje eliminacji strony z wyników wyszukiwania.

Author avatar
Wojciech Hadała
https://hadalawojciech.pl
Na bieżąco śledzę trendy w SEO (optymalizacji pod kątem wyszukiwarek internetowych) i pozycjonowaniu (link building), ale interesuję się również social mediami, marketingiem dla urządzeń mobilnych oraz SXO (Search Engine Experience). Codziennie przekonuję się o tym, że praca może łączyć się z pasją, stając się tym samym ciekawym i pełnym wyzwań sposobem na życie.Teoria? Bardziej cenię sobie praktykę i wysoką efektywność działań. Dzięki doświadczeniu łączę w odpowiednich proporcjach SEO, User Experience oraz Web Performance, spełniając oczekiwania użytkowników poszukujących w sieci Twojego produktu lub usług.Więcej o posiadanych kwalifikacjach, certyfikatach i doświadczeniu dowiesz się na stronie O mnie. Szukasz wiedzy, inspiracji lub masz chwilę wolną i chcesz coś poczytać? Zapraszam na mój blog. Potrzebujesz pomocy lub porady w zakresie SEO / Link Building? Po prostu skontaktuj się ze mną.Polecam się do kontaktu w kwestiach technicznych oraz przy wytycznych do rozbudowy serwisu.

Zostaw komentarz, będę wdzięczny

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Używam plików cookie, aby zapewnić najlepszą jakość serwisu.