Już po trzech miesiącach po rozpoczęciu działań SEO widać pierwsze efekty w wyszukiwarce Google,
które będą miały wpływ, aby dotrzeć do pierwszych klientów w Twojej firmie. Gwarantujemy, że w
ustalonych frazach kluczowych wystarczy około 9 miesięcy, aby znaleźć się w pierwszej dziesiątce lub
w pierwszej piątce.
Zwiększaj ilość Twoich klientów!
Więcej osób dotrze do twojej firmy
Nasza sprawdzona strategia polega na maksymalizacji ruchu organicznego w Twojej witrynie.
Zauważysz znaczącą różnicę w swoich rankingach po pierwszych kilku miesięcach oraz
pojawią się pierwsi nowi klienci zainteresowani Twoją ofertą produktową lub usługami, które
oferujesz prezentując je na swojej stronie internetowej.
Zarabiaj więcej dzięki pozycjonowaniu!
Nasze doświadczenie pozwoli twojej firmie na wzrosty sprzedaży
Przy zaangażowaniu klienta pozycjonujemy strony internetowe w dowolnej ilości fraz
kluczowych już za 1790 PLN* netto miesięcznie (z obsługą ADS włącznie!). Wraz z pozycjonowaniem udzielamy wszelkiego
wsparcia biznesowego dotyczącego zdobywania potencjalnych klientów docierających za
pośrednictwiem wyszukiwarki Google i Ai.
Jesteśmy polecani przez wiele firm!
HABA GROUP to wiodąca agencja SEO w Polsce. Specjalizujemy się w
dostarczaniu zróżnicowanych rozwiązań SEO dla małych firm i średnich przedsiębiorstw na terenie
całego kraju i poza jego granicami. Jako agencja oferująca pełen zakres usług cyfrowych, HABA GROUP
jest uznaną firmą z wieloletnim doświadczeniem w dziedzinie optymalizacji pod kątem wyszukiwarek i tworzenia
treści internetowych. HABA GROUP skutecznie wspiera firmy w osiąganiu czołowych pozycji w Google,
dostarczając usługi najwyższej jakości.
Cennik pozycjonowania stron SEO
Bez ukrytych kosztów dodatkowych! Reklamy Google ADS w cenie.
Zaoszczędzisz ale będziesz się dużo angażować - dla tych co mają czas
W tym pakiecie będziemy oczekiwać od Ciebie różnego rodzaju materiałów w postaci
nagrań do transkrypcji, gotowych tekstów i zdjęć, aby tworzyć content na stronie.
Będziemy Cię angażować raz w miesiącu na spotkaniu on-line.
Zapłacisz więcej ale poświęcisz mało czasu ze swojej strony (popularne)
W tym pakiecie będziemy sami Tworzyć większość materiałów i oczekiwać od Ciebie
tylko niezbędnych materiałów w postaci nagrań do transkrypcji, tekstów i zdjęć,
aby wzbogacać content na stronie.
Będziemy Cię angażować kwartalnie na spotkaniu on-line.
Wszystko zrobimy za Ciebie - Gdy Twój czas jest bardzo cenny
W tym pakiecie będziemy sami Tworzyć materiały i oczekiwać od Ciebie
tylko niezbędnych informacji związanych z tym co powinno pojawić się na stronie.
Będziemy Cię angażować sporadycznie tylko i wyłącznie w kluczowych kwestiach
na spotkaniu.
*Prezentowane powyżej ceny mają charakter informacyjny i nie stanowią oferty handlowej w rozumieniu art. 66 § 1 Kodeksu cywilnego.
Maksymalny budżet dla Google Ads:
• Opcja 1: do 1 000 PLN (do 30 słów/fraz kluczowych)
• Opcja 2: od 1 000 do 4 000 PLN (do 60 słów/fraz kluczowych)
• Opcja 3: od 4 000 do 10 000 PLN (do 90 słów/fraz kluczowych)
Rzeczywista cena może się różnić w zależności od indywidualnych ustaleń, specyfikacji zamówienia lub warunków świadczenia usługi.
Jeśli kiedykolwiek zastanawiałeś się nad pytaniem: „Czym jest SEO?”, nie jesteś w tym sam. W branży pełnej
akronimów termin SEO jest wyszukiwany w Polsce kilkaset tysięcy razy miesięcznie! Ale co to tak naprawdę oznacza?
Mówiąc najprościej, SEO, czyli pozycjonowanie to optymalizacja stron internetowych pod kątem wyszukiwarek.
W dzisiejszej erze zaawansowanej technologii, wyszukiwarki takie jak Google, Bing, Yahoo i Ask doskonale
rozumieją intencje i kontekst każdego zapytania. Na przykład, gdy wpiszesz „SEO Gdańsk” w Google, jest jasne,
że szukasz firmy SEO w Gdańsku. Ale co, jeśli wpiszesz „Jak sprawić, by
moja firmowa strona internetowa pojawiła się na pierwszej stronie Google?” z adresu IP w Gdańsku? Nie używasz
słów kluczowych „SEO” ani „Gdańsk”, a mimo to szukasz dokładnie tego samego.
Czy nie czujesz się zdezorientowany? Nie ma powodu, by tak było, ponieważ Google nie jest. W 2025 roku
niejednoznaczność słów kluczowych przestała być problemem, dzięki algorytmowi o nazwie Hummingbird, który
pozwala Google określić „intencję” stojącą za Twoim zapytaniem. Połączenie tego z pingowaniem urządzenia, na
którym dokonano wyszukiwania, umożliwia Google wyświetlanie wyników odpowiadających tej „intencji”, tak samo
jak na rzeczywiste „pytanie”, które zadałeś. Dodatkowo, Google geotargetuje wyniki, dostosowując je do lokalizacji,
z której wykonano wyszukiwanie. Tak więc, bez względu na to, czy wpiszesz „SEO Gdańsk”, czy „Jak sprawić,
by moja mała strona internetowa pojawiła się na pierwszej stronie Google”, otrzymasz odpowiednie wyniki,
które odpowiadają Twojemu zapytaniu, posortowane (według „opinii” Google) od najbardziej trafnych do najmniej trafnych.
Wyszukiwarki kiedyś i dziś.
W połowie lat 90. wyniki wyszukiwania opierały się niemal wyłącznie
na słowach kluczowych, które występowały na stronie, oraz na tym, jak często te słowa pojawiały się w treści
witryny. Jeśli chciałeś osiągnąć wysoką pozycję w rankingu dla frazy „marketing internetowy” (na przykład),
powtarzałeś to wyrażenie w całym tekście (a czasem ukryte w kodzie HTML) tak często, jak to było możliwe,
nie zwracając uwagi na kontekst, w jakim te słowa były użyte.
W tamtych czasach kluczowe znaczenie miała gęstość słów kluczowych. Istniało przekonanie, że tajemniczy algorytm
oblicza idealną liczbę wystąpień słów kluczowych, by strona osiągnęła wysoką pozycję w wynikach wyszukiwania.
Jeśli umieściłeś frazę „marketing internetowy” dwadzieścia razy, mogło się okazać, że to za mało, by przebić
się na pierwszą stronę wyników. Z kolei trzydzieści pięć wystąpień mogło spowodować, że algorytm uznał to za
„upychanie słów kluczowych” i Twoja strona spadała w rankingach. Kluczowym pytaniem było więc, jak znaleźć
optymalny procent gęstości słów kluczowych, który zapewni widoczność w wyszukiwarce. Trafienie w odpowiedni
poziom otwierało drzwi do sukcesu w rozwijającym się świecie online, ale każdy błąd skutkował niemal całkowitą
niewidocznością strony.
Nie było jednoznacznej odpowiedzi na pytanie, jaka jest optymalna liczba iteracji słów kluczowych w konkretnej
branży (choć samozwańczy „eksperci SEO” twierdzili, że znają tę odpowiedź). Bez względu na to, jaki był idealny
procent gęstości słów kluczowych, było jasne, że różnił się on w zależności od wyszukiwarki – Yahoo, Web Crawler,
AltaVista, Excite, InfoSeek i innych. Każda z tych platform korzystała z odmiennych, zastrzeżonych metodologii,
aby ustalać, które strony znajdą się w rankingu, a które nie.
Ciekawostką było to, że niektóre wyszukiwarki, jak na przykład Yahoo, opierały się na pracy ludzi zamiast
algorytmów, aby oddzielić wartościowe treści od tych mniej istotnych. W tamtych czasach konieczne było przesłanie
adresu URL swojej strony do zespołu Yahoo, który ręcznie weryfikował witrynę i decydował, czy zasługuje na
miejsce w katalogu Yahoo!
Dawni webmasterzy często przesadzali z liczbą słów kluczowych, wychodząc z założenia, że „im więcej, tym lepiej”.
W efekcie doświadczenie użytkownika na takich stronach stawało się wyjątkowo nieprzyjemne. Oczywiście, nikt
nie oczekuje, że strony internetowe będą konkurować z poetycką elokwencją Szekspira.
Teksty pełne słów kluczowych przypominały wszystko, tylko nie treści warte uwagi czytelnika. Niestety, w
latach 90. nikczemne firmy SEO wykorzystywały te techniki, budując miniimperia na treściach pozbawionych
wartości. W tamtych czasach kiepskie treści były na porządku dziennym.
Wkrótce po tym firmy zajmujące się wyszukiwaniem online doszły do wniosku, że potrzebują lepszego sygnału
rankingowego niż tylko słowa kluczowe. W 1997/98 roku na scenę wkroczyło Google (początkowo znane jako BackRub).
Podczas gdy Yahoo (wówczas największa wyszukiwarka) zmagało się z przejściem z nieporęcznego, ręcznie przesyłanego
i kategoryzowanego katalogu na całkowicie zautomatyzowaną, algorytmicznie sterowaną wyszukiwarkę, a inne
wyszukiwarki wykorzystywały to, co dziś nazwalibyśmy „prymitywnymi” algorytmami wyszukiwania do klasyfikacji
wyników, Google wprowadziło rewolucję, gdy współzałożyciel Larry Page opracował algorytm zwany „PageRank”
(w skrócie PR), który na zawsze zmienił sposób, w jaki odbywa się wyszukiwanie.
Page Rank i historyczne znaczenie linków.
Logika PageRank była stosunkowo prosta (choć matematyka stojąca za nią już niekoniecznie). Google chciało skierować
użytkowników do stron z najlepszą i najbardziej trafną treścią, ale nie potrafiło analizować strony internetowej
tak, jak robi to człowiek, aby ocenić jej wartość. W efekcie nie było w stanie stwierdzić, czy zawartość na
konkretnej stronie była doskonała, przeciętna czy zupełnie bezwartościowa. Jednak – jak zakładał algorytm PageRank
– jeśli jedna strona linkowała do innej, to można było założyć, że strona linkująca milcząco wyrażała „akceptację”
dla treści na stronie, do której prowadził link. Dlaczego, zgodnie z PageRank, ktoś miałby linkować do strony,
której treść była niskiej jakości? Oczywiście, nie zrobiłby tego! Dlatego im więcej linków prowadziło do strony,
tym lepsza musiała być jej zawartość. A im więcej linków prowadziło do całej Twojej domeny, tym wyższy wynik
PageRank osiągała domena najwyższego poziomu (TLD). Ocena ta była wyrażana na dziesięciostopniowej skali,
gdzie zero oznaczało, że strona miała niewiele lub wcale linków, a dziesięć oznaczało, że prowadziło do niej
mnóstwo linków.
Nie wszystkie linki są sobie równe.
Po wprowadzeniu PageRank liczba linków prowadzących do strony internetowej stała się kluczowa, ale nie chodziło
tylko o to, kto miał ich więcej (choć to miało znaczenie), ponieważ nie wszystkie linki były równe. Dużą rolę
w rankingu strony odgrywało także to, kto tak naprawdę linkował do danej witryny.
W uproszczeniu wygląda to tak: jeśli Twoja strona miała jeden link z wiarygodnej witryny, takiej jak Wytyczne
Google dla webmasterów, Google uznawało ten link za znacznie cenniejszy niż sto linków z przypadkowych blogów
czy mało znanych stron. Wynika to z faktu, że setki tysięcy witryn już linkują do strony Wytycznych Google,
co sprawia, że ma ona wysoki wynik PageRank. Z kolei jeśli mało znane strony zaczynają linkować do Ciebie,
PageRank przekazywany przez te linki będzie znacznie niższy. Im bardziej Google ufa witrynom, które linkują
do Ciebie, tym bardziej ufa także Twojej witrynie. Zasada jest prosta: im większe zaufanie Google ma do strony,
z której pochodzi link, tym większe zaufanie ma do Ciebie.
SEO – wszystko co musisz wiedzieć, aby Twoja witryna znalazła się w rankingu Google.
Kluczowym elementem każdej strategii marketingu internetowego jest optymalizacja pod kątem wyszukiwarek.
Statystyki branżowe wskazują, że 92% użytkowników nie przechodzi dalej niż pierwsza strona wyników wyszukiwania
Google, a jednocześnie 8,5 na 10 osób (lub 9 na 10, zależnie od badania) klika wyniki organiczne, a nie płatne
ogłoszenia typu Pay Per Click. Jeśli te dane są prawdziwe (a są), łatwo jest dojść do wniosku, gdzie należy
skoncentrować większą część budżetu marketingowego.
Optymalizacja pod kątem wyszukiwarek, znana również jako SEO, to dziedzina marketingu, która skupia się na
poprawie pozycji strony i jej widoczności w organicznych (niepłatnych) wynikach wyszukiwania. Niestety, wielu
właścicieli małych firm wciąż uważa, że SEO polega na upychaniu słów kluczowych w treści, płaceniu
za linki, ich wymianie, duplikowaniu treści w celu stworzenia wrażenia, że witryna jest większa, czy spamowaniu
innych stron. Chociaż te strategie mogły być skuteczne w przeszłości, obecnie mogą skutkować nałożeniem kar
na stronę. Zrozumienie różnicy między białym kapeluszem SEO (etyczne techniki) a czarnym kapeluszem SEO
(nieetyczne techniki) i opracowanie strategii opartej na dozwolonych przez wyszukiwarki metodach jest
kluczowe dla zwiększenia ruchu na Twojej stronie
Procesy wyszukiwarek.
Aby lepiej wyjaśnić, na czym polega SEO, warto przyjrzeć się bliżej działaniu wyszukiwarek.
Wyszukiwarki pełnią dwie główne funkcje:
Przeszukiwanie całej dostępnej w sieci WWW zawartości (słów, obrazów, filmów wideo czy plików audio).
Indeksowanie stron internetowych, które zawierają te treści, w celu dostarczenia użytkownikom listy wyników
uporządkowanej od najbardziej istotnych i wiarygodnych do tych mniej znaczących.
Robot, znany również jako pająk, zautomatyzowany robot lub „bot”, przeszukuje miliardy powiązanych ze sobą stron
internetowych w Internecie za pomocą struktury łączy sieci WWW. Bez tych łączy roboty nie miałyby możliwości
dostępu do stron internetowych, pobierania danych ani odkrywania nowych treści.
Indeksacja.
Każda nowa strona internetowa odkryta przez crawlera (inaczej bota, robota internetowego) trafia następnie do indeksatora, który analizuje jej kod
i przechowuje dane w ogromnych bazach danych, zwanych indeksami. Po rozszyfrowaniu zawartości, indeksator
stara się nadać sens zebranym informacjom, oceniając strony pobrane przez crawlera (inaczej bota, robota internetowego) i przypisując im wartości
trafności w kontekście znalezionej treści.
Indeks wyszukiwarki ma na celu poprawę szybkości i efektywności wyszukiwania istotnych informacji w sieci,
które odpowiadają na zapytania użytkowników. Dzięki indeksowi, wyszukiwarki (jako trzeci etap procesu) mogą
szybko przywołać i pobrać najbardziej trafne strony internetowe.
Zadanie przechowywania miliardów stron internetowych, do których dostęp jest natychmiastowy, jest ogromnym
wyzwaniem. Dlatego firmy wyszukiwawcze, takie jak Google, Bing, Yahoo czy Ask, utrzymują ogromne centra danych
na całym świecie. Wykorzystują one tysiące połączonych serwerów do przetwarzania informacji, co pozwala na
błyskawiczne wyświetlanie wyników wyszukiwania.
Silnik zapytań.
Silnik zapytań to ostatni z trzech głównych procesów wyszukiwarki. Obejmuje on pobieranie informacji z indeksu,
stosowanie różnych czynników rankingowych do wyników oraz prezentowanie użytkownikowi listy wyników uporządkowanej
od najbardziej do najmniej istotnych i wiarygodnych. Silnik zapytań stara się zrozumieć intencję i kontekst
zapytania, by dostarczyć jak najlepsze wyniki. Czynniki takie jak typ urządzenia, lokalizacja użytkownika,
historia wyszukiwania oraz intencja zapytania są uwzględniane przez silnik zapytań, aby zapewnić, że wyświetlane
informacje będą wysokiej jakości, poprawne merytorycznie i jak najbardziej trafne.
Określenie trafności i popularności.
To, co naprawdę wyróżnia wyszukiwarki, to nie tylko ich sposób działania, ale również metoda, w jaki przypisują
wartość lub „wagę” każdemu pojedynczemu fragmentowi treści przechowywanemu w ogromnych indeksach. Na początku
SEO wyszukiwarki po prostu szukały stron zawierających odpowiednie słowa kluczowe. Obecnie jednak stosują
algorytmy uczenia maszynowego, które uwzględniają tysiące czynników, by ocenić trafność i popularność strony
internetowej. Czynniki te są w branży SEO znane jako „czynniki rankingowe”.
Na przykład Google korzysta z ponad dwustu czynników rankingowych oraz ponad dziesięciu tysięcy czynników
podrankingowych, które mają na celu poprawę doświadczeń użytkowników i zapewnienie najbardziej trafnych i
dokładnych wyników wyszukiwania dla każdego zapytania.
Warstwy holistycznej strategii SEO.
Mając lepsze zrozumienie działania wyszukiwarek, możemy teraz przejść do omówienia trzech warstw, które tworzą
kompleksową strategię SEO, i jak są one powiązane z procesami wyszukiwania. Dzięki temu łatwiej będzie Ci
połączyć wszystkie elementy układanki SEO.
Przyjrzyjmy się tym trzem warstwom w kolejności, w jakiej Google je ocenia:
Odnosimy się tutaj do elementów technicznych, które stanowią podstawę witryny internetowej i umożliwiają
wyszukiwarkom indeksowanie jej stron. Takie elementy obejmują m.in. kod HTML, mapy witryn XML i inne.
Platforma, na której zbudowana jest strona, może również znacząco wpłynąć na jej przyjazność dla SEO.
Na przykład witryny oparte na ASP.NET często napotykają trudności w kwestiach SEO, a strony zbudowane w
technologii Flash (które nadal istnieją!) są niemal niewidoczne dla większości wyszukiwarek. Z kolei strony
zbudowane na platformie WordPress zazwyczaj łatwiej poddają się indeksowaniu. Niemniej jednak, nawet witryny
WordPress mogą być niewłaściwie zaprojektowane, co może skutkować poważnymi problemami SEO z powodu błędów
w kodzie zaplecza.
Warto podkreślić, że jeśli strona internetowa nie jest poprawnie przeszukiwana i indeksowana, jej pozycja
w wynikach wyszukiwania będzie znacznie niższa. Właściciele małych firm często popełniają błąd,
oszczędzając na budowie swojej strony internetowej. Jak to zwykle bywa, dostajesz to, za co płacisz.
Dlatego ważne jest, aby poświęcić czas na zapewnienie, że wszystkie techniczne aspekty witryny są właściwie
skonfigurowane. W przeciwnym razie próba poprawienia pozycji strony będzie przypominać bieganie pod wodą
– zużywasz mnóstwo energii, ale ze względu na warunki, Twoje postępy będą bardzo ograniczone.
Gdy Twoja treść zostanie przeszukana, indeksator musi zrozumieć, o czym ona jest. W tym miejscu wkracza
klasyczna wiedza SEO obejmująca zoptymalizowane tagi, solidną strukturę linków, dobrze zaplanowaną
architekturę informacji i wysokiej jakości treści o danej tematyce.
Jednak jeśli wszystko to brzmi jak techno-bełkot i jako właściciel małej firmy chcesz skupić się na czymś
bardziej namacalnym, nasza rada jest prosta: skoncentruj swoje wysiłki na dodawaniu do swojej strony świetnie
napisanych, tematycznych treści. To najważniejszy czynnik rankingowy SEO. Pamiętaj jednak,
że pisanie treści na stronę internetową to nie tylko „znajomość produktu” czy umiejętność pisania prac na
studiach. Copywriting SEO to specjalistyczna sztuka, którą warto powierzyć doświadczonym profesjonalistom.
Pisanie dla sieci wymaga pewnej umiejętności: z jednej strony musisz tworzyć treści, które Google pokocha,
a z drugiej – które będą angażujące dla użytkowników. Najlepszym sposobem na poprawienie trafności strony
jest regularne dodawanie wartościowych treści, które naprawdę wnoszą coś nowego do dyskusji, zamiast
powtarzać to, co już zostało powiedziane, lub – co gorsza – prowadzić nachalną kampanię sprzedażową ukrytą
jako „treść na temat”.
Wyobraźmy sobie, że Twoja mała strona internetowa została poprawnie zbudowana. Google może ją przeszukiwać,
indeksować i zrozumieć Twoją świetnie napisaną (i wartościową) treść. Ale co dalej? Dobrze, że pada to pytanie.
Ponieważ choć wszystkie poprzednie elementy są niezwykle ważne, to tylko połowa sukcesu SEO (może 75%,
jeśli chcesz być dokładnym!). Aby wyszukiwarki uznały Cię za wiarygodnego, potrzebujesz innych stron, które
będą milcząco wspierać Twoją treść. To wsparcie przyjmuje formę linków zwrotnych, które prowadzą z innych
witryn do Twojej strony głównej oraz różnych innych podstron. Im bardziej istotny i wiarygodny jest punkt,
z którego pochodzi link, tym lepsza będzie postrzegana jakość treści na stronie, do której on prowadzi.
SEO na stronie kontra SEO poza stroną.
Na stronie: on-page
Jak sama nazwa wskazuje, SEO on-page (czyli na stronie) odnosi się do technik optymalizacji, które można zastosować bezpośrednio
w witrynie i nad którymi masz całkowitą kontrolę. Oprócz zapewnienia, że wszystkie elementy techniczne są
poprawnie wdrożone, istnieje kilka innych aspektów, które mogą pomóc w ulepszeniu SEO on-page. Należą do
nich zoptymalizowane meta tagi i tagi tytułowe, czyste struktury adresów URL, poprawnie sformatowana treść,
linkowanie wewnętrzne i zewnętrzne, architektura informacji witryny i wiele innych.
Poza stroną: off-page
Off-page (czyli poza stroną) SEO odnosi się do taktyk, które stosujesz poza swoją witryną, aby zwiększyć jej wiarygodność
(czasami nazywaną „władzą domeny” Twojej witryny) w oczach wyszukiwarek. Typowe techniki off-page obejmują
link-building, optymalizację mediów społecznościowych (SMO), marketing e-mailowy, lokalne cytowania, komunikaty
prasowe itp. Osiągnięcie trudnego do uzyskania połączenia działań SEO na stronie i poza nią będzie miało
pozytywny wpływ na pozycję Twojej witryny w rankingu, widoczność i współczynnik konwersji.
Algorytmy wyszukiwarek a pozycjonowanie stron.
Istnieje wiele wyszukiwarek i wszystkie mają tysiące algorytmów, na których opiera się ich działanie. Ale czym
właściwie są algorytmy? I które z nich powinny interesować Ciebie, jako właściciela małej firmy? Po pierwsze,
przejdźmy od razu do sedna i powiedzmy, że jedyną wyszukiwarką, na której ktokolwiek (w świecie zachodnim)
musi się skupić, z perspektywy marketingowej, jest Google. Nie jest to uprzedzenie anty-Microsoft ani
uprzedzenie pro-Google z naszej strony. A oto kilka zimnych i twardych faktów poniżej:
Udział w rynku wyszukiwarek
Osiem na dziesięć osób w świecie zachodnim używa Google do wyszukiwania informacji online. Ty to wiesz,
ja to wiem i Twoi klienci to wiedzą. Jeśli szukasz online w Chinach, Google jest bit-warstwą i prawdopodobnie
przejdziesz do Baidu, Qihoo360 lub Sogou. Jeśli szukasz online w Rosji, to Yandex, Vkontakte lub Odnoklassniki
prawdopodobnie będą Twoimi ulubionymi wyszukiwarkami. Ale dla większości krajów anglojęzycznych (i z
pewnością dla wszystkich Twoich potencjalnych klientów w Polsce) Google jest zdecydowanie jedyną
wyszukiwarką, której ludzie używają, aby dowiedzieć się, co robi Twoja mała firma i gdzie ją prowadzisz.
Yahoo, pomimo swojej historycznej hojności, jest wyczerpaną siłą z zaledwie 5,55% rynku (i jest faktycznie
zasilany przez zaplecze Bing), a Bing otrzymuje marne 7,15% rynku (większość z tego wynika z faktu, że
Bing jest domyślną wyszukiwarką zainstalowaną w systemie Windows). Tak więc na potrzeby tego artykułu
ograniczmy naszą dyskusję do „Co musisz wiedzieć o algorytmach Google”. Ponieważ, jak wspomniano,
istnieje wiele wyszukiwarek, z których każda ma tysiące algorytmów, które je napędzają, łatwo jest
zagubić się w techno-bełkocie, prowadząc napędzaną nerdowską dyskusję o nich wszystkich.
Ale jeśli skupimy się tylko na Google i przeprowadzimy taksonomię algorytmów Google ważoną według
bezpośredniej istotności dla właściciela małej firmy próbującego zarobić na życie poprzez pozyskiwanie
ruchu do swojej witryny, możemy lepiej zawęzić algorytmy, na których małe firmy powinny się skupić.
Nazwy algorytmów i ich zasady
Google rzadko, jeśli w ogóle, robi cokolwiek, co pomaga firmom
ustalić, jakie algorytmy powinny ich interesować, a które mogą bezpiecznie zignorować. Ale w tym
przypadku Google pomogło wszystkim, tworząc NAPRAWDĘ WAŻNE ALGORYTMY, nadając im urocze nazwy zwierząt w
polskim tłumaczeniu:
Panda.
Pingwin (Penguin).
Koliber (Hummingbird).
Gołąb (Pigeon).
Algorytm Panda.
Algorytm zaprojektowany przez (i nazwany na cześć) inżyniera Google zajmującego się uczeniem maszynowym,
Navneet Panda, który może, pod każdym względem, czytać stronę treści w sieci jak człowiek. Panda potrafi
odróżnić świetną treść od dobrej, dobrą treść od złej. Panda, pierwotnie wydana w lutym 2011 r.,
wie, czy Twoje pismo jest na poziomie uniwersyteckim, licealnym, gimnazjalnym. Panda została zaprojektowana,
aby zwalczać mnóstwo niskiej jakości witryn, które były
klasyfikowane w Google wyłącznie na podstawie posiadania wielu linków do nich prowadzących, a nie
na podstawie genialnie napisanych oryginalnych treści, które odpowiadały na pytania użytkowników.
Strona internetowa z niskim wynikiem Panda zostanie ukarana w SERPS (Search Engine Ranking Positions).
Panda bierze pod uwagę projekt Twojej strony internetowej, jej UX (lub User Experience) itp. Ale w 90%
dotyczy słów na stronie. Panda chce wiedzieć, jaka treść pisemna znajduje się na Twojej stronie
internetowej, jak dobrze jest napisana, jak dobrze jest zoptymalizowana pod kątem SEO i ile wiedzy jest zawartej na omawiane tematy.
Konieczne jest, abyś zdał sobie sprawę, że w świecie po Pandzie nie wszystkie treści są sobie równe.
Algorytm Penguin.
Niestety, algorytm ten nie został stworzony przez gościa o nicku Mumble Penguin. Został jednak stworzony
przez zespół bezimiennych inżynierów Google, aby zwalczać podejrzane praktyki budowania linków, nadmierną
optymalizację, upychanie słów kluczowych i różne inne niegodziwe działania, których witryny używały,
aby uzyskać rankingi naruszające wytyczne Google dotyczące najlepszych praktyk dla webmasterów.
Pamiętasz, jak spamerskie linki zwrotne
były powszechną praktyką we wczesnym okresie Google? Cóż, to już nie działa. Nie chodzi już o
posiadanie większej liczby linków niż inni. Ponieważ zbyt wiele niewłaściwych typów linków (obecnie
znanych jako „toksyczne linki”) może faktycznie spowodować nałożenie kary na Twoją witrynę przez Penguin.
Kary Penguin występują w dwóch formach: algorytmicznej i ręcznej. Pierwsza może poważnie zaszkodzić
Twoim rankingom dla określonych słów kluczowych i określonych stron w Twojej witrynie i jest absolutnym
koszmarem do naprawienia. Druga jest jednak niszczycielska. Więc następnym razem, gdy pomyślisz o
zatrudnieniu taniej firmy SEO lub pomyślisz o outsourcingu SEO do Indii (nie rób tego!) to
ślepa uliczka. Wyobraź sobie, jak Twoja mała firma przetrwałaby, gdyby Twoja strona internetowa ZNIKNĘŁA
Z GOOGLE na sześć do dziewięciu miesięcy z powodu kary Penguin? Ponieważ podczas gdy przechodzisz przez
żmudny, bolesny i czasochłonny proces odrzucania przez większą część roku, w daremnej próbie przekonania
Google, że podczas gdy zostałeś przyłapany na gorącym uczynku, obiecujesz, że od teraz
będziesz dobry… Twoja konkurencja cieszy się, że jest na pierwszej stronie Google i zgarnia wszystkie
pieniądze, które Twoja firma powinna była zarabiać.
I po co to wszystko? Żeby zaoszczędzić parę złotych na miesięcznym rachunku za SEO? Jak głosi stare
przysłowie: „Jeśli uważasz, że zatrudnienie eksperta jest drogie. Poczekaj, aż dowiesz się, ile
kosztuje zatrudnienie amatora”.
Algorytm Hummingbird.
Podejrzane linki zwrotne naruszają wytyczne Google dla webmasterów. Nie próbuj więc oszukiwać systemu,
kupując lub produkując linki. Twórz błyskotliwie napisane, angażujące treści i zarabiaj na linkach,
które otrzymujesz. W ten sposób linki, które otrzymasz, będą tymi, które Google uwielbia.
Algorytm wydany we wrześniu 2013 r. Hummingbird został pierwotnie
stworzony, aby „czytać między wierszami wyszukiwań Google”, aby lepiej zrozumieć faktycznie zadawane
pytanie, a nie tylko kierować się używanymi słowami kluczowymi. Skupiał się również na dostarczaniu
lepszych i dokładniejszych „wyników długiego ogona” (wyszukiwanie długiego ogona to wyszukiwanie,
które wykorzystuje kilka słów kluczowych, a nie tylko jedno lub dwa). Ponieważ, wbrew temu, co możesz
sądzić jako właściciel firmy, 70% wszystkich wyszukiwań to wyszukiwania typu long tail
(a nie tylko short tail, czyli „tzw. krótkie”, na których opiera się większość witryn
internetowych firm).
Hummingbird nie wiąże się z karą; nie o to w nim chodzi. Hummingbird ma na celu zwiększenie trafności
i jakości wyników wyszukiwania dla użytkowników poprzez lepsze zrozumienie intencji użytkownika.
Dzięki Hummingbird Google jest w stanie lepiej ocenić, o co użytkownik faktycznie pyta, zamiast
polegać wyłącznie na słowach kluczowych. Na przykład
właściciel małej firmy w Gdańsku może wpisać „SEO Gdańsk” w Google, co jest słowem kluczowym, po
którym następuje kolejne słowo kluczowe. Ale może również wpisać „Jak sprawić, aby moja mała witryna
internetowa znalazła się na pierwszej stronie Google?”. Wyszukiwanie, które nie zawiera słów
kluczowych „SEO” ani „Gdańsk”. Ale dzięki Hummingbird Google wie, że oba wyszukiwania (jeśli są
wykonywane z adresu IP w Gdańsku) dotyczą dokładnie tego samego. To inteligentne wyszukiwanie w
najlepszym wydaniu.
Algorytm Pigeon.
Algorytm Pigeon, pierwotnie wydany w 2014 roku, jest ukierunkowany na wyszukiwanie lokalne, ze szczególnym
uwzględnieniem zwiększenia zarówno trafności, jak i dokładności zapytań wyszukiwania lokalnego.
Pigeon integruje się z mapami Google, wykorzystując setki organicznych sygnałów rankingowych (w
tym Google Knowledge Graph), aby wyświetlać wysokiej jakości witryny zoptymalizowane pod kątem (i
działające w) określonych „lokalnych” obszarach geograficznych. Więc jeśli chcesz, aby Twoja
witryna internetowa była wyświetlana w GoogleMaps, musisz pokochać Pigeons!
Uwaga: ten algorytm nie został nazwany „Pigeon” przez Google, ale został nazwany przez Search Engine
Land (amerykańskiego lidera myśli SEO), ponieważ Google wydał nowy algorytm bez nazwy. Podobnie jak Hummingbird, Pigeon
nie karze witryn; ale zwiększa rankingi lokalnych ofert w wyszukiwaniu lokalnym. Dzięki temu jest
niezwykle potężnym narzędziem do wykorzystania przez małe firmy. Z perspektywy małych firm i MŚP
Pigeon oznacza lepsze pozycje w rankingach, większy ruch na stronie internetowej i znacznie więcej
lokalnych klientów.
Inne algorytmy, które bezustannie się zmieniają i ewaluują.
Jest wiele algorytmów Od EMD do Mobile Friendly, przez Payday Loans do RankBrain do Quality Update i tak dalej.
Gdzie się zatrzyma ich liczba, nikt nie wie!
Google aktualizuje od pięciuset do sześciuset algorytmów rocznie. To 1,6 dziennie; życzymy powodzenia w nadążaniu
za zmieniającymi się zasadami wyszukiwania, jeśli nie robisz tego na pełen etat. Google stale udoskonala
sposób wyszukiwania i stale zmienia zasady. To, co działało wczoraj, może nie działać jutro. Co gorsza,
to, co działało wczoraj, może spowodować, że Twoja witryna zostanie ukarana dzisiaj.
W jakiej sytuacji Google stawia właściciela małej firmy biorąc pod uwagę ilość algorytmów i ich częstotliwość zmian?
Chociaż wyszukiwanie w Google nie jest fizyką jądrową ale też jest nauką i biorąc pod uwagę, że większość
Twojej działalności pochodzi z Internetu (lub przynajmniej powinna pochodzić!), to Ty jako właściciel firmy musisz zrozumieć nie
to, który algorytm Google robi co, ale któremu ekspertowi SEO zaufać, aby pomógł Ci bezpiecznie poruszać
się po wzburzonych wodach marketingu internetowego.
tu właśnie pojawiamy się my, czyli HABA GROUP. Mając ponad dwudziestoletnie doświadczenie w SEO
wiedzę i doświadczenie, które jest niezbędne do uzyskania wyników na pierwszej stronie wyszukiwania w Google,
których potrzebuje Twoja firma.
Najczęstsze pytania i odpowiedziFAQ (Frequently Asked Questions)