Pozycjonowanie stron internetowych www (SEO - Search Engine Optimization) w wyszukiwarkach.Kompendium wiedzy.
Jeśli kiedykolwiek zastanawiałeś się nad pytaniem: „Czym jest SEO?”, nie jesteś w tym sam. W branży pełnej
akronimów termin SEO jest wyszukiwany w Polsce kilkaset tysięcy razy miesięcznie! Ale co to tak naprawdę oznacza?
Mówiąc najprościej, SEO, czyli pozycjonowanie to optymalizacja stron internetowych pod kątem wyszukiwarek.
W dzisiejszej erze zaawansowanej technologii, wyszukiwarki takie jak Google, Bing, Yahoo i Ask doskonale
rozumieją intencje i kontekst każdego zapytania. Na przykład, gdy wpiszesz „SEO Gdańsk” w Google, jest jasne,
że szukasz firmy SEO w Gdańsku. Ale co, jeśli wpiszesz „Jak sprawić, by
moja firmowa strona internetowa pojawiła się na pierwszej stronie Google?” z adresu IP w Gdańsku? Nie używasz
słów kluczowych „SEO” ani „Gdańsk”, a mimo to szukasz dokładnie tego samego.
Ta sama intencja, różne słowa.
Czy nie czujesz się zdezorientowany? Nie ma powodu, by tak było, ponieważ Google nie jest. W 2025 roku niejednoznaczność słów kluczowych przestała być problemem, dzięki algorytmowi o nazwie Hummingbird, który pozwala Google określić „intencję” stojącą za Twoim zapytaniem. Połączenie tego z pingowaniem urządzenia, na którym dokonano wyszukiwania, umożliwia Google wyświetlanie wyników odpowiadających tej „intencji”, tak samo jak na rzeczywiste „pytanie”, które zadałeś. Dodatkowo, Google geotargetuje wyniki, dostosowując je do lokalizacji, z której wykonano wyszukiwanie. Tak więc, bez względu na to, czy wpiszesz „SEO Gdańsk”, czy „Jak sprawić, by moja mała strona internetowa pojawiła się na pierwszej stronie Google”, otrzymasz odpowiednie wyniki, które odpowiadają Twojemu zapytaniu, posortowane (według „opinii” Google) od najbardziej trafnych do najmniej trafnych.
Wyszukiwarki kiedyś i dziś.
W połowie lat 90. wyniki wyszukiwania opierały się niemal wyłącznie na słowach kluczowych, które występowały na stronie, oraz na tym, jak często te słowa pojawiały się w treści witryny. Jeśli chciałeś osiągnąć wysoką pozycję w rankingu dla frazy „marketing internetowy” (na przykład), powtarzałeś to wyrażenie w całym tekście (a czasem ukryte w kodzie HTML) tak często, jak to było możliwe, nie zwracając uwagi na kontekst, w jakim te słowa były użyte.
W tamtych czasach kluczowe znaczenie miała gęstość słów kluczowych. Istniało przekonanie, że tajemniczy algorytm oblicza idealną liczbę wystąpień słów kluczowych, by strona osiągnęła wysoką pozycję w wynikach wyszukiwania. Jeśli umieściłeś frazę „marketing internetowy” dwadzieścia razy, mogło się okazać, że to za mało, by przebić się na pierwszą stronę wyników. Z kolei trzydzieści pięć wystąpień mogło spowodować, że algorytm uznał to za „upychanie słów kluczowych” i Twoja strona spadała w rankingach. Kluczowym pytaniem było więc, jak znaleźć optymalny procent gęstości słów kluczowych, który zapewni widoczność w wyszukiwarce. Trafienie w odpowiedni poziom otwierało drzwi do sukcesu w rozwijającym się świecie online, ale każdy błąd skutkował niemal całkowitą niewidocznością strony.
Nie było jednoznacznej odpowiedzi na pytanie, jaka jest optymalna liczba iteracji słów kluczowych w konkretnej branży (choć samozwańczy „eksperci SEO” twierdzili, że znają tę odpowiedź). Bez względu na to, jaki był idealny procent gęstości słów kluczowych, było jasne, że różnił się on w zależności od wyszukiwarki – Yahoo, Web Crawler, AltaVista, Excite, InfoSeek i innych. Każda z tych platform korzystała z odmiennych, zastrzeżonych metodologii, aby ustalać, które strony znajdą się w rankingu, a które nie. Ciekawostką było to, że niektóre wyszukiwarki, jak na przykład Yahoo, opierały się na pracy ludzi zamiast algorytmów, aby oddzielić wartościowe treści od tych mniej istotnych. W tamtych czasach konieczne było przesłanie adresu URL swojej strony do zespołu Yahoo, który ręcznie weryfikował witrynę i decydował, czy zasługuje na miejsce w katalogu Yahoo!
Dawni webmasterzy często przesadzali z liczbą słów kluczowych, wychodząc z założenia, że „im więcej, tym lepiej”. W efekcie doświadczenie użytkownika na takich stronach stawało się wyjątkowo nieprzyjemne. Oczywiście, nikt nie oczekuje, że strony internetowe będą konkurować z poetycką elokwencją Szekspira. Teksty pełne słów kluczowych przypominały wszystko, tylko nie treści warte uwagi czytelnika. Niestety, w latach 90. nikczemne firmy SEO wykorzystywały te techniki, budując miniimperia na treściach pozbawionych wartości. W tamtych czasach kiepskie treści były na porządku dziennym.
Wkrótce po tym firmy zajmujące się wyszukiwaniem online doszły do wniosku, że potrzebują lepszego sygnału rankingowego niż tylko słowa kluczowe. W 1997/98 roku na scenę wkroczyło Google (początkowo znane jako BackRub). Podczas gdy Yahoo (wówczas największa wyszukiwarka) zmagało się z przejściem z nieporęcznego, ręcznie przesyłanego i kategoryzowanego katalogu na całkowicie zautomatyzowaną, algorytmicznie sterowaną wyszukiwarkę, a inne wyszukiwarki wykorzystywały to, co dziś nazwalibyśmy „prymitywnymi” algorytmami wyszukiwania do klasyfikacji wyników, Google wprowadziło rewolucję, gdy współzałożyciel Larry Page opracował algorytm zwany „PageRank” (w skrócie PR), który na zawsze zmienił sposób, w jaki odbywa się wyszukiwanie.
![Wyszukiwarka google w 1997 roku slowa kluczowe. Wyszukiwarka google w 1997 roku slowa kluczowe.](images/oferta/pozycjonowanie-stron/wyszukiwarka-google-w-1997-roku-slowa-kluczowe.webp)
Page Rank i historyczne znaczenie linków.
Logika PageRank była stosunkowo prosta (choć matematyka stojąca za nią już niekoniecznie). Google chciało skierować użytkowników do stron z najlepszą i najbardziej trafną treścią, ale nie potrafiło analizować strony internetowej tak, jak robi to człowiek, aby ocenić jej wartość. W efekcie nie było w stanie stwierdzić, czy zawartość na konkretnej stronie była doskonała, przeciętna czy zupełnie bezwartościowa. Jednak – jak zakładał algorytm PageRank – jeśli jedna strona linkowała do innej, to można było założyć, że strona linkująca milcząco wyrażała „akceptację” dla treści na stronie, do której prowadził link. Dlaczego, zgodnie z PageRank, ktoś miałby linkować do strony, której treść była niskiej jakości? Oczywiście, nie zrobiłby tego! Dlatego im więcej linków prowadziło do strony, tym lepsza musiała być jej zawartość. A im więcej linków prowadziło do całej Twojej domeny, tym wyższy wynik PageRank osiągała domena najwyższego poziomu (TLD). Ocena ta była wyrażana na dziesięciostopniowej skali, gdzie zero oznaczało, że strona miała niewiele lub wcale linków, a dziesięć oznaczało, że prowadziło do niej mnóstwo linków.
Nie wszystkie linki są sobie równe.
Po wprowadzeniu PageRank liczba linków prowadzących do strony internetowej stała się kluczowa, ale nie chodziło tylko o to, kto miał ich więcej (choć to miało znaczenie), ponieważ nie wszystkie linki były równe. Dużą rolę w rankingu strony odgrywało także to, kto tak naprawdę linkował do danej witryny. W uproszczeniu wygląda to tak: jeśli Twoja strona miała jeden link z wiarygodnej witryny, takiej jak Wytyczne Google dla webmasterów, Google uznawało ten link za znacznie cenniejszy niż sto linków z przypadkowych blogów czy mało znanych stron. Wynika to z faktu, że setki tysięcy witryn już linkują do strony Wytycznych Google, co sprawia, że ma ona wysoki wynik PageRank. Z kolei jeśli mało znane strony zaczynają linkować do Ciebie, PageRank przekazywany przez te linki będzie znacznie niższy. Im bardziej Google ufa witrynom, które linkują do Ciebie, tym bardziej ufa także Twojej witrynie. Zasada jest prosta: im większe zaufanie Google ma do strony, z której pochodzi link, tym większe zaufanie ma do Ciebie.
![Page rank - jak działa? Historia i geneza. Page rank - jak działa? Historia i geneza.](images/oferta/pozycjonowanie-stron/page-rank-google-jak-dziala-historia-geneza-w-pozycjonowaniu-stron.webp)
SEO – wszystko co musisz wiedzieć, aby Twoja witryna znalazła się w rankingu Google.
Kluczowym elementem każdej strategii marketingu internetowego jest optymalizacja pod kątem wyszukiwarek. Statystyki branżowe wskazują, że 92% użytkowników nie przechodzi dalej niż pierwsza strona wyników wyszukiwania Google, a jednocześnie 8,5 na 10 osób (lub 9 na 10, zależnie od badania) klika wyniki organiczne, a nie płatne ogłoszenia typu Pay Per Click. Jeśli te dane są prawdziwe (a są), łatwo jest dojść do wniosku, gdzie należy skoncentrować większą część budżetu marketingowego. Optymalizacja pod kątem wyszukiwarek, znana również jako SEO, to dziedzina marketingu, która skupia się na poprawie pozycji strony i jej widoczności w organicznych (niepłatnych) wynikach wyszukiwania. Niestety, wielu właścicieli małych firm w Gdańsku wciąż uważa, że SEO polega na upychaniu słów kluczowych w treści, płaceniu za linki, ich wymianie, duplikowaniu treści w celu stworzenia wrażenia, że witryna jest większa, czy spamowaniu innych stron. Chociaż te strategie mogły być skuteczne w przeszłości, obecnie mogą skutkować nałożeniem kar na stronę. Zrozumienie różnicy między białym kapeluszem SEO (etyczne techniki) a czarnym kapeluszem SEO (nieetyczne techniki) i opracowanie strategii opartej na dozwolonych przez wyszukiwarki metodach jest kluczowe dla zwiększenia ruchu na Twojej stronie
Procesy wyszukiwarek
Aby lepiej wyjaśnić, na czym polega SEO, warto przyjrzeć się bliżej działaniu wyszukiwarek. Wyszukiwarki pełnią dwie główne funkcje:
- Przeszukiwanie całej dostępnej w sieci WWW zawartości (słów, obrazów, filmów wideo czy plików audio).
- Indeksowanie stron internetowych, które zawierają te treści, w celu dostarczenia użytkownikom listy wyników uporządkowanej od najbardziej istotnych i wiarygodnych do tych mniej znaczących.
Robot, znany również jako pająk, zautomatyzowany robot lub „bot”, przeszukuje miliardy powiązanych ze sobą stron internetowych w Internecie za pomocą struktury łączy sieci WWW. Bez tych łączy roboty nie miałyby możliwości dostępu do stron internetowych, pobierania danych ani odkrywania nowych treści.
Indeksacja.
Każda nowa strona internetowa odkryta przez crawlera trafia następnie do indeksatora, który analizuje jej kod i przechowuje dane w ogromnych bazach danych, zwanych indeksami. Po rozszyfrowaniu zawartości, indeksator stara się nadać sens zebranym informacjom, oceniając strony pobrane przez crawlera i przypisując im wartości trafności w kontekście znalezionej treści. Indeks wyszukiwarki ma na celu poprawę szybkości i efektywności wyszukiwania istotnych informacji w sieci, które odpowiadają na zapytania użytkowników. Dzięki indeksowi, wyszukiwarki (jako trzeci etap procesu) mogą szybko przywołać i pobrać najbardziej trafne strony internetowe. Zadanie przechowywania miliardów stron internetowych, do których dostęp jest natychmiastowy, jest ogromnym wyzwaniem. Dlatego firmy wyszukiwawcze, takie jak Google, Bing, Yahoo czy Ask, utrzymują ogromne centra danych na całym świecie. Wykorzystują one tysiące połączonych serwerów do przetwarzania informacji, co pozwala na błyskawiczne wyświetlanie wyników wyszukiwania.
Silnik zapytań.
Silnik zapytań to ostatni z trzech głównych procesów wyszukiwarki. Obejmuje on pobieranie informacji z indeksu, stosowanie różnych czynników rankingowych do wyników oraz prezentowanie użytkownikowi listy wyników uporządkowanej od najbardziej do najmniej istotnych i wiarygodnych. Silnik zapytań stara się zrozumieć intencję i kontekst zapytania, by dostarczyć jak najlepsze wyniki. Czynniki takie jak typ urządzenia, lokalizacja użytkownika, historia wyszukiwania oraz intencja zapytania są uwzględniane przez silnik zapytań, aby zapewnić, że wyświetlane informacje będą wysokiej jakości, poprawne merytorycznie i jak najbardziej trafne.
Określenie trafności i popularności.
To, co naprawdę wyróżnia wyszukiwarki, to nie tylko ich sposób działania, ale również metoda, w jaki przypisują wartość lub „wagę” każdemu pojedynczemu fragmentowi treści przechowywanemu w ogromnych indeksach. Na początku SEO wyszukiwarki po prostu szukały stron zawierających odpowiednie słowa kluczowe. Obecnie jednak stosują algorytmy uczenia maszynowego, które uwzględniają tysiące czynników, by ocenić trafność i popularność strony internetowej. Czynniki te są w branży SEO znane jako „czynniki rankingowe”. Na przykład Google korzysta z ponad dwustu czynników rankingowych oraz ponad dziesięciu tysięcy czynników podrankingowych, które mają na celu poprawę doświadczeń użytkowników i zapewnienie najbardziej trafnych i dokładnych wyników wyszukiwania dla każdego zapytania.
![SEO. SEO.](images/oferta/pozycjonowanie-stron/SEO.webp)
Warstwy holistycznej strategii SEO.
Mając lepsze zrozumienie działania wyszukiwarek, możemy teraz przejść do omówienia trzech warstw, które tworzą kompleksową strategię SEO, i jak są one powiązane z procesami wyszukiwania. Dzięki temu łatwiej będzie Ci połączyć wszystkie elementy układanki SEO. Przyjrzyjmy się tym trzem warstwom w kolejności, w jakiej Google je ocenia:
- Odnosimy się tutaj do elementów technicznych, które stanowią podstawę witryny internetowej i umożliwiają
wyszukiwarkom indeksowanie jej stron. Takie elementy obejmują m.in. kod HTML, mapy witryn XML i inne.
Platforma, na której zbudowana jest strona, może również znacząco wpłynąć na jej przyjazność dla SEO.
Na przykład witryny oparte na ASP.NET często napotykają trudności w kwestiach SEO, a strony zbudowane w
technologii Flash (które nadal istnieją!) są niemal niewidoczne dla większości wyszukiwarek. Z kolei strony
zbudowane na platformie WordPress zazwyczaj łatwiej poddają się indeksowaniu. Niemniej jednak, nawet witryny
WordPress mogą być niewłaściwie zaprojektowane, co może skutkować poważnymi problemami SEO z powodu błędów
w kodzie zaplecza.
Warto podkreślić, że jeśli strona internetowa nie jest poprawnie przeszukiwana i indeksowana, jej pozycja w wynikach wyszukiwania będzie znacznie niższa. Właściciele małych firm w Gdańsku często popełniają błąd, oszczędzając na budowie swojej strony internetowej. Jak to zwykle bywa, dostajesz to, za co płacisz. Dlatego ważne jest, aby poświęcić czas na zapewnienie, że wszystkie techniczne aspekty witryny są właściwie skonfigurowane. W przeciwnym razie próba poprawienia pozycji strony będzie przypominać bieganie pod wodą – zużywasz mnóstwo energii, ale ze względu na warunki, Twoje postępy będą bardzo ograniczone. - Gdy Twoja treść zostanie przeszukana, indeksator musi zrozumieć, o czym ona traktuje. W tym miejscu wkracza
klasyczna wiedza SEO 101, obejmująca zoptymalizowane tagi, solidną strukturę linków, dobrze zaplanowaną
architekturę informacji (IA) i wysokiej jakości treści o tematyce.
Jednak jeśli wszystko to brzmi jak techno-bełkot i jako właściciel małej firmy chcesz skupić się na czymś
bardziej namacalnym, moja rada jest prosta: skoncentruj swoje wysiłki na dodawaniu do swojej strony świetnie
napisanych, tematycznych treści. To najważniejszy czynnik rankingowy SEO w 2017 roku. Pamiętaj jednak,
że pisanie treści na stronę internetową to nie tylko „znajomość produktu” czy umiejętność pisania prac na
studiach. Copywriting SEO to specjalistyczna sztuka, którą warto powierzyć doświadczonym profesjonalistom.
Pisanie dla sieci wymaga pewnej umiejętności: z jednej strony musisz tworzyć treści, które Google pokocha,
a z drugiej – które będą angażujące dla użytkowników. Najlepszym sposobem na poprawienie trafności strony
jest regularne dodawanie wartościowych treści, które naprawdę wnoszą coś nowego do dyskusji, zamiast
powtarzać to, co już zostało powiedziane, lub – co gorsza – prowadzić nachalną kampanię sprzedażową ukrytą
jako „treść na temat”.
Wyobraźmy sobie, że Twoja mała strona internetowa została poprawnie zbudowana. Google może ją przeszukiwać, indeksować i zrozumieć Twoją świetnie napisaną (i wartościową) treść. Ale co dalej? Cieszę się, że pytasz. Ponieważ choć wszystkie poprzednie elementy są niezwykle ważne, to tylko połowa sukcesu SEO (może 70%, jeśli chcesz być dokładny!). Aby wyszukiwarki uznały Cię za wiarygodnego, potrzebujesz innych stron, które będą milcząco wspierać Twoją treść. To wsparcie przyjmuje formę linków zwrotnych, które prowadzą z innych witryn do Twojej strony głównej oraz różnych innych podstron. Im bardziej istotny i wiarygodny jest punkt, z którego pochodzi link, tym lepsza będzie postrzegana jakość treści na stronie, do której on prowadzi.
![Holistyczne SEO. Holistyczne SEO.](images/oferta/pozycjonowanie-stron/holistyczne-seo.webp)
SEO na stronie kontra SEO poza stroną.
Na stronie
Jak sama nazwa wskazuje, SEO on-page (czyli na stronie) odnosi się do technik optymalizacji, które można zastosować bezpośrednio w witrynie i nad którymi masz całkowitą kontrolę. Oprócz zapewnienia, że wszystkie elementy techniczne są poprawnie wdrożone, istnieje kilka innych aspektów, które mogą pomóc w ulepszeniu SEO on-page. Należą do nich zoptymalizowane meta tagi i tagi tytułowe, czyste struktury adresów URL, poprawnie sformatowana treść, linkowanie wewnętrzne i zewnętrzne, architektura informacji witryny i wiele innych.
Poza stroną.
Off-page (czyli poza stroną) SEO odnosi się do taktyk, które stosujesz poza swoją witryną, aby zwiększyć jej wiarygodność (czasami nazywaną „władzą domeny” Twojej witryny) w oczach wyszukiwarek. Typowe techniki off-page obejmują link-building, optymalizację mediów społecznościowych (SMO), marketing e-mailowy, lokalne cytowania, komunikaty prasowe itp. Osiągnięcie trudnego do uzyskania połączenia działań SEO na stronie i poza nią będzie miało pozytywny wpływ na pozycję Twojej witryny w rankingu, widoczność i współczynnik konwersji.
Algorytmy wyszukiwarek a pozycjonowanie stron.
Istnieje wiele wyszukiwarek i wszystkie mają tysiące algorytmów, na których opiera się ich działanie. Ale czym właściwie są algorytmy? I które z nich powinny interesować Ciebie, jako właściciela małej firmy? Po pierwsze, przejdźmy od razu do sedna i powiedzmy, że jedyną wyszukiwarką, na której ktokolwiek (w świecie zachodnim) musi się skupić, z perspektywy marketingowej, jest Google. Nie jest to uprzedzenie anty-Microsoft ani uprzedzenie pro-Google z mojej strony. To tylko ja demonstruję swoją skłonność do zimnych, twardych faktów:
Udział w rynku wyszukiwarek
Osiem na dziesięć osób w świecie zachodnim używa Google do wyszukiwania informacji online. Ty to wiesz, ja to wiem i Twoi klienci to wiedzą. Jeśli szukasz online w Chinach, Google jest bit-warstwą i prawdopodobnie przejdziesz do Baidu, Qihoo360 lub Sogou. Jeśli szukasz online w Rosji, to Yandex, Vkontakte lub Odnoklassniki prawdopodobnie będą Twoimi ulubionymi wyszukiwarkami. Ale dla większości krajów anglojęzycznych (i z pewnością dla wszystkich Twoich potencjalnych klientów w Polsce) Google jest zdecydowanie jedyną wyszukiwarką, której ludzie używają, aby dowiedzieć się, co robi Twoja mała firma i gdzie ją prowadzisz. Yahoo, pomimo swojej historycznej hojności, jest wyczerpaną siłą z zaledwie 5,55% rynku (i jest faktycznie zasilany przez zaplecze Bing), a Bing otrzymuje marne 7,15% rynku (większość z tego wynika z faktu, że Bing jest domyślną wyszukiwarką zainstalowaną w systemie Windows 10). Tak więc na potrzeby tego artykułu ograniczmy naszą dyskusję do „Co musisz wiedzieć o algorytmach Google”. Ponieważ, jak wspomniano, istnieje wiele wyszukiwarek, z których każda ma tysiące algorytmów, które je napędzają, łatwo jest zagubić się w techno-bełkocie, prowadząc napędzaną nerdowską dyskusję o nich wszystkich. Ale jeśli skupimy się tylko na Google i przeprowadzimy taksonomię algorytmów Google ważoną według bezpośredniej istotności dla właściciela małej firmy próbującego zarobić na życie poprzez pozyskiwanie ruchu do swojej witryny, możemy lepiej zawęzić algorytmy, na których małe firmy powinny się skupić.
Nazwy algorytmów i ich zasady
Google rzadko, jeśli w ogóle, robi cokolwiek, co pomaga firmom ustalić, jakie algorytmy powinny ich interesować, a które mogą bezpiecznie zignorować. Ale w tym przypadku Google pomogło wszystkim, tworząc NAPRAWDĘ WAŻNE ALGORYTMY, nadając im urocze nazwy zwierząt w polskim tłumaczeniu:
- Panda.
- Pingwin (Penguin).
- Koliber (Hummingbird).
- Gołąb (Pigeon).
Algorytm Panda.
Algorytm zaprojektowany przez (i nazwany na cześć) inżyniera Google zajmującego się uczeniem maszynowym, Navneet Panda, który może, pod każdym względem, czytać stronę treści w sieci jak człowiek. Panda potrafi odróżnić świetną treść od dobrej, dobrą treść od złej. Panda, pierwotnie wydana w lutym 2011 r., wie, czy Twoje pismo jest na poziomie uniwersyteckim, licealnym, gimnazjalnym czy na poziomie Donalda Trumpa. Panda została zaprojektowana, aby zwalczać mnóstwo niskiej jakości witryn, które były klasyfikowane w Google wyłącznie na podstawie posiadania wielu linków do nich prowadzących, a nie na podstawie genialnie napisanych oryginalnych treści, które odpowiadały na pytania użytkowników. Po licznych aktualizacjach Panda została wchłonięta przez algorytm wyszukiwania w czasie rzeczywistym Google w 2015 r. Strona internetowa z niskim wynikiem Panda zostanie ukarana w SERPS (Search Engine Ranking Positions). Panda bierze pod uwagę projekt Twojej strony internetowej, jej UX (lub User Experience) itp. Ale w 90% dotyczy słów na stronie. Panda chce wiedzieć, jaka treść pisemna znajduje się na Twojej stronie internetowej, jak dobrze jest napisana, jak dobrze jest zoptymalizowana pod kątem SEO i ile wiedzy jest wyrażonej zarówno pionowo, jak i poziomo na omawiane tematy. Podczas gdy „Treść jest królem” jest truizmem w wyszukiwarce Google, który jestem pewien, że Ty, jako właściciel małej firmy, już znasz. Konieczne jest, abyś zdał sobie sprawę, że w świecie po Pandzie nie wszystkie treści są sobie równe.
Algorytm Penguin.
Niestety, algorytm ten nie został stworzony przez gościa o nicku Mumble Penguin. Został jednak stworzony przez zespół bezimiennych inżynierów Google, aby zwalczać podejrzane praktyki budowania linków, nadmierną optymalizację, upychanie słów kluczowych i różne inne niegodziwe działania, których witryny używały, aby uzyskać rankingi naruszające Wytyczne Google dotyczące najlepszych praktyk dla webmasterów. Pamiętasz, jak spamerskie linki zwrotne były powszechną praktyką we wczesnym okresie Google? Cóż, to już nie działa. Nie chodzi już o posiadanie większej liczby linków niż inni. Ponieważ zbyt wiele niewłaściwych typów linków (obecnie znanych jako „toksyczne linki”) może faktycznie spowodować nałożenie kary na Twoją witrynę przez Penguin. Kary Penguin występują w dwóch formach: algorytmicznej i ręcznej. Pierwsza może poważnie zaszkodzić Twoim rankingom dla określonych słów kluczowych i określonych stron w Twojej witrynie i jest absolutnym koszmarem do naprawienia. Druga jest jednak niszczycielska. Więc następnym razem, gdy pomyślisz o zatrudnieniu taniej firmy SEO lub pomyślisz o outsourcingu SEO do Indii (nie rób tego!) to ślepa uliczka. Wyobraź sobie, jak Twoja mała firma przetrwałaby, gdyby Twoja strona internetowa ZNIKNĘŁA Z GOOGLE na sześć do dziewięciu miesięcy z powodu kary Penguin? Ponieważ podczas gdy przechodzisz przez żmudny, bolesny i czasochłonny proces odrzucania przez większą część roku, w daremnej próbie przekonania Google, że podczas gdy zostałeś przyłapany na gorącym uczynku, obiecujesz, że od teraz będziesz dobry… Twoja konkurencja cieszy się, że jest na pierwszej stronie Google i zgarnia wszystkie pieniądze, które Twoja firma powinna była zarabiać. I po co to wszystko? Żeby zaoszczędzić parę złotych na miesięcznym rachunku za SEO? Jak głosi stare przysłowie: „Jeśli uważasz, że zatrudnienie eksperta jest drogie. Poczekaj, aż dowiesz się, ile kosztuje zatrudnienie amatora”.
Algorytm Hummingbird.
Podejrzane linki zwrotne naruszają wytyczne Google dla webmasterów. Nie próbuj więc oszukiwać systemu,
kupując lub produkując linki. Twórz błyskotliwie napisane, angażujące treści i zarabiaj na linkach,
które otrzymujesz. W ten sposób linki, które otrzymasz, będą tymi, które Google uwielbia.
Algorytm wydany we wrześniu 2013 r., który został porównany do algorytmu Google Caffeine z 2010 r.
(który zapewniał „50 procent świeższe wyniki” i był w istocie turbodoładowaniem przymocowanym do
wyszukiwarki Google, aby indeksowanie sieci było dwa razy szybsze). Hummingbird został pierwotnie
stworzony, aby „czytać między wierszami wyszukiwań Google”, aby lepiej zrozumieć faktycznie zadawane
pytanie, a nie tylko kierować się używanymi słowami kluczowymi. Skupiał się również na dostarczaniu
lepszych i dokładniejszych „wyników długiego ogona” (wyszukiwanie długiego ogona to wyszukiwanie,
które wykorzystuje kilka słów kluczowych, a nie tylko jedno lub dwa). Ponieważ, wbrew temu, co możesz
sądzić jako właściciel firmy, 70% wszystkich wyszukiwań to wyszukiwania typu long tail
(a nie tylko short tail, czyli „tzw. krótkie”, na których opiera się większość witryn
internetowych firm).
Hummingbird nie wiąże się z karą; nie o to w nim chodzi. Hummingbird ma na celu zwiększenie trafności
i jakości wyników wyszukiwania dla użytkowników poprzez lepsze zrozumienie intencji użytkownika.
Dzięki Hummingbird Google jest w stanie lepiej ocenić, o co użytkownik faktycznie pyta, zamiast
polegać wyłącznie na słowach kluczowych. Na przykład
właściciel małej firmy w Gdańsku może wpisać „SEO Gdańsk” w Google, co jest słowem kluczowym, po
którym następuje kolejne słowo kluczowe. Ale może również wpisać „Jak sprawić, aby moja mała witryna
internetowa znalazła się na pierwszej stronie Google?”. Wyszukiwanie, które nie zawiera słów
kluczowych „SEO” ani „Gdańsk”. Ale dzięki Hummingbird Google wie, że oba wyszukiwania (jeśli są
wykonywane z adresu IP w Sydney) dotyczą dokładnie tego samego. To inteligentne wyszukiwanie w
najlepszym wydaniu.
Algorytm Pigeon.
Algorytm Pigeon, pierwotnie wydany w 2014 roku, jest ukierunkowany na wyszukiwanie lokalne, ze szczególnym uwzględnieniem zwiększenia zarówno trafności, jak i dokładności zapytań wyszukiwania lokalnego. Pigeon integruje się z mapami Google, wykorzystując setki organicznych sygnałów rankingowych (w tym Google Knowledge Graph), aby wyświetlać wysokiej jakości witryny zoptymalizowane pod kątem (i działające w) określonych „lokalnych” obszarach geograficznych. Więc jeśli chcesz, aby Twoja mała witryna internetowa była wyświetlana w pakiecie 3 Map Google, musisz nauczyć się kochać Pigeons! Uwaga: ten algorytm nie został nazwany „Pigeon” przez Google, ale został nazwany przez Search Engine Land (amerykańskiego lidera myśli SEO), ponieważ Google wydał nowy algorytm bez nazwy (zbyt powszechne zjawisko). I ponieważ „Gołębie mają tendencję do powrotu do domu”. Podobnie jak Hummingbird, Pigeon nie karze witryn; ale zwiększa rankingi lokalnych ofert w wyszukiwaniu lokalnym. Dzięki temu jest niezwykle potężnym narzędziem do wykorzystania przez małe firmy. Z perspektywy małych firm i MŚP Pigeon oznacza lepsze pozycje w rankingach, większy ruch na stronie internetowej i znacznie więcej lokalnych klientów.
Inne algorytmy, które bezustannie się zmieniają i ewaluują.
Jest wiele algorytmów Od EMD do Mobile Friendly, przez Payday Loans do RankBrain do Quality Update i tak dalej.
Gdzie się zatrzyma ich liczba, nikt nie wie!
Google aktualizuje od pięciuset do sześciuset algorytmów rocznie. To 1,6 dziennie; powodzenia w nadążaniu
za zmieniającymi się zasadami wyszukiwania, jeśli nie robisz tego na pełen etat. Google stale udoskonala
sposób wyszukiwania i stale zmienia zasady. To, co działało wczoraj, może nie działać jutro. Co gorsza,
to, co działało wczoraj, może spowodować, że Twoja witryna zostanie ukarana dzisiaj.
W jakiej sytuacji Google stawia właściciela małej firmy biorąc pod uwagę ilość algorytmów i ich częstotliwość zmian?
Chociaż wyszukiwanie w Google nie jest fizyką jądrową ale też jest nauką i biorąc pod uwagę, że większość
Twojej działalności pochodzi z Internetu (lub przynajmniej powinna pochodzić!), to Ty jako właściciel firmy musisz zrozumieć nie
to, który algorytm Google robi co, ale któremu ekspertowi SEO zaufać, aby pomógł Ci bezpiecznie poruszać
się po wzburzonych wodach marketingu internetowego.
tu właśnie pojawiamy się my, czyli HABA GROUP. Mając ponad dwudziestoletnie doświadczenie w SEO
wiedzę i doświadczenie, które jest niezbędne do uzyskania wyników na pierwszej stronie wyszukiwania w Google,
których potrzebuje Twoja firma.
Najczęstsze pytania i odpowiedziFAQ (Frequently Asked Questions)
Pozycjonowanie stron
Google to wyszukiwarka
Należy zacząć od zastanowienia się nad słowami kluczowymi
Architektura informacji