Kara ręczna i filtr algorytmiczny

Kara ręczna i filtr algorytmiczny

Wśród kar, jakie „rozdaje” Google stronom internetowym, najczęstszymi są filtr i ban. Ich różnica zależy od wielkości przewinienia, jakiego się dopuściliśmy.

Ban — witryna zostaje usunięta z wyszukiwarki. Ilość zaindeksowanych podstron równa się zero.

  • Powody banowania
  • Stworzenie serwisu naruszającego prawa autorskie,
  • Kopiowanie i/lub chowanie tekstu i odnośników,
  • Przedstawianie użytkownikom i robotowi Google różnych treści,
  • Zakładanie stron mających podnieść pozycję głównej witryny w wyszukiwarce.

Czy nasza strona została zbanowana?

W celu sprawdzenia, czy dostaliśmy bana, otwieramy wyszukiwarkę Google i wpisujemy „site:adresnaszejdomeny.pl”. Jeżeli pojawi się informacja, że „Podana fraza — wyszukiwana przed chwilą domena — nie została odnaleziona” i nie pojawią się żadne wyniki, odpowiedź na pytanie jest niestety twierdząca — dostaliśmy bana. W przeciwnym wypadku pojawią się odnośniki do naszej domeny i jej podstron.

Filtr — zmniejszenie pozycjonowania podczas wyszukiwania dochodzącego do 70 miejsc. Otrzymuje się go po skorzystaniu z metod Black Hat SEO np. nienaturalne linkowanie. Domena dostaje kare zazwyczaj po wprowadzeniu uaktualnionego algorytmu wyszukiwarki.

Filtr ręczny

Czy nasza strona otrzymała filtr?

Kluczowe w tym momencie są 3 kroki.

  • Sprawdzenie, czy strona wyświetla się w wyszukiwarce.
  • Czy jej pozycja nie spadła o kilkadziesiąt miejsc
  • Czy w Google Webmaster Tools (GWT) znajduje się wiadomość o działaniach ręcznych.

Usunięcie filtru ręcznego

Początkowym działaniem jest eksportowanie z GWT każdego linku przychodzącego do naszej strony. Chcąc to zrobić, klikamy: „Ruch związany z wyszukiwaniem” -> „Linki do Twojej witryny” -> „więcej obok źródła największej liczby linków” -> „pobierz więcej przykładowych linków”. Wybieramy linki, które spowodowały powstanie kary. Ułatwieniem jest skorzystanie z systemu wskazującego, które z nich są winne. Następnym krokiem jest disavow tool i zgłoszenie do niego nienaturalnych linków. Robimy to w następujący sposób. Tworzymy nowy plik, w którym wskazujemy linki usunięte wraz z tymi, których nie byliśmy w stanie usunąć. Jeżeli duża liczba linków bierze się z jednej domeny stosujemy znacznik „site:nazwadomeny.pl”. Najlepiej, aby plik był kodowany w UTF-8. Następnie otwieramy stronę www.google.com/webmasters/tools/disavow-links-main, włączamy adres strony, z której chcemy zdjąć filtr i załączamy utworzony plik.

Po upływie około 7 dni od zgłoszenia pliku wysyłamy prośbę wraz z adresem url do pliku, który załączyliśmy w disavow, oraz informacje o podjętych działaniach, co się udało i dlaczego nienaturalne linki powstały.

Czas na odpowiedź

Na werdykt czeka się zazwyczaj do 2 tygodni, po których ręczne działanie będzie wycofane bądź witryna nadal nie będzie odpowiadać wskazówkom jakościowym Google.

Filtr algorytmiczny

Czy dostaliśmy filtr?

Otrzymania filtra nie da się sprawdzić jak w poprzednim przypadku. Trzeba dowiedzieć się:

  • czy data, w której pozycja naszej strony spadła jest równa z datą aktualizacji algorytmu,
  • czy strona spadła o ponad 30 pozycji.
  • Dobrze jest także sprawdzić profil linkowania poprzez np. Majestic SEO. Patrzymy w nim:
  • czy występuje dopasowanie ścisłe w rozkładzie linkowanych fraz,
  • czy liczba usuniętych linków do zdobytych jest większa niż 40%.

Jeśli odpowiedzi na wszystkie powyższe pozycje są twierdzące, prawdopodobnie otrzymaliśmy filtr.

Usunięcie filtru algorytmicznego

Wykonujemy dokładnie te same czynności jak w filtrze ręcznym. Jeśli pozycja naszej strony wzrośnie, oznacza to, że filtr algorytmiczny został zdjęty.

Zapobieganie

Witryna musi być szeroko pozycjonowana z wykorzystaniem dopasowanych fraz. Najlepiej, jeśli jest ich kilkadziesiąt, a stosunek przedstawia się następująco: 1/10 wszystkich fraz to kategorie, 1/5 – podkategorie, a reszta to frazy złożone. Należy sprawdzić, czy kod źródłowy strony jest poprawny. Schemat naszej witryny i jej elementy muszą być optymalizowane. Content powinien być wartościowy dla odbiorcy, a do tego unikalny. Kopiowanie treści z innych serwisów jest niedopuszczalne. Stosowanie tylko najlepszych, prawdziwych linki z większą przewagą not-sitewide nad sitewide. Postaranie się o uzyskanie odnośników nofollow i dofollow.

Oraz najważniejsze — kontrolowanie stanu i pozycji swojej strony!

Techniczne SEO – fakty

SEO to temat, którego zgłębienie wymaga poświęcenia dużej ilości czasu. Potrzeba bowiem nie tylko umiejętności logicznego myślenia, ale także odpowiednich informacji. Jeśli Twoja wiedza nie jest jeszcze zaawansowana, to ten artykuł został stworzony specjalnie dla Ciebie. Oto 10 ciekawostek ze świata SEO, które warto znać.

1. Strona powinna ładować się w czasie 2-3 sekund.

Google uznało prędkość ładowania się strony za jeden z dwustu czynników, które mają znaczenie podczas ustalania pozycji w rankingu danej witryny. Co więcej, liczy się nie tylko jej szybkość na desktopie, a także w wersji mobilnej. Z tego powodu warto skorzystać z narzędzi Google, aby sprawdzić stan posiadanej strony i wprowadzić niezbędne poprawki.

2. Struktura nagłówków nie ma znaczenia dla rankingu.

W branży SEO panuje przekonanie, że bardzo ważne jest to, aby stosować nagłówki hierarchicznie. Chodzi tutaj o sortowanie ich w kolejności od najważniejszego do najmniej ważnego, czyli h1, h2, h3,… Tymczasem okazuje się, że dla Google’a nie ma to większego znaczenia. Zastosowanie takiego zabiegu jest istotne tylko z punktu widzenia użytkownika.

3. Google jako pierwszą indeksuje stronę główną.

Choć nie jest to regułą, to warto pamiętać, że to właśnie stronę główną Google znajduje jako pierwszą. Z tego powodu szczególnie ważne jest to, co na niej umieszczamy. Przypuszcza się jednak, że algorytmy mogłyby znaleźć jako pierwszą dowolną podstronę, jeśli prowadziłaby do niej wystarczająca liczba linków.

4. Możesz sprawdzić, jak Google widzi Twoją stronę.

Do tego służy narzędzie „Pobierz jako Google dla witryn”, które znajduje się w Google Search Console. Sprawdza ono jednak tylko wersję desktopową strony. Aby sprawdzić, jak Google widzi naszą witrynę wyświetlaną na urządzeniach mobilnych, należy prześledzić raport dotyczący ich obsługi, który można znaleźć w tym samym miejscu.

5. Plik robots.txt musi się znaleźć w katalogu głównym.

Plik robots.txt wskazuje takie części witryny, do których nie mają dostępu roboty przeglądarek. Musi być on nazwany koniecznie małymi literami. Tylko w takim przypadku zostanie rozpoznany. Co więcej, musi znajdować się w katalogu głównym witryny, ponieważ roboty będą go szukać tylko w tym miejscu.

6. 4 miesiące od zmian SEO do poprawy pozycji.

Zmiany SEO nie od razu wpłyną na pozycję witryny. Google informuje, że w przypadku większości stron algorytmy potrzebują aż czterech miesięcy, aby wyświetlać stronę wyżej w wynikach wyszukiwania. Dopiero po tym czasie są w stanie zidentyfikować elementy, które uległy poprawie.

7. Przekierowania powinno utrzymywać się przynajmniej rok.

Google nie rozpoznaje od razu, że strona została przeniesiona. Zazwyczaj zajmuje mu to od sześciu miesięcy do roku. Dlatego tak ważne jest to, aby przekierowania 301 pozostały aktywne przez 12 miesięcy, aby mieć pewność, że Google rozpozna zmiany. Czasami warto jednak nigdy się ich nie pozbywać, ponieważ mogą być one użyteczne pod względem SEO.

8. Masz dostęp do budżetu indeksowania w Google Search Console.

Liczba stron, które Google jest w stanie indeksować w danym czasie, nazywana jest budżetem indeksowania. Można go zobaczyć w Google Search Console. To samo miejsce służy także do wysyłania próśb o zindeksowanie podstrony lub jej zaktualizowanie.

9. Plik disavow tylko przy karach ręcznych.

Plik disavow powinno się stosować tylko wówczas, jeśli Google nałożył na naszą witrynę karę ręczną. Nieuzasadnione jest jego używanie w innych przypadkach. Jeśli jednak jest to możliwe, warto nie ograniczać się tylko do jego zastosowania. Za najlepsze rozwiązanie uznaje się bowiem manualne usunięcie niewłaściwych linków lub oznaczenie ich atrybutem nofollow.

10. Algorytmy Pingwin i Panda są aktualizowane w czasie rzeczywistym.

Google potwierdziło tę informację na konferencji PubCon. Dzięki aktualizacjom w czasie rzeczywistym witryny internetowe nie będą notowały aż tak dużych spadków i wzrostów, jak przy aktualizacjach do tej pory. Czasowe zachwiania pozycji witryn jednak wciąż mogą się zdarzać.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

two × 1 =