Wbijanie topów i inne slangowe zwroty, które ciężko zrozumieć klientom: cz. 3
„Pozycje trochę skaczą, więc musimy dopalić nasze linki, żeby wbić nasze wysokiej jakości treści do topów”. Czasami naprawdę trudno nas zrozumieć, albo – co gorsza – przekazany komunikat zostaje odebrany zupełnie na opak.
Ty też nie zawsze dobrze rozumiesz, o czym właściwie mówią pozycjonerzy, wyjaśniając stan kampanii SEO dla Twojej marki? Oswój poniższe zwroty, a trochę lepiej zrozumiesz w co inwestujesz.
Dla zaspanych – tutaj znajdziecie część pierwszą wpisu z listą 12 slangowych pojęć SEO, a tutaj dostępna jest też część druga z kolejnymi 7 zwrotami.
A poniżej kilka nowych pojęć:
- → Audyt SEO
- → GoogleBot
- → Duplicate content
- → Treści wysokiej jakości
- → Google Dance
- → Wytyczne dla webmasterów
- → Wbijanie topów
→ Audyt SEO
Pokrewne pojęcia: analiza kodu HTML serwisu, optymalizacja SEO.
Przykład użycia: „Na początek kampanii SEO konieczne jest wykonanie audytu i optymalizacji, żeby dopasować witrynę do zapytań”.
Wyjaśnienie: Audytowanie domen jeszcze przed rozpoczęciem właściwej kampanii SEO, lub na samym jej początku, funkcjonuje już jako branżowy standard. Zaskakujący jest przy tym zupełny brak standaryzacji samego zakresu przeprowadzanych analiz i późniejszej współpracy przy wdrażaniu rekomendowanych poprawek w kodzie HTML. Audyt to zwykle raport w formacie PDF, liczący od kilku do kilkudziesięciu podstron, ale niekiedy ma formę wielowierszowej tabeli w arkuszu Excel. Jednak nie objętość, a rzeczywista wartość informacyjna (szczególnie w obszarze ważnych błędów i braków) jest najistotniejsza.
Dla części firm w branży audyt (lub nawet nawet sama optymalizacja kodu HTML) stał się sprytnym sposobem na przywiązanie klienta poprzez wysoką opłatę za jego przygotowanie lub umowy uwzględniające wysoki koszt przygotowania raportu wliczonego w późniejsze opłaty abonamentowe. W żadnym razie nie neguję tutaj wartości samych materiałów (szczególnie jeśli idzie za nimi aktywne wsparcie przy wdrożeniu), jednak kilkustronicowe, wyceniane na kilka tysięcy materiały z minimalną personalizacją, przesyłane po 2 dniach współpracy, mogą budzić uzasadnione wątpliwości.
Wskazówka: przed rozpoczęciem współpracy warto poprosić o przykładowy audyt (demo), czy choćby sam spis treści i 1-2 sekcje opisowe do wglądu, aby upewnić się, że dostarczony finalnie materiał będzie zgodny z oczekiwaniami i zakresem wiedzy o SEO osób odpowiedzialnych za administrowanie serwisem. Pozwoli to uniknąć niepotrzebnych nieporozumień na samym początku współpracy.
→ GoogleBot
Pokrewne pojęcia: bot, spider, pajączek, indeksowanie, craw budget, indekser.
Przykład użycia: „Musimy zaprosić bota, żeby zaindeksować zaktualizowane po optymalizacji zasoby w serwisie” .
Wyjaśnienie: Google dzięki dedykowanym programom komputerowym (tzw. „boty”) pobiera i analizuje treści w serwisach internetowych. Robi to zarówno w momencie ich pierwszej publikacji w sieci, jak i przy późniejszych aktualizacjach czy rozbudowie. W teorii powinno się to dziać automatycznie, w praktyce przez ograniczone zasoby serwerów mniejsze, czy mniej popularne serwisy mogą obserwować problemy z prawidłową indeksacją zmian. W skrajnych przypadkach nowe zasoby nie są pobierane (indeksowane) przez robota Google przez nawet kilka miesięcy i tym samym nie można ich znaleźć w wynikach wyszukiwania. Problem ten dotyczy dziś szczególnie bardzo rozbudowanych serwisów z wielopoziomowym zagnieżdżeniem podstron i dużą automatyzacją generowanych treści.
Specjaliści SEO wykorzystują niekiedy dość finezyjne strategie celujące w przyspieszenie indeksacji, tak aby szybciej uzyskać lepsze wyniki prowadzonych działań SEO. Finalnie o pobraniu i utrzymaniu w indeksie treści danej strony decydują jednak zawsze algorytmy Google.
→ Duplicate content
Pokrewne pojęcia: zduplikowana treść, treści niskiej jakości.
Przykład użycia: „Strona zawiera dużo skopiowanych treści, dlatego ma niskie pozycje” .
Wyjaśnienie: kopiowanie treści było kiedyś najprostszą techniką na zwiększenie zasięgu serwisów. Pomijając same aspekty etyczne i prawne, dzięki dedykowanemu algorytmowi „Google Panda” liczba powielonych wzajemnie zasobów w wynikach wyszukiwania Google jest dziś znacznie mniejsza. Dla nowych serwisów klasy e-commerce, poważnym problemem na starcie jest fakt, że zwykle kopiują opisy produktów i same zdjęcia bezpośrednio od producentów, przez co mogą notować problemy zarówno z zasięgiem jak i – w skrajnych sytuacjach – nawet z samą indeksacją takich treści. Podobny problem dotyczy podstron z bardzo krótkimi treściami (tzw. „thin content„), które – nierzadko generowane automatycznie – notują raczej niewielkie szanse na wysokie i stabilne pozycje.
Bywa też, że masowo powielone treści zdobywają bardzo dobre zasięgi w wyszukiwarce, by nagle utracić je wraz z nową aktualizacją algorytmu.
→ Treści wysokiej jakości
Pokrewne pojęcia: wartościowe treści, artykuły tematyczne, blogowanie, mocne precle.
Przykład użycia: „Żeby mieć więcej ruchu z Google, konieczne jest stworzenie sekcji blogowej, gdzie będą regularnie publikowane tematyczne artykuły wysokiej jakości” .
Wyjaśnienie: nie istnieje narzędzie, które jednoznacznie byłoby w stanie pomóc określić, czy dana treść jest wysokiej, czy niskiej jakości. Pierwotnie miała o tym stanowić liczba linków zewnętrznych prowadzących do takiego materiału, i choć wskaźnik ten jest dziś mocno eksploatowany przez specjalistów SEO, to jednak rzadko samą liczbę linków utożsamia się z jakością źródłowej treści. Poprzez „wysoką jakość” rozumie się zwykle relatywnie długi (w Polsce zwykle oznacza to pow. 3 tys. znaków) materiał, unikalny w skali internetu i mocno skorelowany z tematyką ważnych fraz i pojęć. Polecane jest też uzupełnienie treści o elementy graficzne i dodatkowe ew. pliki do pobrania.
Własna obserwacja wskazuje, że tzw. „treść wysokiej jakości” w powszechnym rozumieniu branży SEO nie jest dziś tożsama z materiałami o rzeczywistej, wysokiej wartości informacyjnej dla samych czytelników.
→ Google Dance
Pokrewne pojęcia: DC, proxy, skoki pozycji, geolokalizacja.
Przykład użycia: „Pozycje skaczą przez zmiany serwerów proxy” .
Wyjaśnienie: Problem nagłych zmian pozycji objawiający się np. niezrozumiałym spadkiem na kilka dni i późniejszym powrotem na wysokie miejsca w ostatnich latach został znacząco zminimalizowany. Pierwotnie wynikał z faktu trudności z synchronizacją danych pomiędzy grupami serwerów Google (tzw. „data center„) zlokalizowanymi w różnych częściach świata. W uproszczeniu, po wykonaniu zapytania do Google, użytkownik każdorazowo jest przydzielany do losowego serwera Google, stąd w skrajnej sytuacji (zwłaszcza na starcie kampanii SEO) możliwe było prezentowanie pozycji 3 lub 30 dla tej samej strony w przeciągu kilkudziesięciu sekund. Sytuacja stabilizowała się zwykle w przeciągu kilku tygodni.
Problem skoków pozycji wrócił ostatnio, jednak jego przyczyną są dziś nie centra danych Google, ale personalizacja wyników. Google prezentując wyniki wyszukiwania stara się je częściowo dopasować do lokalizacji użytkownika, którą określa m.in. po numerze IP komputera. Systemy monitoringu pozycji wykorzystują do masowego odpytywania Google dedykowane serwery proxy (pośredniczące) zlokalizowane zwykle w zupełnie przypadkowych miejscach na świecie. W efekcie, szczególnie dla fraz obcojęzycznych lub bez jasnego określenia miejsca (np. miasta) w zapytaniu, wyniki mogą być zupełnie odmienne dla serwerów proxy zlokalizowanych z lokalizacjach poza Polską.
→ Wytyczne dla webmasterów
Pokrewne pojęcia: regulamin Google, filtry SEO.
Przykład użycia: „Strona była pozycjonowana niezgodnie z wytycznymi Google, dlatego musimy najpierw posprzątać stare linki” .
Wyjaśnienie: W obliczu coraz powszechniejszych przypadków prób wpływania na wyniki wyszukiwania, zespół Google ponad 10 lat temu przygotował specjalną publikację opisującą metody wpływania na pozycje zgodne z intencją twórców wyszukiwarki. Przez lata dokument zmieniał swoją formę, a każda jego aktualizacja budzi sporo emocji w branży SEO.
Teoretycznie można przyjąć, że specjaliści realizujący strategie SEO zgodne ze „Wskazówkami” nazywani są „white hat SEO”, zaś ci którzy świadomie je łamią to „black hat SEO”. W praktyce, chcąc pozostać w pełni zgodnym z opisanymi w dokumencie warunkami, nie powinno się samodzielnie dodawać żadnych zewnętrznych linków bez atrybutu „nofollow„. Biorąc pod uwagę fakt, że linki zewnętrzne pozostają jednym z najważniejszych czynników w działaniach SEO, poprawianie zasięgu wyłącznie działaniami w obszarze samej witryny okazuje się zwykle bardzo czasochłonne i kosztowne.
W kontekście powyższego, nie jest niczym zaskakującym sytuacja, kiedy analiza kampanii realizowanych przez specjalistów reklamujących swoje usługi SEO jako „w pełni zgodne z wytycznymi wyszukiwarek” ujawni z dużym prawdopodobieństwem kupione linki pozycjonujące.
→ Wbijanie topów
Pokrewne pojęcia: poprawianie pozycji, motywacja.
Przykład użycia: „Na 100% wbijemy topy, trzeba tylko jeszcze chwilę poczekać”.
Wyjaśnienie: pojęcie „wbijania topów” to jeden z częściej padających w rozmowach z klientami slangowego kolokwializmu, jednak o nieco zbyt szerokim znaczeniu. Bywa, że przez „topy” specjalista rozumie pierwszą stronę wyników wyszukiwania, zaś klient np. pierwszą pozycję. Samo „wbijanie” wiąże się też często z planowaniem realizacji taktyk o podwyższonym ryzyku kar i filtrów algorytmicznych, co też często nie jest wyjaśnione dostatecznie jasno.
Największym jednak problemem z poprawianiem pozycji dla kilku wybranych fraz jest fakt, że ich widoczność niekoniecznie musi przełożyć się na wymierne wyniki finansowe dla właściciela witryny. Jeśli celem jest wysoka pozycja konkretnej frazy, to za jego realizację trzeba będzie zapłacić, ale dobrze wcześniej ustalić, że na pewno o to nam chodzi. Dla większości nowych biznesów w sieci znacznie efektywniejsza dziś okazuje się strategia pracy z tzw. „długim ogonem”, zamiast konkurowanie o najpopularniejsze słowa.
Osiągaj wysokie pozycje w wyszukiwarce, które przełożą się na większą sprzedaż.
Polecamy również: