Relacja z Search Marketing Day
SMD to coroczna, międzynarodowa konferencja SEM, gdzie grono światowej sławy specjalistów dyskutuje o pozycjonowaniu i marketingu internetowym w ogóle.
Cytując samych twórców:
Konferencja Search Markeitng Day to nie tylko największe doroczne wydarzenie branży SEO, PPC i marketingu internetowego ale także spotkanie wszystkich osób interesujących się pozycjonowaniem stron, prowadzeniem kampanii AdWords oraz promocją stron w internecie.
Druga edycja tej konferencji miała miejsce się 22-23 maja – oczywiście nie mogło nas na niej zabraknąć. Poniżej obszerna relacja z prezentacji jakie odbyły się w ramach panelu SEO na SMD w oraz z zaawansowanego szkolenia.
Relacja z SMD 2012
1. David Harling
Planning and production of optimised content for global offsite distribution strategies
David Harling mówił o contencie i jego potencjale, o tym że umiejętnie przygotowany i dystrybuowany w internecie może przyciągnąć internautów do promowanej witryny oraz zdobyć polecenia w postaci linków. Wskazał cztery najważniejsze elementy przy dystrybuowaniu treści:
- wysokiej jakości oraz interesujący content stworzony dla ludzi,
- odpowiednia optymalizacja SEO content-u,
- wartościowe i popularne miejsca w internecie w których content powinien być zamieszczany,
- ocena opłacalności całej kampanii.
David omawiał wartość różnych typów treści, jak grafika, teksty, video itp., aż w końcu przedstawił dwa case studies.
Pierwszy, opisywał kampanię prowadzoną dla Audi. Kampania prowadzona była przed dorocznym 24h wyścigiem Le Mans. Audi zależało, by ich marka była bardziej kojarzona z tym wyścigiem. Dlatego agencja Razorfish w której pracuje David Harling przygotowała filmik z kierowcą wyścigowym, który przedstawiał 24h z życia kierowcy. Dzięki tej kampanii udało się zwiększyć ruch na stronie Audi o ponad 90% i zdobyć ok. 50 linków z bardzo wartościowych serwisów jak np. BBC.
Drugi case przedstawiał kampanię dla sklepu odzieżowego ASDA należącego do koncernu Wall Mart. Celem kampanii było zwiększenie widoczności w wynikach wyszukiwania poszczególnych rodzajów sukienek. Jako że zbliżała się jakaś rocznica związana z aktorką Audrey Hepburn, wykorzystali to i stworzyli filmik nawiązujący do filmu „Śniadanie u Tiffaniego” w którym aktorka pije kawę, „małą czarną”. Razorfish natomiast chciał zdobyć poprzez tę kampanie linki na frazę „mała czarna” ze względu na ofertę tego typu sukienek w promowanym sklepie, co im się w konsekwencji dzięki tej kampanii udało.
Nawiązując do ostatniego case study, David mówił, że przy tworzeniu tego typu kampanii trzeba wykorzystywać trwający popyt na jakąś tematykę, to zapewni najlepszy efekt.
2. Dixon Jones
A new way to look at links and quality post Penguin
Dixon zaczął od krótkiego opisu jak działa MajesticSEO i jak wykorzystywać te narzędzie do analizy i wyszukiwania szkodliwych linków w kontekście ostatniej aktualizacji algorytmu wyszukiwarki o nazwie „Pingwin”. Mówił o różnicach pomiędzy indeksem fresh oraz historycznym. Indeks fresh zawiera wykaz linków prowadzących do badanej strony, które znalezione zostały przez robota MajesticSEO w ciągu ostatnich 30 dni (to już uległo zmianie i obecnie jest to 45dni). Z tego względu jeśli chcemy np. sprawdzić czy do badanej witryny prowadzą linki site-wide (ze wszystkich podstron witryny), to najlepiej zrobić to przeglądając dane historyczne w zakładce „Refering domains”. Wg niego sprawdzanie linków side-wide ma sens, bo Google traktuje je ostatnio za mniej naturalne, szczególnie gdy prowadzą z wielu domen oraz gdy pochodzą z witryn nie powiązanych tematycznie.
Następnie Dixon pokazywał jak tworzyć dla badanych w MajesticSEO domen raporty standardowe i jakie dane można otrzymać po ich wygenerowaniu. Czyli możemy np. zbadać na jakie frazy linkowana/pozycjonowana jest dana strona i czy są fazy te są odpowiednio zróżnicowane.
W raportach zaawansowanych można wyłapać np., czy na badaną stronę przekierowane są (za pomocą przekierowania 301) inne domeny. Mówił, że warto badać przekierowania 301 do witryn, bo mogą być przez nie przekazywane filtry i bany. Także czasem takie przekierowanie może być wyjaśnieniem dlaczego pozycje dla danej witryny nie chcą się za nic poprawić.
Pokazał także jak działa narzędzie moduł „Clique hunter” w MajesticSEO, które pokazuje wspólne linki dla wpisanych w formularzu różnych domen.
Po omówieniu na kilku przykładach, jak można wykorzystać narzędzie MajesticSEO do badania negatywnych czynników jakie wpływają na badaną domenę, Dixon przeszedł do omawiania nowej funkcjonalności o nazwie Flow Metrics.
W MajesticSEO chcieli stworzyć bardziej wiarygodny parametr określający jakość linków prowadzących do badanej witryny niż stary parametr o nazwie ACE Rank, który był tym wyższy im więcej prowadziło linków do domeny. Dlatego powstały parametry Trust Flow (określa jakość linków) oraz Citation Flow (odpowienik ACE Rank). Oba parametry to liczby z zakresu od 0 do 100. Jeśli chodzi o parametr Trust Flow, to Dixon nie powiedział co biorą konkretnie pod uwagę ustalając go.
Jeśli chodzi o analizę całego profilu linków na podstawie Flow Metrics, to najlepszą sytuacją jest gdy parametr Citation Flow i Trust Flow są do siebie zbliżone no i oczywiście im bliższe 100 tym lepiej. Jeśli pomiędzy tymi dwoma parametrami jest duża różnica wtedy profil linków może być nienaturalny i podejrzany dla wyszukiwarki. Dla przykładu, jeśli dla badanej domeny, parametr Citation Flow jest zdecydowanie wyższy niż Trust Flow, to oznacza to że większość linków jakie prowadzą do strony, to linki o niskiej jakości, co może sugerować że witryna jest pozycjonowana przy użyciu metod nieetycznych (np. rotacyjne SWLe).
Odnośnie funkcjonalności Flow Metrics, powiedział też że w zakładce „Link profile” na będącym tam wykresie, możemy wyświetlać albo tylko domeny z których prowadzą linki (Referring Domains – widok standardowy) albo wszystkie linki które prowadza do badanego serwisu (External Backlinks). Przy wyświetlaniu „Referring Domains” wykres wygląda korzystniej, czyli punkty pojawiają się wyżej, bo domeny główne mają lepsze parametry niż np. pojedyncze linki które prowadzą z podstron.
Następnie Dixon opowiedział, jak wyglądała cała akcja promocji nowej funkcjonalności Flow Metrics. W krajach gdzie MajesticSEO jest popularne, w tym w Polsce, mają swoich przedstawicieli tzw. ambasadorów. Konsultowali oni z nimi działanie Flow Metrics. Udostępnili też większym partnerom, za pośrednictwem API, nowe parametry Trust Flow i Citation Flow. Przed startem nowego modułu poprosili ambasadorów o opublikowanie wstępnych informacji, także dzięki temu zdobyli trochę linków, a krótko po debiucie Flow Metrics zebrali sporo ruchu z witryn które wspomniały o nowej funkcjonalności.
3. Magnus Bråth
Supersizing your SEO
Niestety była to słaba prezentacja, podczas której można się było dowiedzieć tylko o tym, że by odnieść sukces w pozycjonowaniu trzeba dodawać szybciej, więcej i lepszych jakościowo linków od konkurencji. Magnus nie podał żadnych, nawet ogólnych przykładów w jaki sposób optymalizować swoje działania SEO by tego dokonać.
Jedynie co jest warte uwagi z tej prezentacji, to kilka ciekawostek o Szweckiej branży SEO. Ponoć wbrew pozorom jest tam bardzo duża konkurencja, jedna z największych na świecie. Liczbowo Magnus podsumował że konkurencja w Szweckich wynikach wyszukiwania, to około 1/3 konkurencji w USA, więc bardzo duża.
Wspomniał też o praktykach niektórych Szweckich agencji SEO. Ponoć jest jedna firma, która rocznie przechwytuje około 10 tys. domen, które nie zostały opłacone przez ich dotychczasowych właścicieli. Większość z tych domen posiada dobre parametry, dlatego agencja ta umieszcza na nich swoje zaplecze i wykorzystuje do pozycjonowania witryn klientów. Jak taka strona zapleczowa zostaje zauważona przez Google i ukarana, to wtedy kupują następną domenę i przenoszą całą zawartość ukaranej witryny na nową domenę.
4. Ralph Tegtmeier
Turning black into white: Automatic content generation for SEO and Social Network Marketing
Pojawił się na SearchMarketingDay, by przekonywać, że jeśli się odpowiednio postaramy, to „black hat” (nieetyczne pozycjonowanie), może stać się „white hat” (etyczne). Udowadniał tę tezę na przykładzie automatycznie generowanych treści (np. tekstów pod zaplecze pozycjonerskie), które dobrze wygenerowane mogą być nie do odróżnienia od tekstów pisanych przez ludzi. Przekonywał nawet, że przy dużej skali, generowane teksty mogą być lepsze i bardziej unikalne niż te pisane przez człowieka. Człowiek pisząc np. 100 tekstów na ten sam temat, może nie być w stanie, aż tak bardzo ich zróżnicować i w końcu pojawią się fragmenty treści, które się powtórzą. Natomiast korzystając z generatora unikniemy tego problemu, dodatkowo znacznie zaoszczędzimy na czasie oraz nie będziemy musieli opłacać copywriterów.
Ralph dużo czasu poświęcił na czytanie wygenerowanych przez jego narzędzie tekstów. Akurat te, które pokazał, w mojej opinii może miały sens i wyglądały na porządnie napisane, ale ich unikalność była słaba.
Potem Ralph zaczął opowiadać co robi by jego teksty wyglądały jeszcze bardziej naturalnie i wiarygodnie dla wyszukiwarki. Analizował np. dostępne wyniki badań, które zawierają informacje o tym jak często ludzie popełniają błędy podczas pisania tekstów i jakiego są one rodzaju. Następnie wprowadził do swojego narzędzia modyfikacje, tak by w generowanych tekstach pojawiały się błędy (np. interpunkcyjne, literówki itp). Oczywiście z taką częstotliwością z jaką pojawiają się one w tekstach pisanych przez człowieka. Wspominał także o mieszaniu i różnicowaniu ilości paragrafów w tekście, tak by teksy różniły się od siebie długością i układem.
Na koniec Ralph pokazał, jak automatyzuje publikowanie wiadomości na jego wielu kontach jakie posiada na Twitterze. Korzysta do tego z takich aplikacji jak TweetDeck, Pluggio.com, Socialoomph.com, które służą między innymi do planowania publikacji tweetów. Do tego wykorzystuje jeszcze swój program do mieszania tekstów i w ten sposób publikuje dużą liczbę unikalnych tweetów na wielu różnych kontach.
5. Dominik Wójcik
Fast Flux Networks, how they work, and how you can use them to protect your Linknetwork
Dominik rozpoczął od ogólnego opisania poziomu zabezpieczeń na obecnych witrynach w sieci. Powiedział, że 5 na 6 witryn ma poważne dziury w zabezpieczeniach, a 1 na 5 stron jest podatna na ataki automatów. Wymienił kilka najczęściej wykorzystywanych dziur w zabezpieczeniach, należą do nich:
- directory travelsal (szczegóły tutaj: http://en.wikipedia.org/wiki/Directory_traversal_attack),
- mało skomplikowane hasła,
- Cross Site Scripting (XSS – o tym szerzej napiszę poniżej),
- słabo zabezpieczone bazy danych SQL.
- Cross Site Scripting (XSS)
Następnie Dominik zaczął omawiać bardziej szczegółowo Cross Site Scripting. Polega to na tym, że możemy na słabo zabezpieczonej stronie wstrzyknąć praktycznie dowolny kod HTML za pośrednictwem adresu URL, np. link do pozycjonowanej strony. Niby prosta sprawa i wydawało by się, że tylko strony programistów amatorów mogą być podatne na takie wstrzyknięcie kodu, ale Dominik na kilku przykładach uświadomił wszystkich, że tak nie jest. Pokazał strony gdzie można dokonać tego typu wstrzyknięcia:
- http://www.dmoz.org
- oficjalną stronę scjentologów
- http://fonts.googleapis.com
Mówił też o wtyczce do FireFoxa, która testuje, czy dana strona jest podatna na ataki XSS. Nazywa się XSS Me. Może się przydać nie tylko do szukania niezabezpieczonych stron, ale przede wszystkim zabezpieczenia swoich witryn lub witryn klientów.
Następną ciekawym tematem jaki poruszył Dominik, było DNS Cache Poisoning (zatruwanie DNSów). Technika ta polega na wysłaniu do serwera DNS fałszywej informacji która powiąże domenę z określonym adresem IP. Serwer DNS może taką informację zapamiętać na kilka godzin. W taki sposób można kogoś przenieść na fałszywą stronę. Metoda działa tylko na słabo zabezpieczonych serwerach DNS, ale ponoć ich jest dość sporo.
Ostatnią z ciekawych metod jaką omówił Dominik, była metoda Fast Flux Networsks. Metoda wykorzystywana przez sieci botów i właścicieli stron phishingowych do ukrywania linków. Polega na rotowaniu IP (co kilka minut) oraz zmianie DNSów w odpowiedni sposób. Dominik wspomniał, że ta metoda działa, ale tylko czasowo. Jest ona znacznie bardziej zaawansowana niż pozostałe i wymaga odpowiedniego zaplecza technicznego.
Na koniec Dominik odpowiedział na kila pytań. Jednym z ciekawszych było pytanie o bezpieczeństwo skryptu blogowego WordPress. Powiedział że samo WP, jeśli jest aktualizowane na bieżąco, jest bezpiecznym skryptem. Natomiast dużo do życzenia pod kątem bezpieczeństwa pozostawiają wtyczki. Dlatego sugerował, by instalować ich jak najmniej to możliwe i w miarę swoich możliwości testować ich bezpieczeństwo.
6. Joe „Cygnus” Sinkwitz
Great, another update named after animal. Now what?
Joe na przykładzie Pingwina (aktualizacji algorytmu Google) opisywał, jak analizować i wyciągać wnioski z każdej zmiany algorytmu. Mówił, że czynników wpływających na wyniki jest bardzo dużo i to czy uda nam się wyciągnąć słuszne wnioski zależy od tego ile danych zbierzemy przed każdą zmianą algorytmu.
Wśród zbieranych danych powinny być między innymi takie informacje, dotyczące pozycjonowanych witryn, jak i ich konkurencji:
- stan optymalizacji,
- przyrosty i spadki linków w różnych okresach czasu,
- jakość linków i ich tematyczność,
- zróżnicowanie fraz,
- itp., im więcej tym lepiej.
Joe sugeruje, żeby nie czekać aż sytuacja się ustabilizuje po aktualizacji algorytmu, tylko przystąpić od razu do analizowania. Google za każdym razem gdy wprowadza nowy algorytm robi to dość agresywnie, dlatego często na początku widać ciekawe wyniki (np. niskiej jakości strony zapleczowe) pod niektórymi frazami, nawet bardzo konkurencyjnymi. Dopiero po pewnym czasie Google robi korekty lub uruchamia po trochu drobniejsze aktualizacje, tak że wyniki powoli wracają do normy. Natomiast dlatego, że na początku zmiany są najbardziej wyraźne, warto zatem od razu je analizować.
Pokazywał też co ciekawego pojawia się w amerykańskim Googlu po Pingwinie, dla fraz: python hosting, Arizona, buy cialis.
Na koniec Joe odpowiedział na kilka pytań. Mówił, że jeśli kogoś dotknęła Panda, to może spróbować przekierowania 301 na nową domenę. Pytany o to, czy tagi canonical (odpowiednik przekierowania 301) działają pomiędzy dwiema różnymi domenami, powiedział że działają.
7. Andre Alpar
Panda , Pinguin and other scary Animals
Andre Alpar opowiadał natomiast o konkretnych wnioskach jakie wyciągnął po wprowadzeniu Pandy i Pingwina.
W przypadku Pandy uważa, że dotknęła ona 4 typy witryn:
- strony o linkach z witryn o niskiej jakości,
- porównywarki cen,
- farmy treści,
- strony made for Adsense (pod reklamy).
Uważa też, że Google wykorzystało Pandę do uderzenia w witryny które oferują usługi konkurencyjne dla Googla (np. Google Maps, Google Shoping). Według niego Panda brała też pod uwagę współczynnik odrzuceń i w sytuacji gdy był bardzo wysoki, to pozycje danej strony/podstrony były obniżane.
- Andre dał też kilka wskazówek, które mogą wg niego pomóc w obronie przed Pandą. Wg niego warto:
- tworzyć witryny które zachęcają do czytania zarówno merytorycznie jak i wizualnie, tak by poprawić współczynnik odrzuceń,
- różnicować treści i wstawiać je w wielu różnych lokalizacjach na witrynie,
- wyindeksować z wyszukiwarki adresy URL które nie przynoszą ruchu.
W jego opinii Pingwin negatywnie wpłynął na strony:
- monetyzujące ruch (np. stworzone tylko po to by zarabiały na reklamach),
- w których pozycjonowane są frazy o małym zróżnicowaniu,
- frazy źle dopasowane tematycznie do pozycjonowanej witryny,
- linki z niepowiązanych tematycznie witryn,
- z wysokim współczynnikiem odrzuceń.
Ucierpiały też strony posiadające nazwę marki w nazwie domeny, ale nie będące tą marką. Google bada to na podstawie ilości wejść bezpośrednich oraz wejść na frazy typu „marka.com” lub „marka”. Jeśli na takie słowa kluczowe jest nieiwele wejść, a domena posiada w nazwie nazwę marki, wtedy może ona zostać uznana za niewiarygodną.
By bronić się przed pingwinem Andre Alpar sugeruje tworzenie na stronach jak najbardziej złożonych i rozbudowanych treści. Natomiast podczas zdobywania linków, sugeruje by nastawić się na ich jak najwyższą jakość, a nie ilość.
8. Mikkel deMib Svendsen
Balancing all the SEO tips.
Podczas prezentacji Mikkel omówił najważniejsze elementy w SEO skupiając się najbardziej na optymalizacji stron. Podzielił SEO na trzy składowe:
- architektura i kod strony,
- treści,
- popularność (linki, social media, wiarygodność strony).
Następnie wymienił najważniejsze elementy na których należy się skupić po wykonaniu optymalizacji strony:
- indeksowanie,
- podnoszenie pozycji w rankingu,
- zwiększanie ruchu,
- zwiększanie konwersji.
Po krótkim wstępie Mikkel zaprezentował w jaki sposób warto zabierać się do optymalizacji strony. Przy okazji omówił podstawowe problemy jakie mogą nas spotkać podczas jej wykonywania.
Przed przystąpieniem do optymalizacji należy ocenić jakie działania będą konieczne, a jakie opcjonalne. Tutaj przytoczył dwie metody w jaki sposób określać priorytety działań.
Pierwsza polega na wykorzystaniu trzech kolorów:
- czerwony (zmiany konieczne),
- żółty (przydatne zmiany),
- zielony (zmiany opcjonalne).
Drugi sposób, to sposób rankingowy w którym każdy element optymalizacji oceniamy na podstawie 3 czynników do których przyporządkowujemy wartość od 1 do 5. Te czynniki to:
- wpływ zmiany na pozycje (im wyższa wartość tym wpływ jest większy),
- szybkość wdrożenia (im wyższa wartość tym wdrożenie potrwa krócej),
- koszt (im wyższa wartość tym wdrożenie będzie tańsze).
Dla przykładu, wykluczenie z indeksu wyszukiwarki niskiej jakości treści z pozycjonowanej strony Mikkel ocenił w taki sposób:
- wpływ zmiany na pozycje: 5,
- szybkość wdrożenia: 4,
- koszt: 5.
Gdy ocenimy element pod kątem tych trzech czynników, to wtedy mnożymy wszystkie oceny przez siebie (5x4x5), otrzymamy ostateczny ranking (w tym przypadku 100). Elementy o najwyższym rankingu wprowadzamy jako pierwsze.
Następnie Mikkel omówił kilka ważnych elementów przy pracy ze stroną i powiedział jak radzić sobie gdy wystąpią problemy z nimi.
Omówił indeksację w wyszukiwarce. Problemy z nią mogą wystąpić np. z powodu:
- dostęp do części witryny jest chroniony hasłem,
- złych wpisów w pliku robots.txt i w tagach META,
- powielonego contentu w obrębie tej samej domeny (np. w PDFach, wersjach do druku, indeksowania tych samych podstron z różnym ID sesji, podobnych produktów).
Jak radzić sobie z powieloną treścią:
- wersje do druku najlepiej przygotowywać z wykorzystaniem stylów CSS lub używając tagów canonical,
- pliki PDF, DOC itp. najlepiej umieszczać w oddzielnym katalogu i blokować ich indeksację,
- w przypadku sortowania tabel na stronach, najlepiej sortować je z wykorzystaniem języka JavaScript lub używać wskaźników w adresie po zanku „#”,
- podstrony zawierające takie same treści najlepiej usunąć, zrobić przekierowanie 301 albo ustawić tag canonical.
Mikell powiedział, że warto mocno pochylić się na tematem zduplikowanych treści, szczególnie po Pandzie. Przed Pandą nie miało znaczenia ile dana witryna miała zaindeksowanych podstron i jakiej były jakości, im więcej podstron tym strona zbierała większy ruch. Obecnie warto jest indeksować podstrony tylko o dobrej jakości.
9. Panel dyskusyjny
Udział w panelu brali udział wszyscy prelegenci oraz Kaspar Szymański z Google Search Quality Team. Jak można było się spodziewać, pojawiło się sporo pytań odnośnie ostatnich zmian w algorytmie do Kaspara. Kilka osób narzekało, że pospadały im strony i pytały się dlaczego. Oczywiście Kaspar udzielał standardowych odpowiedzi, żeby na spokojnie przeanalizować swoją stronę, wprowadzić poprawki i zgłosić do ponownego rozpatrzenia.
Padło też pytanie dlaczego Google kara duże strony typu (ceneo.pl, tablica.pl itp.) bez żadnego wcześniejszego ostrzenia. Kaspar odpowiedział, że chciałby, żeby dla popularnych stron i witryn o dobrej jakości, ale linkowanych niezgodnie z zaleceniami Googla, ostrzeżenia pojawiały się w narzędziach dla webmasterów Google.
Poniżej, w skrócie, to co powiedział jeszcze Kaspar:
- pod kątem spamu Polacy należą do ścisłej czołówki i nie ustępują wiele Rosjanom, w innych krajach SWLe i tego typu systemy nie są tak popularne,
- wpisy do katalogów i precli (stron z artykułami) nie zaszkodzą jeśli są to porządne serwisy z dobrą treścią,
- ponoć Google posiada „zaawansowane metody” oceny, czy strona ukarana za złe linkowane nie była przypadkiem przez kogoś złośliwie depozycjonowana,
- po otrzymaniu kary za złe linkowanie, jeśli nie jesteśmy w stanie usunąć wszystkich szkodliwych linków, to trudno, jeśli w zgłoszeniu ponownego rozpatrzenia dokładnie opiszemy co zrobiliśmy i jakie linki usunęliśmy, to powinno być rozpatrzone pozytywnie,
- odnośnie zmian w algorytmie przyznał, że na wysokich pozycjach pod niektórymi frazami pojawiają się witryny o niskiej jakości (np. strony zapleczowe), natomiast wprowadzają poprawki i starają się je usuwać,
- chciałby, żeby w Webmaster Tools oznaczane były linki ze stron o niskiej jakość,
Na koniec każdy z prelegentów miał odpowiedzieć na pytanie, „w jaki sposób zdobywać obecnie linki i z jakich witryn?”:
Dominik Wójcik: Najlepiej zdobywać takie linki które dają ruch.
Kaspar: Trzeba być kreatywnym i pomysłowym. Przytoczył przykład jednej z linii lotniczych, która stworzyła żartobliwą kampanię informującą o tym, że wprowadza opłaty za korzystanie z WC w samolotach. Kampania stała się dość popularna i dzięki temu udało się im zdobyć wiele naturalnych linków polecających.
Mikkel deMib Svendsen: Należy tworzyć różnego rodzaju eventy, które w naturalny sposób zachęcą do linkowania.
Ogólnie wszyscy byli zgodni w temacie zdobywania linków i odradzali metody Black Hat, jeśli zależy nam na uzyskaniu stabilnych pozycji przez dłuższy czas.
10. Szkolenie
Joe „Cygnus” Synkwitz – pozycjonowanie stron monetyzujących ruch
Szkolenie rozpoczęło się od wystąpienia Joe Sinkwitza, który opowiadał o tworzeniu i pozycjonowaniu stron monetyzujących ruch. Mówił, że w przypadku takich projektów najlepiej kierować się następującym prostym schematem:
- strategia (np. przyjęcie strategi pozycjonowania, black hat lub white hat),
- tworzenie contentu,
- linkowanie,
- zarabianie:)
Joe mówił, że w przypadku branży leków w USA np. Viagry stosuje się wszelkiego rodzaju metody black hat, np.:
- linki niskiej jakości ze stron nietematycznych,
- liczne przekierowania 301,
- DNS poisoning,
- JavaScript poisoning (np. wstrzykiwania w komentarzach atakowanej witryny, kodu JavaScript, który spowoduje przekierowanie na naszą stronę z reklamami).
Następnie Joe skrótowo omówił jak tworzyć zaplecze pod pozycjonowanie stron służących zarabianiu na reklamach. W przypadku zaplecza wielopoziomowego dla wyższej warstwy zaplecza sugeruje tworzyć witryny na WordPressie, Joomli itp. Niższe warstwy to np. komentarz na blogach. Dobrze jeśli teksty zamieszczone na tych najwyższych poziomach będą dobrej jakości. Na niższych warstwach można pozwolić sobie np. na teksty synonizmiowane (generowane automatycznie). Podobnie rzecz się ma jeśli chodzi o pozycjonowanie zaplecza, wyższą warstwę najlepiej linkować metodami zbliżonymi do naturalnych, a niższe z automatów.
Jeśli chodzi o badanie jakości swojego zaplecza, to Ralf Tegtmeier wtrącił kilka słów podczas wystąpienia Joe Sinkwitza i powiedział, że można np. umieścić tymczasowo na swojej stronie zapleczowej AdSense i sprawdzić czy reklamy, które się pojawiają są dobrze dopasowane tematycznie do treści serwisu. Jeśli tak to znaczy, że Google powinno uznać, że treści są dobrej jakości.
Kończąc wątek, Joe rzucił kilka luźnych wskazówek odnośnie prowadzenia i pozycjonowania stron monetyzujących ruch:
- black hat, to krótkotreminowy sposób na zarabianie pieniędzy, dlatego wybierając branżę trzeba ocenić co będzie bardziej opłacalne, etyczne lub nie etyczne pozycjonowanie,
- AdSense najlepiej stosować tylko na najlepszych jakościowo witrynach, na pozostałych najlepiej skupić się na rozliczaniu za leady (np. wypełnienie formularza kontaktowego itp.),
- czasem lepiej sprzedać nawet świetnie zarabiającą witrynę, która została wypozycjonowana na bardzo konkurencyjne frazy metodami nie etycznymi, bo prędzej czy później Google się za nią zabierze, a w momencie gdy strona jest w topie stawki za nią mogą osiągać dość spore kwoty.
Opis narzędzia Link Emperor
Link Emperor jest webowym narzędziem (http://www.linkemperor.com/ ) pozwalającym m.in. na pozycjonowanie (głównie nieetyczne), tworzenie treści, analizę konkurencji, dobieranie słów kluczowych.
Poniżej kilka konkretnych funkcjonalności, które pokrótce przedstawił Joe:
- robienie analizy strony pod kątem optymalizacji,
- analiza konkurencji oraz linków prowadzących do konkurencji,
- tworzenie treści, poprzez generowanie lub dodawanie manualne,
- zdobywanie linków na różnych typach stron (np. blasty na fora, komentarze, wikipedie, strony z Google News itp.)
- budowa wielopoziomowego zaplecza,
- manualne dodawanie adresów stron na których znajdują się linki do pozycjonowanej strony.
Najwięcej czasu Joe oczywiście poświęcił na pokazanie, jak wykonywać blasty (tzn. dodać w krótkim czsie sporo linków z niskiej jakości witryn nie do końca powiązanych tematycznie). Wygląda to ciekawie, bo można wybierać z naprawdę wielu typów linkowania:
http://www.linkemperor.com/backlink-marketplace.
Niestety narzędzie jest drogie, bo w najtańszej opcji kosztuje 497$ na miesiąc.
Ralf Tegtmeier i jego automatycznie generowane treści
Po Joe Sinkwitzu do głosu doszedł Ralf Tegtmeier, który zastąpił Martina McDonalda, który niestety nie mógł się pojawić na SMD. Ralf uznał, że pewnie nie wszyscy byli dzień wcześniej na jego prezentacji o automatycznie generowanych treściach, także zaczął od jej powtórzenia.
Następnie przystąpił do tworzenia tekstu i przygotowywania źródła z synonimami, które potem posłużą do generowania innych wersji tego samego tekstu. Robił to w programie o nazwie „The Best Spinner”, który wyróżnia się najlepszymi i największymi bazami z synonimami, ale głównie w języku angielskim. Program, po wygenerowaniu tekstu, pokazuje też procent unikalności w stosunku do tekstu podstawowego.
Podczas tworzenia tekstu Ralf zagłębiał się mocno w szczegóły i szeroko komentował każdy synonim który wybierał. Niestety większość uwag o jakich mówił ma zastosowanie tylko w języku angielskim.
Joe „Cygnus” Sinkwitz – wykorzystanie błędów i luk do zarabiania na stronach
Joe rozpoczął od omówienia zjawiska o nazwie Bitfliping. Są to błędy pamięci komputera, które podczas przesyłania danych mogą spowodować podmianę niektórych bitów. Może się tak zdarzyć, że w wyniku takiego przestawienia bitów wpisując adres 4people.pl połączymy się np. ze stroną 5people.pl. Takie błędy pamięci mogą się wydarzyć na wielu etapach, np. na naszym komputerze, serwerze DNS, serwerze Googla gdy klikamy w wynik wyszukiwania itp. Ponoć miesięcznie na jednym serwerze Googla może przytrafić się nawet 1000 takich błędów.
Żeby wykorzystać Bitfliping do zarabiania, można zarejestrować domeny podobne do domen popularnych serwisów, domeny z popularnymi słowami kluczowymi albo nazwami marek. Ważne tylko żeby postać binarna takiej nazwy różniła się najlepiej tylko jednym bitem od domeny której ruch chcemy podebrać.
Jak powiedział Joe w przypadku rynku amerykańskiego, posiadając grupę kilkunastu takich domen, można liczyć w sumie na kilkanaście do kilkudziesięciu wejść dziennie. Jeo mówił że w jego przypadku zarobek z tych domen spokojnie wystarczał na ich opłacenie.
W podobny sposób można wykorzystać DNS Cache Poisoning o którym mówił na swoim wykładzie Dominik Wójcik. Czyli wyszukujemy kiepsko zabezpieczoną strefę DNS wysyłamy odpowiednie zapytanie i przez pewien krótki czas zamiast serwisu który generuje duży ruch pojawia się nasza strona.
Następnym tematem jaki poruszył Joe jest pozycjonowanie w Bingu. Ogólnie chodzi o to, że Bing traktuje subdomeny na równi z domenami głównymi, także możemy sobie stworzyć np. subdomenę o adresie tworzenie.stron.internetowych.poznan.pl. Taki adres w przypadku binga jest bardzo dobry, bo zawiera słowo kluczowe, a w Bingu ma to dość spore znaczenie.
Gdy już stworzymy, taką subdomenę to Joe polecał ją indeksować za pomocą Facebooka, bo w przypadku Binga to trwa bardzo szybko. W ten sposób dość szybko można uzyskać wysokie pozycje nawet dla konkurencyjnych fraz.
Negatywne SEO
Zyskaj więcej klientów dzięki skutecznym działaniom marketingowym z certyfikowanym partnerem Google Premium.
Na koniec całego szkolenia Joe Sinkwitz przytoczył kilka metod depozycjonowania:
- linkowanie dużą ilością linków z niskiej jakości witryn,
- przeprowadzanie ataków DOS, które spowodują bardzo wolne uruchamianie się witryny,
- ustawienie błędu 503, nawet po jego usunięciu strona będzie wyindeksowana co najmniej przez rok,
- wysyłanie maili do właścicieli stron na których pojawiają się linki do depozycjonowanej witryny, z prośbą o ich usunięcie,
- wysyłanie fałszywych maili i przedstawianie się jako Google, informując właściciela depozycjonowanej witryny, że do jego strony prowadzą linki o niskiej jakości i jeśli nie zostaną usunięte, to strona zostanie ukarana,
- jeśli domena ma włączony wildcard, czyli zawartość witryny dostępna jest też pod dowolnym adresem subdomeny, wtedy można podlinkować parę subdomen żeby powstały duplikaty.