Jak będzie wyglądało SEO w 2017 roku?
Styczeń to miesiąc noworocznych postanowień, obietnic i planów. To także czas prognoz i przewidywań tego, czym może zaskoczyć nas kolejne 12 miesięcy. Dziś pora na przyjrzenie się temu, co może być ważne dla pozycjonowania w 2017 roku.
Co roku słyszę, że SEO jest gatunkiem wymierającym i kwestią czasu jest to, kiedy zostanie zdetronizowane przez coś nowego. Z roku na rok okazuje się, że tego typu gdybania to kompletne bzdury, a nikt nie jest w stanie powiedzieć, co będzie się dalej działo. Dopóki istnieją wyszukiwarki, dopóty będziemy mieli styczność z optymalizacją. Mieliśmy już mieć koniec SEO i początek ery Content Marketingu i… Nie do końca to wygląda tak, jak przewidywały prognozy. Ostatnia aktualizacja Pingwina tylko to potwierdziła, bo linki w 2017 r. w dalszym ciągu mają znaczenie.
W moim dzisiejszym artykule postaram się poruszyć kilka zagadnień, które być może pokryją się z tym, jak w 2017 roku będą ustalane wyniki wyszukiwania. Na bazie obserwacji tego, co obecnie ma duży wpływ na pozycje w wyszukiwarce wybrałem 3 obszary – machine learning, czynniki behawioralne oraz social media. Według mnie to właśnie te elementy w znaczny sposób będą wpływały na pozycje w 2017 roku.
Machine learning
Z pewnością jest to technologia, którą Google będzie mocno rozwijać w najbliższym czasie. Google w procesie uczenia maszynowego korzysta z czterech głównych obszarów, jakimi są: rozpoznawanie mowy, wyszukiwanie i język naturalny, tłumaczenie zdań i ich kształtów oraz podpisywanie obrazów[1].
Nowe recaptche zawierają różnego rodzaju obrazki. Ich rozwiązanie polega np. na zaznaczeniu wszystkich kafelek zawierających znaki drogowe. To proces uczenia maszynowego Google. Większość internautów nawet nie ma o tym pojęcia, tylko uważa to za zabezpieczenie przed robotami. Google tworzy sobie dzięki użytkownikom wzorce, na podstawie których będzie w stanie rozpoznawać zawartość obrazka np. czy są tam słodycze, owoce, domy, samochody itd. Możliwe, że w przyszłości zawartość obrazów na stronie stanie się czynnikiem rankingowym[2].
Język naturalny i wyzwania, jakie przed nim stoją to naprawdę skomplikowana sprawa szczególnie w takich narzeczach jak polski. Tworzenie modeli i kategoryzowanie poszczególnych słów w niektórych językach jest niezwykle trudne. Przykładem niech będzie słowo „zamek” – może ono oznaczać zamek z piasku, zamek do spodni, zamek jako budowlę, zamek do drzwi, zamek hokejowy itd. W jaki sposób maszyna jest w stanie wyłapać kontekst słowa w zdaniu „To jest zamek.”?
Wydaje mi się, że optymalizacja zawierająca semantyczny opis treści oraz kodu za pomocą np. mikroformatów, RDF’a czy innych technologii wykorzystywanych przy budowaniu sieci semantycznych będzie miała w przyszłości większe znaczenie przy ustalaniu wyników wyszukiwania. Rozbudowane sieci neuronowe wspierające wyszukiwanie semantyczne to przyszłość i początek web 3.0.
Google udostępniło swoje PredictionAPI[3], które umożliwia dopasowywanie wzorców i tworzenie opisów semantycznych. Kwestią czasu wydaje się, kiedy ta technologia zacznie działać na takim poziomie, że pomyłki będą niewielkie i będzie to istotny czynnik rankingowy.
Najbardziej interesujące jest jednak to, że machine learning może zostać wykorzystany zarówno przez wyznawców białego jak i czarnego kapelusza. Wszystko jak zwykle będzie zależało od pomysłowości oraz twardej technicznej wiedzy pozycjonerów.
Czynniki behawioralne
Zachowania użytkowników na stronie oraz bezpośrednio w wynikach wyszukiwania to jedne z czynników rankingowych Google. Wpływ CTR z wyników organicznych ma znaczenie na pozycję strony i wydaje mi się, że wartość tego parametru jeszcze się zwiększy w 2017 roku[4].
Czas internautów spędzany na stronie, sposób, w jaki wyszukują informacji, realizacja transakcji, trafność treści itd. – to wszystko czynniki, których wartość przy ustalaniu rankingu pozycji w wynikach wyszukiwania powinna wzrosnąć.
Zaangażowanie użytkowników w zależności od typu strony może być różne, bo sprzedażowy landingpage będzie naładowany treścią, grafiką, filmami, CTA itd., natomiast prosta firmowa strona zawierająca ofertę będzie zawierała opis i ewentualnie ceny usług. Wydaje mi się, że dzięki wcześniej opisanemu uczeniu maszynowemu będzie można zacząć rozróżniać typy stron. Mam nadzieję, że skończy się w końcu rankowanie stron na frazy, które w żadnym stopniu nie oddają tego, co zawierają.
Z połączenia uczenia maszynowego z czynnikami behawioralnymi można uzyskać bardzo dokładne, spersonalizowane wyniki wyszukiwania. Zalogowani użytkownicy już dawno zaobserwowali śledzące ich reklamy. Ciebie też prześladują oferty sklepów, które mijasz codziennie na odcinku z dworca do biura? Przypadek? Nie sądzę. Sądzę natomiast, że Google będzie w dalszym ciągu właśnie zmierzać w tym kierunku.
Media Społecznościowe
Media społecznościowe są bardzo ważnym kanałem, w którym dzielimy się ze znajomymi zdjęciami, informacjami, filmami itd. Największe serwisy społecznościowe, takie jak: Facebook, Twitter, Instagram, G+, LinkedIn, YouTube itd. posiadają ogromną liczbę stron w indeksie wyszukiwarki Google. Pomimo tego, że najczęściej linki prowadzące z tych serwisów mają parametr nofollow, to i tak mają znaczenie.
Dzielenie się wpisami z bloga na profilach blogera na Facebooku, G+, czy LinkedIn jest czymś powszechnym. Reakcja ludzi na tych platformach jest bardzo ważna. Jeżeli artykuł był mało popularny – zebrał mało polubień, udostępnień, komentarzy itd., to z punktu widzenia użytkowników wyszukiwarki nie jest on tak wartościowy jak artykuł, który odbił się w portalach społecznościowych szerokim echem.
Dzięki ocenie zachowania użytkowników w mediach społecznościowych wyszukiwarka może potraktować kontent jako wartościowy i umieścić wysoko w organicznych wynikach wyszukiwania.
Dodatkowo, z wykorzystaniem social media można odnieść inne korzyści, jak np. udostępnianie posta przez znajomych, dzięki czemu dociera on do szerszego grona odbiorców. Najczęściej przekłada się to na ruch na stronie oraz konwersje. Udostępnienie posta przez osobę, która jest rozpoznawalna jest jak trafienie 6 w Totolotka (pod względem ruchu)[5].
Podsumowanie
Wszystkie powyższe obszary są ze sobą ściśle powiązane, a uwzględnienie każdego z nich przy ustalaniu organicznych wyników wyszukiwania albo już się dzieje, albo będzie się działo w niedalekiej przyszłości. Uczenie maszynowe na pewno będzie miało duży wpływ na SERPy. Możliwe też, że strony z semantycznym opisem kodu będą traktowane przez Google preferencyjnie.
Czynniki behawioralne są niezbędnym elementem odpowiadającym za jakość wyników wyszukiwania. Użytkownik odnajdując to, czego szukał jest zaangażowany w zależności od tego, do jakiego typu materiałów chciał dotrzeć.
Rozpowszechnianie treści oraz informacji w mediach społecznościowych jest czymś, co już praktykujemy i co będziemy robić także w przyszłości. Angażowanie przyjaciół i znajomych w dystrybucję treści, budowanie zasięgu oraz rozpowszechnianie w dalszym ciągu będzie pierwszorzędnym narzędziem kolportażu kontentu. Ocena popularności treści powinna mieć znaczący wpływ na wyniki wyszukiwania.
Bez czynników behawioralnych pozostałe 2 obszary nie miałyby sensu, ponieważ najważniejszy jest użytkownik i to, co otrzymuje w wynikach wyszukiwania po wpisaniu swojego zapytania.
Nawiązując do wstępu, tak długo jak będziemy mieli do czynienia z wyszukiwarkami internetowymi, tak długo możemy mówić o tym, że SEO żyje i ma się całkiem dobrze. Jeżeli macie podobne przemyślenia lub z czymś nie do końca się zgadzacie, zapraszam do dyskusji w komentarzach.
Osiągaj wysokie pozycje w wyszukiwarce, które przełożą się na większą sprzedaż.
Źródła:
1. http://observer.com/2015/07/googles-ai-team-gave-us-the-lowdown-on-their-machine-learning-research/
2. https://developers.google.com/recaptcha/
3. https://cloud.google.com/prediction/docs/
4. https://moz.com/blog/does-organic-ctr-impact-seo-rankings-new-data
5. http://www.convinceandconvert.com/digital-marketing/do-social-signals-drive-seo/
Polecamy również: