Na SEO poświęć dużo uwagi, czasu i cierpliwości

search engine optimization

O podstawach pozycjonowania stron w wyszukiwarce Google pisałem kilka lat temu w artykule Pozycjonowanie SEO. Od tamtej pory sporo się zmieniło zarówno w standardach stron Internetowych jak i w sposobie wyszukiwania stron w Google i nadawaniu im wysokich pozycji w wyszukiwarce. Warto opisać te zmiany i o czynnikach pozycjonujących. 

 

Nowsze narzędzia dla SEO od Google

analyticsDla mnie kiedyś jednym z najważniejszych narzędzi do monitoringu SEO były tzw. narzędzia dla webmastera od Google, ale już od dłuższego czasu to narzędzie nosi nazwę Google Search Console, i mimo że zasada działania pozostaje taka sama jak wcześniej do sprawdzania stanu indeksacji strony czy dodawaniu mapy witryny to jednak część funkcjonalności została przeniesiona do Google Analytics. Obecnie w Google Search Console można dodać nową witrynę do sprawdzania indeksowania i raportowania błędów o indeksacji stron i podstron. Informacje odnośnie popularnych słów wyszukiwania witryny, linków odsyłających do witryny możemy teraz znaleźć w Google Analytics i ma to właściwie sens ponieważ dane o ruchu na stronie można teraz śledzić w jednym miejscu. Informacje skąd użytkownik przywędrował na witrynę, jakiego słowa kluczowego użył i z jakiego urządzenia korzystał są teraz w jednym miejscu. Wcześniej te informacje były rozbite na dwa narzędzia Google Analytics i dawniejsze Narzędzia dla Webmastera. Aby jednak mieć wszystko w GA należy połączyć usługę GA z Google Search Console w panelu administracyjnym Google Analytics, po poprawnym połączeniu GA będzie pokazywać dane analityczne. Dla mnie to jest absolutny must have aby sprawdzać stan indeksowania strony w Google i sprawdzania słów kluczowych wyszukiwanych daną witrynę i jej podstrony. Na bazie zdobytych danych można dalej przeprowadzać pracę nad lepszą pozycją w Google np. na daną mniej popularną frazę.

 

searcher

 

Podstawowe czynniki pozycjonujące

Od dawna wiadomo, iż sama strona musi być odpowiednio zoptymalizowana pod SEO, wszystkie znaczniki HTML powinny być wypełnione odpowiednimi frazami. Należy odpowiednio używać nagłówki H1 i H2, obrazki i grafika dobrze podpisane i nazwane. Na podstawie tego jest grunt do dobrych pozycji w Google. Należy zadbać o unikatowy content czyli treść nie skopiowaną z innej strony ponieważ Google rozpozna podobną treść tekstu z innej starszej zaindeskowanej strony i od razu da witrynie niższy ranking gdyż jest na niej kopia tekstu. Własny niepowtarzalny tekst dający wartość użytkownikowi będzie miał lepszy ranking. Niektórzy specjalizują się w pisaniu tekstów pod SEO czyli używania słów kluczowych w tekście, ale trzeba rozsądnie rozmieszczać takie słowa aby nie przesycić tekstu gdyż Google uzna to za SPAM i mało wartościową treść. 

searchbotGoogleboty to tak zwane robaki wędrujące po Internecie i odwiedzające strony Internetowe, szczytują treść i oceniają ich słowa kluczowe oraz wartość treści dla użytkowników wyszukujących dane hasła. Robot indeksujący podąża za linkami tworząc sieć i mapę witryn, następnie tworzy indeks wszystkich stron i jeśli jest kilka tematycznie podobnych stron wyszukiwanych na tą samą frazę to na bazie swoich analityk każdej stronie nadaje oceny i odpowiednio wysoko ustawia daną stronę w pozycji indeksu. Dlatego ważne jest aby zadbać o to aby HTML pod SEO był dobry, treść na stronie miała wartościowe słowa kluczowe i dawała unikatową wartość dla Internauty, który wyszukuje w Google informacji. Im wyższa wartość dla danego użytkownika tym wyższa pozycja. Ogólnie warunki nadawania ocen dla witryn nie są nikomu znane i są tajemnicą Google aby nikt nie mógł manipulować w prosty sposób wynikami wyszukiwania. Googleboty są okresowo aktualizowane i co raz bardziej inteligentne i umieją ocenić treść strony A i strony B o podobnej tematyce. Wszystko po to aby wyszukiwarka dawała najlepsze wyniki wyszukiwania. 

Jednym z dawnych sposobów nadawania dobrego rankingu stronie było zdobycie dużo linków prowadzących do swojej strony przez co strona zyskiwała popularność w Internecie i dostawała punkty Page Rank od 1 do 10. Im wyższy Page Rank tym mocniejsza strona, im więcej punktów miała strona, na której mamy swój link prowadzący do naszej witryny tym wyższa moc, im starsza domena tym lepsza. Dzisiaj zdobywanie takich wartościowych linków jest równie ważne, ale już przestało mieć to główne znaczenie. Teraz wyszukiwarka Google bardziej dba o Internautów wyszukujących aby dawać wartościowe treści gdyż stare powyższe metody zostały zbytnio rozpracowane przez Webmasterów i moim zdaniem zrobił się śmietnik w Internecie. Jednak specjaliści zajmujący się SEO umieją przewidzieć zachowania wyszukiwarki i starają się unikalnie nadać dobry ranking dla witryny i pozycjonować na dane frazy.

 

Nowe wyznaczniki dla SEO

seo optymalizacjaChociaż nowe zasady panują już od dłuższego czasu to warto je wymienić jako nowe standardy w pozycjonowaniu stron Internetowych. Z danych statystycznych wynika, że blisko 80% użytkowników obecnie przegląda Internet na smartfonach dlatego responsywna strona Internetowa dopasowująca układ strony do urządzeń mobilnych to podstawa. Tak samo Google strony Internetowe nieprzyjazne urządzeniom mobilnym pozycjonuje niżej. Prędkość ładowania się strony Internetowej również ma znaczenie bo przecież ile razy irytuje nas to kiedy wchodzimy na jakąś stronę, która długo się ładuje i długo przełącza się między podstronami to nas zniechęca i statystycznie takie strony są zamykane i wyszukiwane inne. Szacuje się, że średni czas na zdobycie zaufania użytkownika to 3 sekundy, im dłuższy czas tym większa przepaść i witryna Internetowa traci w oczach odbiorcy. Wyszukiwarka Google pomyślała też o tym aby oceną do rankingu była szybkość ładowania się witryny. Dlatego strona Internetowa powinna być stale optymalizowana, skrypty powinny być wstawiane na końcu sekcji </body> aby opóźnić uruchamianie skryptów podczas pierwszej wizyty na stronie. Grafika na stronie zoptymalizowana aby pliki graficzne miały małą wagę gdyż one pobierają się z serwera strony Internetowej, im więcej megabajtów do pobrania tym strona dłużej będzie się ładować. Optymalizacja pod tym kątem ma duże znaczenie. Google zadbało również o bezpieczeństwo po przez szyfrowanie połączenia protokołów na stronach Internetowych. Certyfikat SSL na stronie Internetowej uruchamia protokół https:// czyli jest to strona bezpieczna i szyfrowana, żadne dane podawane w formularzach na stronie z SSL nie zostaną przechwycone przez osoby trzecie. Czyli wszystko co podajemy na takiej stornie jest bezpieczne. Strony z protokołem http:// bez certyfikatu SSL były narażone na przechwycenia podawanych danych na takich stronach. Dlatego kiedyś głownie banki i strony rządowe korzystały z takich zabezpieczeń. Protokół https:// chroni właściciela witryny i jej użytkowników, gdy widzimy zamkniętą kłódkę przy adresie strony i adres zaczyna się od https:// oznacza to, że połączenie jest bezpieczne. Od dłuższego czasu Google strony bez SSL zaczęło traktować jako niebezpieczne i dawała im niższy ranking w pozycji wyszukiwania. Dziś wszystkie przeglądarki Internetowe gdy wejdzie się na stronę bez certyfikatu SSL wyświetlają komunikat o niebezpiecznym połączeniu. Dlatego protokół https:// stał się standardem dla wszystkich stron Internetowych wymuszonym przez Google nawet dla takich gdzie nie podaje się żadnych danych w formularzach.

 

Dużo czasu, uwagi i cierpliwości

CierpliwośćJak widać dobre wypozycjonowanie strony Internetowej wymaga sporej wiedzy i śledzenia zachowania się wyszukiwarki, ciągłej analityki i monitorowania. Jak opisałem na wstępie trzeba wszystko dobrze podpiąć i zoptymalizować. Nowa strona Internetowa nie pojawia się w wyszukiwarce Google od razu, robot wyszukujący zaindeksuję ją po kilku dniach lub po kilku tygodniach. Dobry Webmaster po przez narzędzie Google Search Console zgłosi nową stronę do zaindeksowania co przyśpieszy proces indeksacji lub umiejętnie przekieruje ruch Google bota na swoją stronę. Wszystko nie dzieje się od razu dlatego czasem trzeba cierpliwości aby wszystko dobrze się zaindeksowało i pokazało w wyszukiwarce. Nawet jeśli strona jest zaindeksowana i nastąpią duże zmiany to są one w wyszukiwarce widoczne w późniejszym okresie aż robot indeksujący przeskanuje zedytowaną witrynę. Wszystkie powyższe podstawy powinny być wdrożone w witrynie Internetowej i okresowo monitorowany stan indeksowania.
Wszystkie czynniki pozycjonujące powinny być wprowadzane sukcesywnie, nie od razu ponieważ Google może uznać nasze działania jako złe i można otrzymać BAN i wylecieć z indeksu wyszukiwarki. Były takie przypadki w polskiej wyszukiwarce gdzie popularne witryny dostały bana i nie były dostępne przez dłuższy okres w wyszukiwarce Google.  Bana można było dostać np. za zdobycie dużej ilości linków prowadzących do naszej witryny w krótkim czasie. Google uznaje to za nienaturalny przyrost i banuje takie zachowanie. Dlatego rozważnie należy umieszczać adres prowadzący do swojej strony na innych witrynach. Poszczególne kroki należy wprowadzać małymi krokami wtedy można liczyć na dobre wyniki wśród konkurencyjnych fraz kluczowych. Pozostaje cierpliwość i uwaga.

 

W grafice a zwłaszcza DTP Adobe od wielu lat jest monopolistą a jego programy i formaty plików (zwłaszcza PDF) wyznaczają światowe standardy. I jak każdy monopolista, może sobie pozwolić na „nieco luźniejsze” podejście do jakości swoich produktów oraz oczekiwań użytkowników. Dlaczego? Bo może, jak niedawno stwierdził mój znajomy, który zresztą jest pracownikiem tej firmy.

Dodaj komentarz

Kod antyspamowy
Odśwież

Translator

plenfrdeitptrues

Facebook

Social Media

Strona używa plików cookies. Korzystając z witryny, zgadzasz się na ich stosowanie. Czytaj więcej