SEO - niech cię zobaczą

Jeśli chcesz, by twoja firma była lepiej widoczna w sieci, musisz zadbać o wysoką pozycję strony internetowej w wyszukiwarce. Z artykułu dowiesz się, jak to zrobić.

SEO (ang. Search Engine Optimalization) to zbiór działań, mających na celu optymalizację treści oraz struktury strony internetowej pod kątem wyszukiwarek. Celem tych działań jest osiągnięcie przez witrynę jak najlepszego miejsca w wynikach wyszukiwania dla wybranego wyrażenia czy słowa kluczowego. Innymi słowy SEO to sztuka, która umożliwia wybicie się z natłoku witryn dostępnych w sieci.

Tyle definicja, jednak co to oznacza w praktyce? Weźmy przykładową firmę ABC. Jej właściciel, chcąc zoptymalizować stronę pod kątem wyszukiwarek (w szczególności wyszukiwarki Google, która obecnie cieszy się największą popularnością wśród internautów) powinien przestrzegać kilku podstawowych zasad. Siedem najważniejszych prezentujemy poniżej.

Słowa kluczowe, czyli co jest dla ciebie najważniejsze?

Pozycjonowanie witryny najlepiej zacząć od wyboru odpowiednich słów kluczowych. Biorąc jednak pod uwagę, że nasza strona już działa, dobrze jest skontrolować bieżące zestawienie zapytań, po jakich internauci trafiają na serwis. Istnieje kilka sposobów na realizację zadania. Warto zastanowić się jednak nad dwoma najprostszymi i najdokładniejszymi: sprawdzenie logów własnego serwera sieciowego oraz wykorzystanie Narzędzi dla Webmasterów firmy Google.

Zakładamy, że każdy przedsiębiorca zna odpowiedź na takie pytania: "jak najkrócej zdefiniować obszar działalności firmy?", "jakie produkty oferuję?" czy też "czego poszukują potencjalni klienci przedsiębiorstwa?" Aby skompletować odpowiedni zestaw wyrażeń, warto poszerzyć i zweryfikować docelową listę fraz o propozycje i informacje dostępne za pośrednictwem takich narzędzi jak Google AdWords czy Google Insights for Search.

Pierwsze z nich okaże się nieocenione przy sprawdzaniu konkurencyjności wybranej frazy. W dużym uproszczeniu, chodzi tu o liczbę innych firm pozycjonujących swoją witrynę pod podane słowo (lub słowa). Google Insight for Search to natomiast dość intuicyjne i darmowe narzędzie, pomocne przy sprawdzaniu popularności wyrażenia w konkretnym obszarze w ściśle określonym czasie (np. ostatnich sześciu miesięcy).

Przy weryfikacji listy słów kluczowych warto skorzystać także z tzw. strategii długiego ogona. Frazy należące do tej grupy mają bardzo wąskie znaczenie i składają się zwykle z kilku wyrazów. Przykładem może tu być "opony wymiana Gorzów Wielkopolski" dla firmy wulkanizacyjnej czy "podręczniki szkolne skup" dla przedsiębiorstwa zajmującego się handlem używanymi książkami. Stosowanie strategii długiego ogona wiąże się z kilkoma korzyściami. Po pierwsze, na bardziej konkretnych frazach istnieje znacznie mniejsza konkurencja i łatwiej wybić się w sieci. Ponadto, użytkownicy wpisujący rozbudowane wyrażenia są zwykle bardziej zdeterminowani do poszukiwania konkretnych wiadomości i istnieje znacznie większa szansa, że pozostaną na naszej witrynie po tym jak na nią trafią. Oczywiście należy pamiętać o bardziej standardowych i typowych frazach, jednak warto wziąć pod uwagę także wyżej opisaną strategię.

Czy twoja strona jest dobrze skonstruowana?

Po sporządzeniu i weryfikacji listy słów kluczowych należy przystąpić do bardziej konkretnych działań, które w bezpośredni sposób przełożą się na to, w jaki sposób wyszukiwarki postrzegać będą witrynę. Wybrane frazy powinny bowiem być obecne w odpowiednich miejscach na stronie: znacznikach <title> i <meta> oraz adresie URL.

Jednym z najważniejszych czynników warunkującym pozycję na liście rezultatów wyszukiwania jest parametr <title>. Wyszukiwarki internetowe zwykle wykorzystują treść zamieszczoną w ramach tego znacznika jako tytuł wyniku prezentowany internaucie. Innymi słowy, <title> jest skrótowym opisem tego, co znajduje się na danej witrynie.

Tekst zamieszczony w tym miejscu powinien być więc stosunkowo przejrzysty, zrozumiały oraz... pełen słów kluczowych (w granicach rozsądku). W ramach możliwości należy zadbać o to, by opis witryny był czytelny, bowiem bardzo często właśnie na jego podstawie użytkownicy będą podejmować decyzję o tym, czy dana witryna zawiera interesujące ich informacje, czy też nie.

Kolejna sprawa dotyczy znaczników <meta>, a dokładniej parametru "description", w którym mamy możliwość dodania opisu strony. Co prawda, wpisana tu treść nie jest zwykle widoczna na witrynie, jednak pojawia się w wynikach wyszukiwania zaraz pod tytułem. Przy konstrukcji opisu warto zwrócić uwagę na to, by składał się on po części ze słów kluczowych, jednak nie ma większego sensu wymienianie ich po przecinku. Należy pamiętać, że "description" tworzony jest z myślą o użytkowniku poszukującym informacji - ma więc prezentować się rzetelnie oraz jasno i klarownie dla przeciętnego internauty.

Kolejną sprawą są adresy stron WWW, w których obecność słów kluczowych także jest wskazana. Innymi słowy, jeśli na witrynie sprzedającej worki z cementem znajduje się katalog produktów to pojedyncza podstrona prezentująca dany towar powinna zawierać frazy go opisujące. Przykładem może tu być taka struktura odnośnika: www.sprzedajemycement.pl/katalog/cement_20kg_super_mocny.html, która jest znacznie lepsza od www.sprzedajemycement.pl/katalog/0123.html.

Jak tworzyć treść na stronie?

Odpowiedź na pytanie, jakie treści powinniśmy zamieszczać na naszej stronie WWW zależy w znacznej mierze od branży, w jakiej działamy. Jeśli prowadzimy bloga czy serwis informacyjny o polityce, wtedy miarą naszego sukcesu może okazać się odpowiedni dobór treści o krótkiej żywotności. Na ich produkcję zasadniczy wpływ będą miały aktualne trendy dotyczące popularności konkretnych słów kluczowych. Chcąc zwiększyć oglądalność naszego bloga w roku 2004 czy 2005, warto było poruszać tematy związane z Andrzejem Lepperem, dziś nie ma to już zbyt dużego sensu (kształtowanie się popularności tej frazy można w bardzo prosty sposób sprawdzić korzystając z narzędzia Google Insights for Search).

Jeśli jednak charakterystyka naszej strony jest nieco inna (np. pragniemy stworzyć witrynę, którą internauci traktować będą jako źródło wiedzy z zakresu fizjoterapii), to znacznie bardziej opłacalne jest przyciągnięcie ich przy pomocy tematów o względnie stałej popularności. Przykładem może tu być fraza "bóle pleców", która od 2007 roku może pochwalić się względnie stałym poziomem zainteresowania. Z dużym prawdopodobieństwem możemy także przypuszczać, że popularność tego wyrażenia nie spadnie z dnia na dzień. Trudno bowiem przypuszczać, by problem ten nagle przestał istnieć.

Innym czynnikiem związanym z zawartością strony, a wpływającym na pozycję naszej witryny w wynikach wyszukiwania, jest unikalność publikowanych treści. Co za tym idzie, tworząc własną stronę, powinniśmy dołożyć wszelkich starań, by zamieszczany tam tekst był niepowtarzalny. Złym pomysłem jest więc zbyt obszerne cytowanie definicji zawartych w jakiejkolwiek encyklopedii dostępnej w sieci czy też zamieszczanie na stronie sklepu internetowego opisu produktu dostarczonego przez producenta (ta sama treść może się bowiem pojawić też u konkurencji). Zamiast tego znacznie skuteczniej będzie poświęcić kilka minut na wygenerowanie własnego tekstu.

Odnośniki - jak tworzyć je skutecznie?

Liczba odnośników prowadzących do witryny świadczy o jakości oraz popularności strony WWW i ma wpływ na to, w jaki sposób jest ona postrzegana przez wyszukiwarki (duża liczba linków świadczy o wysokiej jakości serwisu). W praktyce jednak kwestia ta jest nieco bardziej skomplikowana, bowiem największą wartość mają odnośniki zamieszczane na stronach wysoko ocenianych. W przypadku Google czynnikiem decydującym jest Page Rank, wykorzystywany przez wyszukiwarkę ranking stron WWW, oceniający ich jakość po liczbie kierujących do nich odsyłaczy.

Innymi słowy, jeden odnośnik zamieszczony na stronie o PG równym 7 może przynieść znacznie lepsze korzyści niż dziesięć linków na nisko notowanych witrynach o PG wynoszącym 1. Dlatego właśnie tak ważną kwestią jest dbanie o jakość publikowanych na serwisie treści. Dobre merytorycznie teksty przyciągają czytelników i sprawiają, że częściej będą się oni powoływać na nasz serwis (zamieszczając u siebie linki zwrotne) jako na wartościowe źródło wiedzy.

Innym sposobem pozyskiwania odnośników jest wymiana linków z zaprzyjaźnionymi stronami bądź też ich kupowanie. W tym przypadku warto jednak dopilnować, by w miarę możliwości strony te były zbliżone tematycznie do twojej - odnośnik do witryny sklepu zoologicznego na blogu o polityce może bowiem zostać uznany przez wyszukiwarkę za spam.

Ostrożnie należy postępować także z kupowaniem odnośników. Zbyt szybki przyrost linków zewnętrznych także może prowadzić do efektu odwrotnego do zamierzonego. Gdy roboty wyszukiwarek jednego dnia odkryją 3 linki doprowadzające do jednego serwisu, a następnego będzie ich już 10 tysięcy to także mogą posądzić nas o nieuczciwe praktyki. Jedną z podstawowych zasad pozycjonowania witryny jest to, że proces ten wymaga czasu. Dotyczy to także tworzenia linków doprowadzających - ich przyrost musi wyglądać na naturalny.

Sporą rolę odgrywa także liczba oraz jakość linków wewnętrznych, czyli takich zamieszczanych na witrynie i prowadzących do innych podstron danego serwisu. Oprócz pozytywnego efektu w postaci bardziej pozytywnej ewaluacji przez wyszukiwarkę, ułatwiamy także internautom poruszanie się po stronie.

Swoją rolę odgrywa także tzw. anchor , czyli tekst, w który fizycznie możemy kliknąć na stronie. Najlepszym rozwiązaniem jest umieszczanie tu słów kluczowych charakterystycznych dla witryny, do której prowadzi odnośnik. W sposób oczywisty najłatwiej zadbać o to w przypadku linków wewnętrznych, jednak warto zwrócić uwagę także na odnośniki doprowadzające.

Plik robots.txt - podstawowy dokument dla strony WWW

Do uzyskania jak najwyższej pozycji witryny w wynikach wyszukiwania niezbędne jest prawidłowe skonstruowanie pliku robot.txt. Jest to jeden z podstawowych dokumentów obecnych na stronie internetowej, bowiem informuje roboty wyszukiwarek o tym, które treści wolno im przeglądać, a które nie.

W dużym skrócie: istnieje zestaw trzech komend, które właściciel strony WWW powinien sprawdzić, jeśli chce, by wszystkie pożądane dokumenty były odczytywane oraz katalogowane przez wyszukiwarki - User-agent (kieruje polecenie do konkretnego robota), Disallow (informuje o dokumentach, jakie nie mogą być przeglądane przez roboty) oraz Allow (informuje o dokumentach, jakie mogą być przeglądane przez roboty).

Plik robot.txt można samodzielnie dowolnie modyfikować w sposób identyczny, w jaki zmienia się dowolny tekst w aplikacji Notatnik. Dzięki temu użytkownik ma stałą kontrolę nad tym, które treści wyświetlane są w wynikach wyszukiwania, a które nie.

Zadbaj o dobrą mapę witryny

Dobrze skonstruowana mapa witryny jest ważna zarówno z punktu widzenia użytkowników, jak również robotów indeksujących. Tym pierwszym ułatwia ona szybkie przeglądanie zawartości strony, mogą ją bowiem oglądać w poszukiwaniu konkretnych fraz czy też odnośników.

W wypadku robotów indeksujących, dzięki dobrej mapie witryny, mogą one w prosty i szybki sposób uzyskać dostęp do wszystkich linków znajdujących się w serwisie. Nie oznacza to jednak, że brak site mapy negatywnie odbije się na pozycji strony w wynikach wyszukiwania. Poszczególne podstrony mogą być jednak dużo wolniej indeksowane. Tworząc odpowiednią mapę witryny jej właściciel zwiększa szansę, że podstrony zostaną znacznie szybciej zauważone przez roboty wyszukiwarek.

W jaki sposób stworzyć odpowiednią mapę strony? Najlepiej skorzystać z narzędzi, które automatycznie wygenerują odpowiedni dokument. Zwykle możliwe jest ustawienie częstotliwości, z jaką roboty wyszukiwarek mają odwiedzać serwis. Z darmowych aplikacji dostępnych w sieci warto polecić XML-Sitemaps czy też My Page Rank Site Map Generator. Dostępna jest także komercyjna, płatna alternatywa w postaci programu Site Map Pro.

Java i Flash - zalety i zagrożenia

Wielu właścicieli stron WWW przygotowuje bądź zleca przygotowanie serwisów atrakcyjnych wizualnie, wierząc, że zastosowanie technologii Flash czy JavaScript automatycznie zwróci uwagę większej liczby internautów.

Pierwszym zasadniczym problemem, z którym związane jest korzystanie z języka JavaScript czy też animacji Flash jest to, że wszystkie treści umieszczone w ramach ich kodów nie są indeksowane przez przeglądarki. Trzeba zwrócić szczególną uwagę na to, by tekst oraz odnośniki, które mają być odczytane (np. przez googlebota) znajdowały się poza znacznikami oznaczającymi skrypt.

Innym problemem związanym z korzystaniem z tzw. RIA (Rich Internet Aplications) jest ich wpływ na całkowitą objętość strony. Witryna z dużą liczbą animowanych obiektów Flash i skomplikowanych kodów JavaScript wolniej ładuje się w przeglądarce użytkownika. Tymczasem szybkość ładowania się serwisu jest jedną z ważniejszych cech, jakie wyszukiwarki biorą pod uwagę w ocenie jego atrakcyjności. To z kolei w bezpośredni sposób odbija się na miejscu w wynikach wyszukiwania.

SEO - czarna magia czy wiedza powszechna

Poznanie zasad SEO jest nieocenione, zwłaszcza z punktu widzenia przedsiębiorstwa - optymalizacja witryn internetowych pod kątem wyszukiwarek skutkować może większą ilością potencjalnych klientów, co w bezpośredni sposób przekłada się na wyniki finansowe. Pytanie o to, czy opłaca się inwestować pieniądze (i jak duże) w działania optymalizacyjne, pozostaje otwarte - zależy bowiem od indywidualnego przypadku każdej firmy i jej szczegółowego biznesplanu.

Artykuł pochodzi ze specjalnego dodatku "PC World - Zarabiaj w sieci". Pismo można jeszcze zamówić (wysyłka GRATIS!).


Zobacz również