SERP Quake

Mamy już amerykański MozCast oraz australijski Algoroo, nadszedł czas na polski SERP Quake. SERP Quake to narzędzie stworzone przez Performance Media, służące do śledzenia zmian w algorytmie wyszukiwarki i monitorowania ruchów w polskich wynikach wyszukiwania Google. Dzięki SERP Quake dowiemy się czy spadek naszych pozycji w wynikach wyszukiwania mógł być spowodowany zmianami w algorytmie Google. Narzędzie będzie cały czas rozwijane.

Ponadto, do naszej dyspozycji  oddano przyjazny dla oka widget, który możemy wstawić na swoją stronę.

Jak interpretować wskaźnik SERP Quake

0.0 – 4.5 – Odczuwalne lekko przez niektórych ludzi. Brak uszkodzeń budynków.
4.5 – 5.5 – Nie powoduje żadnych uszkodzeń lub powoduje uszkodzenia minimalne. Zauważalne ruchy obiektów wewnątrz pomieszczeń.
5.5 – 6.0 –Może spowodować uszkodzenia różnego stopnia względem budynków o słabszej konstrukcji. W większości przypadków brak uszkodzeń lub lekkie uszkodzenia innych budynków.
6.0 – 6.5 – Uszkodzenia umiarkowanej liczby konstrukcji. Konstrukcje odporne na trzęsienia ziemi lekko uszkodzone.
6.5 – 9.0 – Powoduje uszkodzenia większości budynków. Spore prawdopodobieństwo uszkodzenia dobrze zaprojektowanych konstrukcji.
9.1 -10 – Ogromne zniszczenia.

Interaktywna reklama w katalogu, cz. 17

Wymóg wykorzystywania doskonale rozumie każdy specjalista od marketingu sieciowego. Ilość umieszczanych tam informacji, w tym hiperłączy, pozwala na podwyższenie rangi pozycjonowanej strony. Jest ona coraz bardziej popularna, chętniej odwiedzana i rzecz jasna zaczyna coraz więcej zarabiać dla swego właściciela. Cały problem w tym, iż sekret katalog stron znają profesjonaliści, natomiast zwyczajni internauci wielokrotnie nawet nie wiedzą o ich istnieniu.
Czasami jednak trzeba poszukać w sieci, by zyskać kilka przydatnych informacji. Przykładem jednej z nich jest bez wątpienia to, do czego tudzież w jaki sposób wykorzystać katalog stron. Jeśli przeznaczysz nieco czasu na szukanie, to dowiesz się, że umieszczenie krótkiego komunikatu na temat Twojej witryny internetowej w dużej liczbie katalogów pozwoli znaleźć ją w czołówce na wykazach odpowiedzi wyszukiwarek. To jednak nie jedyna korzyść płynąca z opublikowania notatki o stronie w takiej bazie stron. Kolejną zaletą będzie zwiększenie ilości użytkowników. Dzięki temu, że dobre katalogi odwiedzane bywają przez tysiące internautów Twoja witryna ma wielkie szanse zainteresować niektórych z nich. Wyższa pozycja w Google i wzrost popularności serwisu to jak zapewne sam wiesz również podwyższenie zysków, które może on generować. Umieszczając w takiej bazie wirtualny sklep możesz liczyć na wielu nowych klientów. Jeżeli umieścisz tam blog wzrośnie z pewnością ilość gości, a tym samym dochody z reklam, które tam umieścisz. Katalogi to wspaniałe narzędzia promujące w sieci. Teraz ich zalety znają już nie tylko profesjonaliści, ale także Ty – skorzystaj z tego.

Opis pełny na stronie http://netbe.pl

Edytor plików .htaccess

Pod adresem htaccesseditor com można znaleźć ciekawy i przydatny edytor plików .htaccess – htaccess Editor. W zasadzie jest to generator lub kreator online tworzenia pliku .htaccess.

Dzięki edytorowi możemy stworzyć plik .htaccess z następującymi funkcjami:

  • autoryzacja, czyli hasło na katalog, o którym kiedyś pisałem
  • własne strony błędów 404 itd
  • określenie startowego dokumentu (DirectoryIndex)
  • ustawienie przekierowania na właściwy adres strony
  • przekierowania 301 i tymczasowe 302 dla podstron i katalogów
  • określenie praw dostępu (allow i deny) dla hostów i adresów IP

Plik .htaccess jest generowany na bieżąco w polu tekstowym. Na koniec wystarczy skopiować jego zawartość i nadpisać w pliku htaccess na serwerze.

Z WWW czy bez WWW? – Adres strony i .htaccess

Poniżej wyjaśnię dlaczego warto zrobić z adresów www.strona.pl i strona.pl jeden i ten sam adres strony. Wyjaśnię też jak to zrobić (za pomocą pliku .htaccess) :) Pewne strony działają tylko gdy do adresu dodamy przedrostek www, na przykład: Miasto Plusa. Inne mogą nie działać z przedrostkiem www. Jednak większość stron WWW działa zarówno z przedrostkiem www w adresie jak i bez niego.

Dlaczego jest to niekorzystne?

Wyszukiwarka Google (a dokładniej jej bot) widzi taką stronę jako dwie oddzielne strony. I co w tym złego? A no to, że jedną z nich potraktuje jako duplicate content, czyli kopię. Uzna, że jest bez wartości i będzie ona nisko w wynikach wyszukiwania.

Druga sprawa to samo pozycjonowanie. Stronę zawsze pozycjonujemy jako www.strona.pl lub zawsze jako strona.pl. Pozycjonowanie jednego i drugiego adresu naraz jest bez sensu :) Dlatego też jeśli chcemy pozycjonować adres strona.pl, sprawmy aby adres www.strona.pl był przekierowaniem na adres bez www.

Jak to zrobić?

Bardzo prosto :) Można użyć pliku .htaccess :) Jeśli przykładowo chcemy pozycjonować adres strona.pl to robimy tak:

RewriteEngine On
RewriteBase /
RewriteCond %{HTTP_HOST} ^www.strona.pl$
RewriteRule ^(.*)$ http://strona.pl/$1 [R=301,L]

Dwie ostatnie linijki tworzą przekierowanie 301 (Redirect Permanent) adresu z www na adres bez www. Jeżeli dla danej strony mamy inne reguły w pliku .htaccess, przedstawione linijki musimy umieścić powyżej pozostałych reguł!

Wielu pozycjonerów uważa, że strony zawierające przedrostek WWW zajmują lepsze pozycje w wynikach Google. Być może mają rację, choć myślę, że nie ma to większego znaczenia, a jeśli ma to tylko marginalne. Osobiście uważam, że przedrostek WWW odchodzi do historii i jest potrzebny jak piąte koło u wozu :)

Stare katalogi są w cenie

Wymóg korzystania z katalogów stron wyśmienicie rozumie każdy specjalista od marketingu sieciowego. Liczba zamieszczanych tam wiadomości, w tym hiperłączy, pozwala na podwyższenie rangi pozycjonowanej witryny. Jest ona coraz bardziej lubiana, chętniej odwiedzana i naturalnie zaczyna więcej zarabiać dla swego posiadacza. Cały kłopot w tym, że tajemnicę katalogów znają fachowcy, natomiast zwyczajni internauci wielokrotnie nawet nie mają pojęcia o ich istnieniu.
Czasem jednak trzeba poszukać w sieci, aby zdobyć kilka przydatnych informacji. Przykładem jednej z nich będzie z pewnością to, do czego oraz jak wykorzystać katalog stron. Jeśli poświęcisz trochę czasu na szukanie, to dowiesz się, że zamieszczenie krótkiego ogłoszenia na temat Twojej strony internetowej w dużej liczbie katalogów umożliwi znalezienie jej w czołówce na wykazach odpowiedzi wyszukiwarek. To jednakże nie jedyny profit płynący z opublikowania notatki o witrynie w w takim spisie stron. Następną zaletą będzie wzrost liczby użytkowników. Przez to, że dobre katalogi odwiedzane są przez tysiące użytkowników internetu Twoja witryna ma spore szanse zainteresować niektórych z nich. Wyższa pozycja w wyszukiwarkach i zwiększenie popularności serwisu to jak pewnie sam wiesz także podwyższenie przychodów, które powinien on generować. Umieszczając w takiej bazie sklep internetowy możesz liczyć na wielu nowych klientów. Jeżeli opublikujesz tam forum wzrośnie bez wątpienia ilość odwiedzających, a w związku z tym zyski z reklam, jakie tam umieścisz. Katalogi to wspaniałe narzędzia promujące w internecie. Teraz ich zalety znają już nie tylko fachowcy, ale również Ty – wykorzystaj tę wiedzę.

Reklama, moda czy głupota ?

Jeżeli pragniesz odnaleźć witrynę internetową zawierającą konkretne informacje, a wyszukiwarka Ci w tym nie pomaga, zajrzyj  do katalogu serwisów internetowych. Odnajdziesz tam tysiące różnego rodzaju witryn, które zaspokoją Twoje wymagania.
Jeśli np. szukasz przewodnika po Rzymie, wystarczy że wybierzesz katalog obejmujący kategorię Turystyka i z pewnością znajdziesz tam to, co chciałeś wiedzieć. Podobnie kiedy poszukujesz hydraulika odwiedź katalog firm, tam natomiast będą informacje o wielu warsztatach świadczących takie usługi. O ile nadal masz wątpliwości, to przypomnij sobie panoramę firm. Teraz to przeżytek, niemniej jednak zasada funkcjonowania katalogów jest zupełnie taka sama. Zawierają krótkie informacje o witrynie internetowej, wraz z linkiem do niej kierującym. Dzięki temu każdy użytkownik internetu może bez problemu znaleźć serwis o intrygującej go tematyce i za pomocą bezpośredniego linka odwiedzić ją. Jest to bardzo wygodny i nieskomplikowany sposób odnajdywania wiadomości.
Jeżeli dotychczas nie wiedziałeś o tym, że istnieją tego typu witryny, to prawdopodobnie straciłeś niejednokrotnie dużo czasu na odnajdywaniu informacji, a to jest czasami bardzo irytujące. Zatem od dzisiaj rozpocznij nowy rozdział swojego wirtualnego życia i szukanie interesujących Cię stron zaczynaj zawsze od dobrego katalogu. Sam przekonasz się jak wiele czasu w taki sposób można zaoszczędzić. Poza tym znajdziesz tam nie tylko strony z pierwszych pozycji w popularnych wyszukiwarkach, lecz również te mniej znane, co nie oznacza mniej ciekawe. Częstokroć bowiem nieduże witryny są doskonale i wnikliwie zredagowane przez fachowców, którzy jednakże nie posiadają własnego miejsca w popularnych wyszukiwarkach, ponieważ brak im pieniędzy na reklamę. Ty natomiast przy pomocy katalogów będziesz mógł poznać również takie witryny.

Google Pingwin 2.1 – analiza

Z reguły mało, kto dzielił się informacjami o tym jakie spadki czy wzrosty miał w wyniku kolejnej aktualizacji. Jednak sądząc po aktywności na forach dyskusyjnych i w sieciach społecznościowych, wielu zostało dotkniętych i to bardzo głęboko. Niestety wśród domen, z którymi pracuję również pojawiły się spadki. Postanowiłem dobrze się przyjrzeć wszystkim domenom i znaleźć wspólny mianownik dla spadków, wzrostów i stabilnych pozycji.

Aktualizacja algorytmu Google pod nazwą Pingwin w wersji 2.1 weszła w życie 4 października 2013. Niestety spadki o jakich mówił Matt Cutts w swoim tweecie na polskim rynku nie wynoszą 1%. Przyglądając się aktywnym domenom, z którymi współpracuję, jest to zdecydowanie więcej niż 1%. Zacznijmy od początku.

 

Wstęp do Aktualizacji Google Pingwin 2.1

Link jaki podał jest do pierwszej aktualizacji Pingwin, wprowadzonej w kwietniu 2012 roku. Niestety wiele osób nie zwróciło na to uwagi i cytowało, że dla polskiego języka jest to 5% zmian. Wierzcie mi, gdyby to było tylko 5% nie byłoby takiego lamentu. Dlatego ten dzień doczekał się już nazwy kodowej czerwona sobota. Na moje oko mamy do czynienia ze zmianą na poziomie 25%-35% monitorowanych i pozycjonowanych słów kluczowych. Przyjrzałem się 44 witrynom, którymi aktualnie się opiekuję. Mam 25 domen, których nic nie dotknęło, 13 domen, które świecą się na czerwono w całości (z dwoma wyjątkami) oraz 6 domen, które poszybowały do góry, a jedna z nich wróciła z niebytu.

Przyczyny spadków w ramach Google Pingwin 2.1

Dla każdej domeny / witryny z którą współpracuję prowadzę dziennik czynności jakie dla niej wykonałem. Dziś przejrzałem cały dziennik, aby znaleźć odpowiedź na pytanie co doprowadziło do tych spadków. Nie chwaląc się za bardzo, do tej pory nie miałem nigdy problemu z żadną aktualizacją algorytmiczną, wszystkie strony przechodziły je płynnie. Po analizie i zrobieniu kilku dodatkowych tabelek na papierze, okazuje się, że za Pingwina 2.1 nie jest odpowiedzialny jeden czynnik, a jest to kombinacja co najmniej 3 równocześnie obecnych „grzechów” w profilu linków prowadzących do strony:

  1. Brak lub niewielkie zróżnicowanie anchor tekstów w linkach.
  2. Duża liczba linków prowadzących do stron.
  3. Link z miejsc o słabej jakości lub brak zróżnicowania miejsc pochodzenia linków, np. tylko same SEOKatalogi lub linki z miejsc, które zostały oflagowane czy to w trakcie zwykłych działań Googlarki lub zassane z DisavowTool.

Dla każdej domeny, która zaliczyła spadek zachodziły powyższe warunki! Wspomnę jeszcze, że dla 11 domen poleciały wszystkie pozycje, natomiast w dwóch przypadkach na pozycjach zostały słowa najbardziej generyczne, ogólne, pasujące do danej domeny. Reszta wariancji i odmian poleciała. Ciekawe zjawisko, ale trudno wskazać mi teraz przyczynę tego.

Czynniki wzrostu lub stabilności podczas Pingwin Update 2.1

Patrząc z drugiej strony, 6 domen poszybowało prosto w niebo, a 25 nawet nie drgnęło. Co sprawiło, że domeny wzrosły lub nic im się nie stało? Nawet jeśli któraś z tych domen, cierpiała z powodu wcześniej wymienionych przyczyn, ale miała za to inne czynniki balansujące je na plus to słupki były zielone lub stabilne. Czynniki łagodzące wg mnie to:

  1. Duże zróżnicowanie słów kluczowych (4x-8x więcej niż liczba pozycjonowanych słów)
  2. Duże zróżnicowanie miejsc skąd pochodzi link: katalogi, fora, blogi, własne skrypty
  3. Mała liczba linków prowadzących do strony
  4. Strona prowadzona wyłącznie metodami White Hat
  5. Brak tworzenia nowych linków od zeszłego roku

Wnioski – co robić po Pingiwnie?

Wnioski są dedykowane dla klientów firm SEO, których strony ucierpiały podczas aktualizacji:

  1. To że strona ucierpiała, nie znaczy, że to wina firmy SEO. Do tej pory te działania wystarczały, jednak to Google zmienia warunki w czasie gry i każe czasem żółtą kartką a czasem czerwoną. Trzeba wtedy się dostosować do nowych warunków.
  2. Wygląda na to, że to koniec usług SEO w budżecie ok. 200zł – przy aktualnych oczekiwaniach Google, w tej kwocie nie da się pracować na rzecz danej strony i oczekiwać niesamowitych efektów. Wystarczy spojrzeć jakie są stawki w AdWords i policzyć sobie na ile kliknięć wystarcza kwota 200zł.
  3. Metody White Hat są w 100% skuteczne i bezpieczne, ale nieporównanie droższe do klasycznego Link Buildingu. Strony, dla których zastosowałem metody jak: content marketing, broken link bulding czy social media buzz są bezpieczne i stabilne.

 

SPAM oraz SEO ranking

Ponad 150 milionów aktywnych domen wykorzystuje usługi hostingu współdzielonego. Przyczyna jest prozaiczna. Ten rodzaj usług jest najmniej kosztowny i nie wymaga od użytkownika skomplikowanej wiedzy technicznej na temat administracji serwerem itp…, a funkcjonalność związana ze stroną nie odbiega od tych jakie oferują serwery dedykowane. Pomijamy tu rzecz jasna kwestie związane z wydajnością.

Korzystanie z hostingu współdzielonego to nic innego jak współdzielenie z innymi użytkownikami określonej przestrzeni na danym serwerze. To także współdzielenie adresu IP przy założeniu, że dany plan hostingowy nie oferuje prywatnego numeru. Skoro tak jest to przecież niektóre strony, które działają w ramach wspólnej przestrzeni na danym serwerze mogą uprawiać spam (świadomie lub nie), a jak wiadomo spam jest zły i może spowodować negatywne doświadczenia innych użytkowników sieci, którzy na taki spam trafią. Pojawia się jednak pytanie czy może mieć również negatywny wpływ na pozycjonowanie stron korzystających z danego serwera, np. z tego samego współdzielonego IP?

W jednym z ostatnich materiałów wideo na Google Webmaster Tools Matt Cutts omawia temat związany z tym czy właściciele stron korzystający z IP lub usług dostawcy, w którego sieci utrzymywane jest źródło spamu mają się czym martwić jeśli chodzi o negatywny wpływ na ranking ich stron w Google? Odpowiedź jest krótka: NIE.

Pierwsza strona internetowa

Internet to dziś jedno z podstawowych źródeł informacji. Znajdziemy tu praktycznie wszystko, od tekstów po multimedia, filmy, gry, audycje dźwiękowe i co tylko zechcemy.

Twórcy ścigają się w coraz to piękniejszych realizacjach, niekiedy bardzo rozbudowanych aplikacjach, które mimo tego potrafią być także funkcjonalne. Powstają duże systemy ecommerce, finansowe, bankowe, rządowe itd… których budżety liczone są w milionach dolarów. Tymczasem to wszystko od czegoś musiało się zacząć. Spójrzcie jak wyglądała pierwsza strona, która została opublikowana przez Tima Berners’a-Lee 6 sierpnia 1991 roku. Jej kod został napisany na komputerze , który był dziełem firmy założonej przez charyzmatycznego szefa Apple Steve’a Jobs’a w roku 1985.

Strone wciąż można zobaczyć w sieci pod adresem:

http://www.w3.org/History/19921103-hypertext/hypertext/WWW/TheProject.html

Elektroniczny papier od LG

Nowy wynalazek, według twórców ma wyznaczyć nowy kierunek przy tworzeniu tabletów i e-reader’ów. Ekran ma być 6 calowy, o rozdzielczości 1024 x 768 oraz z możliwością wygięcia do 40 stopni, grubości około  0,7 mm. Jak wynika z informacji, LG obecnie prowadzi badania na wytrzymałość produktu. Ani uderzenia, ani upadki nie robią żadnej zmiany mającej wpływ na jakość prezentowanego obrazu.

Pomysł z produkcją e-papieru ma dużą szansę zdobyć popularność. Oczywiście nie tylko LG chce zacząć produkcję elastycznych urządzeń elektronicznych także Samsung planuje wprowadzić do smartphone’ów elastyczne ekrany, które być może pojawią się w roku 2013.

Pomysł LG wydaje się ciekawym połączeniem gadżeciarstwa z funkcjonalnością. Jeszcze nie wiadomo jak realnie będzie wyglądał e-papier, ale wizja „żyjących” książek i czasopism znana chociażby z filmów o Harym Potterze może się wkrótce okazać całkiem realna.