Wydanie nr 5 Podstawy skutecznego linkowania wewnętrznego

Dobra strona internetowa powinna być dobrze zorganizowana, tak aby nawigacja wewnątrz niej była jak najprostsza i najbardziej intuicyjna. To w zasadzie truizm (chociaż niewątpliwie wart powtarzania).
Jednocześnie jednak powinieneś pamiętać, że od sposobu organizacji linkowania węwnątrz Twojego serwisu należą także rezultaty pozycjonowania. Szczegóły – w artykule. …czytaj więcej

Źródło: SeoKurier

Jak posprzątać duplicate content – Darmowe narzędzie do scrapowania SERPów

theavenue

Inspiracją do stworzenia poniższego skryptu była walka z duplicate content, który wkradł się do jednego ze sklepów naszego Klienta. Popularny sklep IAI-shop nie zadbał o to, aby po uruchomieniu oficjalnej wersji sklepu zablokować dostęp dla robotów i przekierować roboczy adres theavenue.iai-shop.com do oficjalnego adresu sklepu theavenue.pl.

Z tego powodu Googlebot zaindeksował obie wersje i wygląda to mniej więcej tak:

Wersja robocza ma nawet o 30 zaindeksowanych podstron więcej… Zatem na dzień dobry mamy pod górkę.

Nie muszę chyba nikomu tłumaczyć, dlaczego zduplikowana treść nie jest nam na rękę, co ciekawe problem nie dotyczy tylko naszego Klienta, ale wielu innych (zapewne w wielu przypadkach nieświadomych) Klientów tego sklepu internetowego – 1 440 000 wyników mówi samo za siebie:

Czas posprzątać ten bałagan. Zrobiliśmy przekierowanie z panelu administracyjnego, ale co dalej z wynikami wyszukiwania? Aby wymusić szybką zmianę adresów w indeksie postanowiliśmy spingować wszystkie zaindeksowane adresy zaczynające się od theavenue.iai-shop.com. W tym celu powstała potrzeba stworzenia skryptu, który zaciągałby listę wszystkich adresów URL wyświetlanych w SERPach na zapytanie site:theavenue.iai-shop.com, żeby później ‚zaprosić’ tam roboty indeksujące. Coś na zasadzie: ‚Hej robocie, jesteśmy już tylko pod jednym adresem, wyświetlaj nas prawidłowo’. Mogliśmy również pobrać mapę strony i podmienić nieaktualne adresy na nowe, ale za stworzeniem skryptu …czytaj więcej

Jak posprzątać duplicate content – Darmowe narzędzie do scrapowania SERPów

theavenue

Inspiracją do stworzenia poniższego skryptu była walka z duplicate content, który wkradł się do jednego ze sklepów naszego Klienta. Popularny sklep IAI-shop nie zadbał o to, aby po uruchomieniu oficjalnej wersji sklepu zablokować dostęp dla robotów i przekierować roboczy adres theavenue.iai-shop.com do oficjalnego adresu sklepu theavenue.pl.

Z tego powodu Googlebot zaindeksował obie wersje i wygląda to mniej więcej tak:

Wersja robocza ma nawet o 30 zaindeksowanych podstron więcej… Zatem na dzień dobry mamy pod górkę.

Nie muszę chyba nikomu tłumaczyć, dlaczego zduplikowana treść nie jest nam na rękę, co ciekawe problem nie dotyczy tylko naszego Klienta, ale wielu innych (zapewne w wielu przypadkach nieświadomych) Klientów tego sklepu internetowego – 1 440 000 wyników mówi samo za siebie:

Czas posprzątać ten bałagan. Zrobiliśmy przekierowanie z panelu administracyjnego, ale co dalej z wynikami wyszukiwania? Aby wymusić szybką zmianę adresów w indeksie postanowiliśmy spingować wszystkie zaindeksowane adresy zaczynające się od theavenue.iai-shop.com. W tym celu powstała potrzeba stworzenia skryptu, który zaciągałby listę wszystkich adresów URL wyświetlanych w SERPach na zapytanie site:theavenue.iai-shop.com, żeby później ‚zaprosić’ tam roboty indeksujące. Coś na zasadzie: ‚Hej robocie, jesteśmy już tylko pod jednym adresem, wyświetlaj nas prawidłowo’. Mogliśmy również pobrać mapę strony i podmienić nieaktualne adresy na nowe, ale za stworzeniem skryptu …czytaj więcej