Pagina's uitsluiten voor zoekresultaten
Robbert
|
Geplaatst: Zaterdag, 17 December 2011 om 11:37:02
Een SEO vraag: Als er bepaalde, niet relevante, pagina's uitgesloten worden voor de googlebot, krijgen de andere pagina's op de site dan een hogere 'ranking' ? (ik noem het maar even ranking maar weet niet of die term goed is bij deze vraag). Zoals de algemene voorwaarden, disclaimer en privacy statement hoeven van mij niet geindexeerd te worden , dit is toch duplicate content :) en daar krijg je weer 'strafpunten' voor, toch? @Team Luondo Misschien kan het mogelijk worden dat wij zelf pagina's kunnen toevoegen aan de robot.txt op met de Disollow: regels ? Thanks! Gr. Robbert |
Geplaatst: Zaterdag, 17 December 2011 om 12:10:59
|
|
Geplaatst: Zaterdag, 17 December 2011 om 13:23:20
Aangepast op 17-12-2011 13:26 |
|
Geplaatst: Zondag, 18 December 2011 om 17:56:29
|
|
Geplaatst: Zaterdag, 17 Juni 2017 om 16:14:04
|
|
Geplaatst: Zaterdag, 17 Juni 2017 om 19:52:36
|
|
Geplaatst: Zondag, 18 Juni 2017 om 10:51:46
|
|
Geplaatst: Zondag, 18 Juni 2017 om 12:29:04
Aangepast op 20-6-2017 18:43 |
|
Geplaatst: Maandag, 19 Juni 2017 om 15:30:22
|
|
Geplaatst: Dinsdag, 20 Juni 2017 om 18:43:35
|
|
Geplaatst: Vrijdag, 21 Juli 2017 om 12:15:10
|