Cum va afecta acest clasament în căutare - ați ghicit. Pentru cei care nu au ghicit indiciu: impact foarte rău. Găsirea indicele unui număr mare de pagini duplicat, motorul de căutare va evalua calitatea site-ului ca o performanță foarte slabă, ceea ce va avea un impact inevitabil asupra poziției în căutare. Dar asta nu e tot. Motoarele de căutare nu trebuie să deșeuri spațiu pe disc pe nefinalizarea dumneavoastră ia, așa că va începe mai devreme sau mai târziu, să se spele baza acestui gunoi. Nu conta pe o abordare rezonabilă pentru curățare: motor de căutare - nu un om, ci o mașină de prost, el nu știe cum să gândească, să se gândească intuiție nu instruiți și nu este dat. Prin urmare, nu e de mirare dacă matura de la baza sa de date toate junk (inclusiv link-uri fără identificatori), și se lasă cele mai recente și mai relevante (ID-urile de linkuri culese în ultimul crawl site-ul). Sau arunca pagina fără un identificator, și identificatorul va pleca, pentru că Vasya Pupkin ia dat un link la blog-ul său, și pe pagina fără nici o referință nu este un identificator. Deci, este mai puțin important.
Butoanele Magic pentru toate ocaziile nu se întâmplă. Prin urmare, calea poate fi diferită în funcție de obiectivele pe care le-ați stabilit. De exemplu, pentru offline și magazin online pot fi soluții fundamental diferite.
Cel mai simplu mod de ieșire - de a interzice mecanismul de sesiuni „de identificare clare“, lăsând doar identificarea de către Cookie. De exemplu, forumul este construit SEO-bord. În PHP pentru o interdicție totală este suficientă pentru a modifica setările scriind în .htaccess aici este o vraja:
O metodă relativ nouă, este susținută de motoarele de căutare nu este atât de mult timp în urmă. Pus în aplicare în software-ul, în secțiunea
Paginile trebuie să pună în aplicare o canonizare etichetă:Aproape la fel ca și cu canonizarea. Dacă cererea clientului URI specificat cu ID-ul sesiunii în secțiunea
inserați meta roboți tag-ul cu interdicția de pagini indexate. De exemplu, ca aceasta:Sau cel puțin așa (nu este recomandat):
Ambele opțiuni de protecție cu etichete (canonizarea și roboți meta) au un dezavantaj evident: motorul de căutare pentru a „învățat“ că această pagină nu poate fi luată în index, acesta trebuie să-l ia în considerare mai întâi și să facă afară. Pentru că accesarea cu crawlere a paginilor roboți efectua imediat, dar în porții mici, în coadă de ordine, acesta distrage atenția bot pentru a scana și analiza de pagini inutile. Deci, pentru a primi în noul index mai târziu decât ne-ar dori; Primul bot va primi cele planificate anterior „duble.“