Fișier că închiderea de indexare Infobusiness pentru incepatori

fișier robots.txt joacă un rol important în indexarea site-ului dvs. de către motorul de căutare păianjeni. Principala sa misiune este de a închide din paginile de indexare duplicat de originale, proiecte și alte documente.

Cum de a crea un fișier robots.txt am revizuit aici. Care este robots.txt corect? Cum de a face roboți dreapta txt? Acest lucru este deosebit de important în formarea unui fișier robots.txt pentru WordPress. motor WordPress creează o mulțime de camere duble și moloz. Ce ar trebui să fie acoperite de indexare fișierul robots.txt?

Pentru a răspunde la această întrebare, să ne întoarcem la serviciul Yandex webmaster. Lucrul cu serviciul descris aici.

Nu sunt un domeniu profesionist de optimizare SEO. Cuvintele cheie și tag-uri pentru mine până acum sunt sinonime. Cuvinte cheie în conținut, eu folosesc foarte mult. Este de a înțelege esența materialului (a se vedea. Pagina de pornire) și pentru a facilita găsirea de informații relevante pe blog. Am înțeles că, în scopul de a muta sistemul de sus tag-ul de căutare ar trebui să fie mai mică de cuvinte cheie. Dar până acum acest lucru. Fără limită la perfecțiune.

Meu novice dragă. Nu ți-e frică acum să facă modificări în fișierul robots.txt. Acum știi cum să închidă de pagini indeksatsiidubli ale blogului. Dar, amintiți-vă, în cazul în care blog-ul a acumulat resturile (proiecte de înregistrări dvs., duplicate, etc.), ar trebui să fie eliminate. Pentru a face acest lucru, de asemenea, curățați în mod regulat baza datelor blog. Aceasta este ceea ce vom vorbi.