robots.txt este un fișier text folosit pentru a împiedica roboții (în special motoarele de căutare) să indexeze și să "ocolească" anumite părți ale site-ului dvs. Fără acest fișier, bot-urile vor putea să meargă liber în jurul site-ului dvs., lucru care nu este foarte bun.
Implicit, WordPress nu creează un fișier robots.txt, deci trebuie să-l creați singur și să-l configurați singur.
Sensul general de interzicere a accesului la anumite părți ale site-ului dvs. este de a concentra atenția roboților asupra conținutului important.
Ce se întâmplă dacă nu aveți un fișier robots.txt?
Pe scurt, totul va fi indexat.
Pentru WordPress, aceasta înseamnă următoarele:
Așa cum probabil ați ghicit deja, niciuna dintre cele de mai sus nu este un conținut relevant pentru SEO și poate chiar să vă dăuneze site-ului. Google permite doar o anumită cantitate de "gunoi de referință", deci este logic să se concentreze eforturile asupra conținutului și paginilor.
Cum pot controla indexarea site-ului meu?
Soluția este foarte simplă.
Copiați și lipiți următoarele:
Salvați fișierul. Dacă l-ați creat în afara serverului, pur și simplu încărcați-l în directorul rădăcină al site-ului. Acesta este același director ca și folderele wp-admin, wp-inclusive și wp-content.
Asta e tot. Acum veți observa că unele dintre legăturile site-ului vor cădea din căutare în câteva zile sau chiar săptămâni.
Dacă doriți să adăugați alte fișiere, trebuie doar să adăugați o regulă de genul:
Rețineți că depășim domeniul site-ului și adăugăm calea spre dosar începând cu slash-ul direct (/).