Experimentați ștergerea deliberată și harta site-ului pentru a crește în extrădare

Experimentați ștergerea deliberată și harta site-ului pentru a crește în extrădare
Majoritatea SEO-urilor utilizează metode demonstrate de promovare: optimizarea conținutului, optimizarea site-ului, achiziționarea de link-uri. Cu toate acestea, trebuie să înțelegem că motoarele de căutare cunosc perfect etapele de promovare, iar site-urile care utilizează aceste metode sunt foarte ușor de determinat, la fel ca și minium-ul. Încerc mereu să promovez site-uri în moduri care sunt departe de opiniile maselor, vreau să vă spun despre un astfel de experiment.

Cred că nimeni nu va argumenta cu următoarea mea declarație: dacă PS vede că site-ul nu funcționează SEO, atunci acesta va fi mai liberal în legătură cu acest site. Treptat, toata lumea ajunge la aceasta: incepe sa adauge o legatura naturala, sa cumpere link-uri bouncy, sa opreasca optimizarea continutului, etc. Ie am ajuns deja la punctul în care site-urile noastre par naturale în referință și conținut. Cu toate acestea, nimeni nu spună despre a treia pârghie - este optimizarea site-ului.

La un moment dat m-am întrebat: acum am un site web, conduce doar link-uri naturale, conținutul este cu adevărat pentru oamenii care ies în momente diferite ... Cum altfel pot căuta să învețe un sistem care cineva este „promovarea“ viața mea . Singurul lucru care rămâne - un miez interior bine optimizate a site-ului, și anume dreptul unui robots.txt, în cazul în care toate duplicatele sunt închise, un sitemap perfectă cu toate paginile, etc. Acest lucru este chiar logic, cum poate un site care presupune că nu se mișcă înainte să aibă roboți și sitemap? Oricum, cel puțin pe cineva, dar a arătat că unele de optimizare, iar PC-ul este deja conștient de faptul că bonusurile pentru a clasifica această resursă nu este necesar să se dea.

Deci, esența experimentului. aproximativ un an în urmă, am făcut această sugestie și a decis să-l verifica, a eliminat o pereche de site-uri și roboți vechi sitemap (site-uri au fost fără nici duplicate), și o pereche de tineri în mod deliberat nu a pus nimic.

A trecut un an și putem rezuma.

1) Una dintre resurse este site-ul englez al companiei în care lucrez CodingStaff. După cum puteți vedea, nu există nici unul, nici celălalt. În mod literal, după 1,5 luni de la ștergere, resursa a preluat toate pozițiile de top pe tastele principale. Din motive evidente, nu pot să arăt statul, dar puteți verifica principalele solicitări în dezvoltarea buzz-dotnetnuke, skin-uri dotnetnuke etc.

O altă opțiune de succes primit la o pornire, straluci nu vrea sa, precum și un foarte tânăr site-ul (în cazul în care pentru unele Research, Inc., scrie, expuse).

Eșantionul este scant, dar pentru că este și un experiment, și nu o afirmație. Dar ideea experimentului este eligibilă pentru discuție. Am decis sa nu adaug niciodata site-ul la addurilki, sa nu adaug roboti si sitemap in mod inutil (si aceasta este adesea necesara).

P.S. Prevăz deja deja întrebarea de ce am bloguri pe roboți. Voi răspunde: WP creează automat acest fișier și este prezent pentru toate site-urile de pe WP. Dimpotrivă, prin înlăturarea lui, aș fi aprins cumva. Da, și blogul este sooshny, deci am tot dreptul să închid toate inutile))

Dar de ce, totuși, de ce curățați site-urile html atât de bine în avans? Poate nu numai din cauza lipsei de cod inutil, dar și a absenței elementelor care indică promovarea resursei?