Mulți operatori de site-uri web nu sunt stabiliți. Se pare că trebuie să aveți un fișier numit robots.txt. Ce este?
Windows + Linux / Engleză / Open Source. Dacă aveți o pagină de pornire, de obicei doriți să fiți găsit. Există o mare frustrare atunci când propria pagină nu apare pe Google. Acest lucru se poate datora fișierului robots.txt. Dar numai dacă este acolo. Acest fișier nu poate face decât un singur lucru: interzice.
În fișierul robots.txt, puteți interzice accesarea paginilor dvs. de programe automate care navighează pe internet non-stop. Puteți pronunța interdicția generală pentru toți acești roboți sau pentru unii. Puteți să vă blocați complet paginile sau numai anumite zone.
Dacă fișierul nu există, în consecință nu există interdicții. Paginile dvs. sunt deschise tuturor motoarelor de căutare. Dacă tot nu apareți pe Google, apare o întrebare complet diferită: v-ați înregistrat deja paginile? Cel mai bun lucru de făcut este să faci asta imediat. Pur și simplu introduceți adresa aici:
https://www.google.com/webmasters/tools/submit-url
Pentru a face acest lucru, trebuie să vă conectați la contul dvs. Google.
Pentru ca un fișier robots.txt lipsă să fie o problemă, serverul ar trebui, de asemenea, să fie configurat incorect. Apoi, un robot ar putea încerca să acceseze fișierul și să întâmpine mesaje de eroare neobișnuite, provocând întreruperea procesului. Dar acest caz este foarte puțin probabil.
Dacă doriți să creați un fișier robots.txt, salvați-l în folderul principal al serverului dvs. web. Dacă doriți să permiteți tuturor să facă totul, scrieți următoarele:
Agent utilizator: *
Nu permiteți:
Rândul „User-Agent” indică cui se aplică interdicția. * înseamnă: pentru toată lumea. Rândul „Disallow” exprimă interdicția. Dacă nu mai este nimic, înseamnă că sunt permise toate accesările.
Mai multe despre acest subiect:Cortină, aici vine site-ul dvs. web: Cum să creați un site web cu puțin efort