Robot Exclusion Standard: Forskelle mellem versioner

Content deleted Content added
m flyttede MediaWiki-diskussion:Robots.txt til Robots.txt: ligner noget, der skal være en artikel
{{wikify}}
Linje 1:
{{wikify}}
Robots.txt, er en file der bliver brugt af søge robotter, til at vise, til søge robotten hvad den skal/må bruge af data fra den aktuelle webside. Der er ikke nogen garanti for at søge robotten over holder brugen af Robots.txt, og dets indhold.
Brugen af Robots.txt er mest brugt som en udelukkelse mekanisme; udelukkelse filer på webside, som ikke skal katalogisetres , indexsetres osv. Mest brugt er nok, en Robots.txt file indholdende;