Robot Exclusion Standard: Forskelle mellem versioner

Content deleted Content added
{{wikify}}
m wiki, iw, stub
Linje 1:
'''Robot Exclusion Standard''', også kendt som '''Robots Exclusion Protocol''' eller '''robots.txt-protokol''', er et værktøj til at hindre [[søgerobot]]ter i at få adgang til hele eller en del af en [[hjemmeside]], som ellers er offentligt tilgængelig. Robotter bruges ofte af [[søgemaskine]]r til at kategorisere og arkivere hjemmesider eller af webmasters til at [[korrekturlæsning|korrekturlæse]] [[kildekode]]. Standarden er ikke relateret til, men kan bruges sammen med, [[sitemaps]], en inkluderende robotstandard for hjemmesider.
{{wikify}}
Robots.txt, er en file der bliver brugt af søge robotter, til at vise, til søge robotten hvad den skal/må bruge af data fra den aktuelle webside. Der er ikke nogen garanti for at søge robotten over holder brugen af Robots.txt, og dets indhold.
Brugen af Robots.txt er mest brugt som en udelukkelse mekanisme; udelukkelse filer på webside, som ikke skal katalogisetres , indexsetres osv. Mest brugt er nok, en Robots.txt file indholdende;
 
Robots.txt, er en filefil, der bliver brugt af søge robotter,søgerobotter til at vise, til søge robotten hvad den skal/må bruge af data fra den aktuelle websidehjemmeside. Der er ikke nogen garanti for, at søgesøgerobotten robotten over holderoverholder brugen af Robotsrobots.txt, og dets indhold.
User-agent: *
 
==Eksterne henvisninger==
Disallow: /cgi-bin/
<ref>*http://www.robotstxt.org/</ref>
 
{{it-stub}}
----
links:[http://www.robotstxt.org/]http://www.robotstxt.org/
 
[[en:Robots exclusion standard]]
 
----
 
<ref>http://www.robotstxt.org/</ref>
<references>{{http://www.robotstxt.org/}}<references/>