Robot Exclusion Standard: Forskelle mellem versioner
Content deleted Content added
Pugilist (diskussion | bidrag) {{wikify}} |
CarinaT (diskussion | bidrag) m wiki, iw, stub |
||
Linje 1:
'''Robot Exclusion Standard''', også kendt som '''Robots Exclusion Protocol''' eller '''robots.txt-protokol''', er et værktøj til at hindre [[søgerobot]]ter i at få adgang til hele eller en del af en [[hjemmeside]], som ellers er offentligt tilgængelig. Robotter bruges ofte af [[søgemaskine]]r til at kategorisere og arkivere hjemmesider eller af webmasters til at [[korrekturlæsning|korrekturlæse]] [[kildekode]]. Standarden er ikke relateret til, men kan bruges sammen med, [[sitemaps]], en inkluderende robotstandard for hjemmesider.
Robots.txt, er en file der bliver brugt af søge robotter, til at vise, til søge robotten hvad den skal/må bruge af data fra den aktuelle webside. Der er ikke nogen garanti for at søge robotten over holder brugen af Robots.txt, og dets indhold.▼
▲Robots.txt
==Eksterne henvisninger==
{{it-stub}}
[[en:Robots exclusion standard]]
▲<ref>http://www.robotstxt.org/</ref>
|