Az Állástérkép robotokat használ

Az állástérkép keresőrobot (crawler, spider) - hasonlóan pl. a Google-hoz - bejárja az weboldalakat, azokról információt nyer ki. A különbség csupán az, hogy az állástérkép keresőrobotja az álláshirdetési oldalakra specializálódott.

Nyilatkozat

Az állástérkép keresőrobot célja nem az állásportálok adatbázisának lemásolása, hanem a hirdetések meta-adatainak kinyerése. Ezután az egyedi algoritmus földrajzi pozíciókat, és ún. tag-eket rendel a hirdetésekhez.

Az állástérkép keresőrobot minden esetben betartja a felkeresett weboldalon a robots.txt-ben megadott utasításokat.

Az állástérkép keresőrobot másodpercenként egy lekérést küld, hogy ne terhelje túl a webszervereket. Amennyiben robots.txt-ben szerepel a Crawl-delay direktíva, a robot betartja azt.

Így zárható ki az állástérkép robot az Ön weboldaláról

Helyezze el a következő sorokat a robots.txt fájlban:

User-agent: jobmapbot
Disallow: /

Azonban javasoljuk, hogy ne zárja ki az állástérkép keresőrobotot weboldaláról. Az állástérkép kereső oldalként működik, akárcsak a Google, vagy - webshopok esetén - az árukereső weboldalak. A felhasználókat egyből az Ön weboldalára irányítja, a további tájékozódás és a jelentkezési folyamat már az Ön weboldalán történik. Az újfajta, térkép alapú megközelítés pedig segíti az álláskeresőket a közeli munkahelyek megtalálásában, ami mind a munkavállaló, mind a munkáltató előnyére válik.