Sitemap XML a Robots.txt: Na čo slúžia a ako ich nastaviť

    28. júna 2025
    8 min čítania

    Sitemap XML: Mapa vášho webu pre vyhľadávače

    XML Sitemap je súbor, ktorý obsahuje zoznam všetkých dôležitých URL na vašom webe. Pomáha vyhľadávačom objaviť a pochopiť štruktúru vášho obsahu.

    Kedy potrebujete sitemap?

    Sitemap je dôležitá ak:

    • Máte veľký web (1000+ stránok)
    • Máte nový web s málo externými odkazmi
    • Máte dynamický obsah (e-shop, blog)
    • Máte stránky, ktoré nie sú dobre prelinkované
    • Používate rich media (video, obrázky)

    Sitemap nie je kritická ak:

    • Máte malý web (do 100 stránok)
    • Máte perfektnú internú štruktúru odkazov
    • Nepotrebujete indexovať všetky stránky

    Štruktúra XML Sitemap

    Základná sitemap obsahuje elementy urlset (koreňový element), url (jednotlivé stránky), loc (URL adresa), lastmod (dátum poslednej zmeny), changefreq (frekvencia zmien) a priority (priorita).

    Význam jednotlivých tagov:

    TagPovinnýPopis
    locÁnoAbsolútna URL stránky
    lastmodNieDátum poslednej zmeny (YYYY-MM-DD)
    changefreqNieFrekvencia zmien (daily, weekly, monthly)
    priorityNiePriorita 0.0-1.0 (relatívna v rámci webu)

    Poznámka: Google ignoruje changefreq a priority. Zameriavajte sa na presný lastmod.

    Typy sitemap

    1. Sitemap index (pre veľké weby)

    Ak máte viac ako 50,000 URL alebo sitemap presahuje 50MB, použite sitemap index – hlavný súbor odkazujúci na jednotlivé sitemapy.

    2. Image Sitemap

    Rozšírenie pre obrázky – obsahuje loc obrázka, title a caption. Pomáha Google Images indexovať vaše obrázky.

    3. Video Sitemap

    Pre video obsah – obsahuje thumbnail, title, description, content_loc a duration.

    4. News Sitemap (pre spravodajské weby)

    Špeciálny formát pre Google News s publication name, language, publication_date a title.

    Robots.txt: Kontrola crawlovania

    Robots.txt je textový súbor v koreňovom adresári, ktorý dáva inštrukcie crawlerom.

    Základná syntax:

    Súbor obsahuje direktívy User-agent (špecifikuje bota), Disallow (blokuje cestu), Allow (povoľuje v rámci Disallow) a Sitemap (odkaz na sitemap).

    Dôležité direktívy:

    DirektívaFunkciaPríklad
    User-agentŠpecifikuje botaUser-agent: Googlebot
    DisallowBlokuje cestuDisallow: /admin/
    AllowPovoľuje v rámci DisallowAllow: /admin/public/
    SitemapOdkaz na sitemapSitemap: https://...
    Crawl-delaySpomalenie (nie Google)Crawl-delay: 10

    Wildcards a špeciálne znaky:

    • Hviezdička (*) – akákoľvek sekvencia znakov
    • Dolár ($) – koniec URL

    Bežné chyby a ako sa im vyhnúť

    Chyba 1: Blokovanie CSS/JS

    Nikdy neblokujte CSS a JavaScript potrebné pre rendering stránky. Google potrebuje tieto súbory na správne zobrazenie obsahu.

    Chyba 2: Nesprávne wildcards

    Dávajte pozor na rozsah blokovania – Disallow: /produkty blokuje aj /produkty-akcia/.

    Chyba 3: Sitemap v nevhodnom formáte

    Sitemap URL musí byť absolútna (https://example.sk/sitemap.xml), nie relatívna.

    Chyba 4: Konfliktné signály

    Neblokujte v robots.txt stránky, ktoré chcete mať v sitemap.

    Testovanie v Google Search Console

    Ako testovať robots.txt:

    1. Prejdite do GSC → Settings → robots.txt
    2. Zadajte URL, ktorú chcete testovať
    3. Skontrolujte, či je povolená alebo blokovaná

    Ako submitnúť sitemap:

    1. GSC → Sitemaps
    2. Zadajte URL vašej sitemap
    3. Kliknite "Submit"
    4. Sledujte stav indexovania

    Dynamická sitemap generácia

    Pre WordPress použite Yoast SEO alebo Rank Math – sitemap je automaticky generovaná.

    Pre custom weby implementujte dynamickú generáciu sitemaps pomocou vášho frameworku alebo CMS.

    Best practices checklist

    Sitemap:

    • Obsahuje len indexovateľné stránky (200 status)
    • Neobsahuje stránky s noindex
    • Neobsahuje presmerované URL
    • lastmod je aktuálny a presný
    • Veľkosť pod 50MB, pod 50,000 URL
    • Validná XML štruktúra
    • Submitnutá v GSC

    Robots.txt:

    • Umiestnený v root domény
    • Neblokuje CSS/JS potrebné pre rendering
    • Obsahuje odkaz na sitemap
    • Pravidelne testovaný v GSC
    • Neblokuje dôležitý obsah omylom

    Záver

    Správne nastavená sitemap a robots.txt sú základom efektívneho crawlovania. Venujte im pozornosť, testujte v Search Console a pravidelne aktualizujte.

    Pre viac informácií o technickom SEO navštívte Technické SEO pre pokročilých.


    Máte problémy s indexovaním alebo technickým nastavením webu? Naša SEO nakopávačka obsahuje kompletný technický audit. Pre WordPress stránky ponúkame aj opravu WordPress.

    📚 Tento článok je súčasťou série Technické SEO pre pokročilých

    Chcete zlepšiť SEO vašej stránky?

    Ponúkame bezplatný SEO audit, ktorý vám ukáže presne, čo treba zlepšiť. Kontaktujte nás ešte dnes.