Sitemap XML a Robots.txt: Na čo slúžia a ako ich nastaviť

    Filip Adamovic(ADAMOVIC SEO)
    28. júna 2025
    8 min čítania

    Vypočuť článok

    Kliknite na play pre prehratie

    0% prečítané

    Sitemap XML: Mapa vášho webu pre vyhľadávače

    XML Sitemap je súbor, ktorý obsahuje zoznam všetkých dôležitých URL na vašom webe. Pomáha vyhľadávačom objaviť a pochopiť štruktúru vášho obsahu.

    Kedy potrebujete sitemap?

    Sitemap je dôležitá ak:

    • Máte veľký web (1000+ stránok)
    • Máte nový web s málo externými odkazmi
    • Máte dynamický obsah (e-shop, blog)
    • Máte stránky, ktoré nie sú dobre prelinkované
    • Používate rich media (video, obrázky)

    Sitemap nie je kritická ak:

    • Máte malý web (do 100 stránok)
    • Máte perfektnú internú štruktúru odkazov
    • Nepotrebujete indexovať všetky stránky

    Štruktúra XML Sitemap

    Základná sitemap obsahuje elementy urlset (koreňový element), url (jednotlivé stránky), loc (URL adresa), lastmod (dátum poslednej zmeny), changefreq (frekvencia zmien) a priority (priorita).

    Význam jednotlivých tagov:

    TagPovinnýPopis
    locÁnoAbsolútna URL stránky
    lastmodNieDátum poslednej zmeny (YYYY-MM-DD)
    changefreqNieFrekvencia zmien (daily, weekly, monthly)
    priorityNiePriorita 0.0-1.0 (relatívna v rámci webu)

    Poznámka: Google ignoruje changefreq a priority. Zameriavajte sa na presný lastmod.

    Typy sitemap

    1. Sitemap index (pre veľké weby)

    Ak máte viac ako 50,000 URL alebo sitemap presahuje 50MB, použite sitemap index – hlavný súbor odkazujúci na jednotlivé sitemapy.

    2. Image Sitemap

    Rozšírenie pre obrázky – obsahuje loc obrázka, title a caption. Pomáha Google Images indexovať vaše obrázky.

    3. Video Sitemap

    Pre video obsah – obsahuje thumbnail, title, description, content_loc a duration.

    4. News Sitemap (pre spravodajské weby)

    Špeciálny formát pre Google News s publication name, language, publication_date a title.

    Robots.txt: Kontrola crawlovania

    Robots.txt je textový súbor v koreňovom adresári, ktorý dáva inštrukcie crawlerom.

    Základná syntax:

    Súbor obsahuje direktívy User-agent (špecifikuje bota), Disallow (blokuje cestu), Allow (povoľuje v rámci Disallow) a Sitemap (odkaz na sitemap).

    Dôležité direktívy:

    DirektívaFunkciaPríklad
    User-agentŠpecifikuje botaUser-agent: Googlebot
    DisallowBlokuje cestuDisallow: /admin/
    AllowPovoľuje v rámci DisallowAllow: /admin/public/
    SitemapOdkaz na sitemapSitemap: https://...
    Crawl-delaySpomalenie (nie Google)Crawl-delay: 10

    Wildcards a špeciálne znaky:

    • Hviezdička (*) – akákoľvek sekvencia znakov
    • Dolár ($) – koniec URL

    Bežné chyby a ako sa im vyhnúť

    Chyba 1: Blokovanie CSS/JS

    Nikdy neblokujte CSS a JavaScript potrebné pre rendering stránky. Google potrebuje tieto súbory na správne zobrazenie obsahu.

    Chyba 2: Nesprávne wildcards

    Dávajte pozor na rozsah blokovania – Disallow: /produkty blokuje aj /produkty-akcia/.

    Chyba 3: Sitemap v nevhodnom formáte

    Sitemap URL musí byť absolútna (https://example.sk/sitemap.xml), nie relatívna.

    Chyba 4: Konfliktné signály

    Neblokujte v robots.txt stránky, ktoré chcete mať v sitemap.

    Testovanie v Google Search Console

    Ako testovať robots.txt:

    1. Prejdite do GSC → Settings → robots.txt
    2. Zadajte URL, ktorú chcete testovať
    3. Skontrolujte, či je povolená alebo blokovaná

    Ako submitnúť sitemap:

    1. GSC → Sitemaps
    2. Zadajte URL vašej sitemap
    3. Kliknite "Submit"
    4. Sledujte stav indexovania

    Dynamická sitemap generácia

    Pre WordPress použite Yoast SEO alebo Rank Math – sitemap je automaticky generovaná.

    Pre custom weby implementujte dynamickú generáciu sitemaps pomocou vášho frameworku alebo CMS.

    Best practices checklist

    Sitemap:

    • Obsahuje len indexovateľné stránky (200 status)
    • Neobsahuje stránky s noindex
    • Neobsahuje presmerované URL
    • lastmod je aktuálny a presný
    • Veľkosť pod 50MB, pod 50,000 URL
    • Validná XML štruktúra
    • Submitnutá v GSC

    Robots.txt:

    • Umiestnený v root domény
    • Neblokuje CSS/JS potrebné pre rendering
    • Obsahuje odkaz na sitemap
    • Pravidelne testovaný v GSC
    • Neblokuje dôležitý obsah omylom

    Záver

    Správne nastavená sitemap a robots.txt sú základom efektívneho crawlovania. Venujte im pozornosť, testujte v Search Console a pravidelne aktualizujte.

    Pre viac informácií o technickom SEO navštívte Technické SEO pre pokročilých.


    Máte problémy s indexovaním alebo technickým nastavením webu? Naša SEO nakopávačka obsahuje kompletný technický audit. Pre WordPress stránky ponúkame aj opravu WordPress.

    📚 Tento článok je súčasťou série Technické SEO pre pokročilých

    Chcete zlepšiť SEO vašej stránky?

    Ponúkame bezplatný SEO audit, ktorý vám ukáže presne, čo treba zlepšiť. Kontaktujte nás ešte dnes.

    Táto stránka používa cookies

    Používame nevyhnutné cookies pre fungovanie stránky a voliteľné analytické cookies (Google Analytics) na zlepšenie vášho zážitku. Analytické cookies sa aktivujú až po vašom súhlase. Viac informácií