it-swarm.it

Corretta configurazione di sitemap.xml

Ho un sito dinamico che ha molti (beh, meno di 50) utenti. A ogni utente è consentito creare tutte le pagine che desidera. So che esiste un limite al numero di pagine che puoi elencare in sitemap.xml e per ora sono sotto tale limite, ma vorrei sapere quale sia il modo migliore per consentire ai motori di ricerca di sapere (tutto?) le pagine dei miei utenti pur essendo ancora al di sotto di tale limite anche se ho più del limite.

11
Mike

Limiti Sitemap:

I file delle Sitemap hanno un limite di 50.000 URL e 10 megabyte per Sitemap. Le Sitemap possono essere compresse utilizzando gzip, riducendo il consumo di larghezza di banda. Sono supportati più file Sitemap, con un file indice Sitemap che funge da punto di ingresso per un totale di 1000 Sitemap.

Nota che puoi specificare più sitemap nel tuo file robots.txt :

Se stai entrando nella limitazione, forse dividi i tuoi utenti in qualche modo. Supponiamo che ognuno dei tuoi utenti non abbia più di 10.000 URL al pezzo, puoi suddividerlo in file e aggiungerlo al tuo file robots.txt:

Sitemap: http://www.example.com/sitemaps/users-001-005.xml
Sitemap: http://www.example.com/sitemaps/users-006-010.xml
Sitemap: http://www.example.com/sitemaps/users-011-015.xml
Sitemap: http://www.example.com/sitemaps/users-016-020.xml
Sitemap: http://www.example.com/sitemaps/users-021-025.xml
Sitemap: http://www.example.com/sitemaps/users-026-030.xml
Sitemap: http://www.example.com/sitemaps/users-031-035.xml
Sitemap: http://www.example.com/sitemaps/users-036-040.xml
Sitemap: http://www.example.com/sitemaps/users-041-045.xml
Sitemap: http://www.example.com/sitemaps/users-046-050.xml

Ora, dovresti comunque tenere presente il limite di 10 MB per ogni singola Sitemap, ma questo è un approccio per gestire il problema "troppi" URL.

Vedi i file CNN e Googlerobots.txt per vedere più sitemap in azione.

11
artlung