Titolo: Generazione automatica del file Robots.txt
Categoria: Codice |
|
Ultimo Aggiornamento: 13/01/09 |
In alcune faq precedenti (
Scrivere i robots per i siti dinamici in 4d 1,
Scrivere i robots per i siti dinamici in 4d 2 e
Scrivere i robots per i siti dinamici in 4d 3) avevamo descritto la metodologia di scrittura del metatag nello header per ovviare al problema della sessione inclusa nei link delle pagine dinamiche.
Con la nuova versione di sviluppo4d, adesso aggiornata in v11, quella strategia non è più necessaria.
Il metodo seguente si occupa della generazione dinamica del file "robots.txt" che viene richiamato dai motori di ricerca.
In questa forma essere facilmente modificato e aggiornato anche da programma.
Clicca
qui per vedere il risultato.
`metodo web_robots.txt
$eol:="\r\n"
$txt:=""
`per tutti i motori di ricerca
$txt:=$txt+"User-Agent: *"+$eol
`questi link non sono da seguire
$txt:=$txt+"Disallow: /Login"+$eol
$txt:=$txt+"Disallow: /User.new"+$eol
$txt:=$txt+"Disallow: /Comment.add"+$eol
$txt:=$txt+"Disallow: /Detail_FAQ_New"+$eol
`mentre tutto il resto si
$txt:=$txt+"Allow: /"+$eol
`e segnalo l'indirizzo della Sitemap
$txt:=$txt+"Sitemap: http://www.sviluppo4d.it/sitemap.xml"+$eol
SEND HTML TEXT($txt)
Inviato da: Umberto Migliore |
|
Visite: 13574 |
Se accedi con utente e password, puoi aggiungere dei commenti.