Technical SEO

In questo articolo parliamo di cos’è la Seo tecnica, usando termini semplici e cercando di spiegare in modo chiaro e semplice i concetti fondamentali.

La seo Tecnica è un ramo della SEO (Search Engine Otimization) che si occupa principalemente degli aspetti tecnici legati alla SEO. Parliamo di struttura delle pagine, ottimizzazione delle immagini, del testo, della UI / UX ovvero dell’interfaccia utente ed esperierienza utente, di codice, otimizzazione per dispositivi mobili, velocità di caricamento del sito e molto altro.

È un aspetto della SEO che spesso non è compreso o sottovalutato in quanto essendo tecnico può sembrare più complesso rispetto alla Seo On-page e Off-page. Però in una corretta strategia SEO è fondamentale tenere conto di tutte tre le tipologie di SEO.

La Seo tecnica rappresenta le fondamenta di tutta la strategia Seo. Se un sito web non è costruito correttamente e con contenuti ottimizzati per la SEO , gli altri aspetti non possono rendere al meglio. È come un Palazzo, dall esterno può essere bellissimo però se non è solido, rimarrà vuoto. Allo stesso modo curare la SEO on-page e off-page senza prestare attenzione alla Seo tecnica , porterà ad avere un sito che difficilmente sarà raggiungibile e indicizzabile dai crawler di Google.

I crawler

I crawler o Spider , sono dei “bot” quindi dei programmi che agiscono in autonomia che hanno lo scopo di “scorrere” tutti i siti internet presenti nel motore di ricerca. Questa operazione si chiama indicizzazione. Questi bot scannerizzano i siti internet e li analizzano, riportano tutti i dati in un Database che poi verrà usato da Google per proporre un sito internet specifico in base alla ricerca che viene eseguita da un utente.

Qui la seo tecnica si occupa di rendere facilmente indicizzabile il sito. Se i crawler fanno fatica a scorrere nel sito, si rischia che Google decida di non indicizzare il vostro sito e quindi non verrà preso in cosiderazione. Questo si traduce nell’ impossibilità di essere trovati “semplicemente” nei motori di ricerca.

Robots.txt e SiteMap.xml

Questi file sono importantissimi e devono trovarsi all’interno del vostro sito.Il primo (Robots.txt) è un file di testo che contiene tutti i percorsi che i crawler di google non devono scannerizzare / indicizzare, mentre il secondo è un file .xml che contiene la struttura del sito. Questo viene usato dai crawler di google per avere gia una mappa della struttura del sito. Vediamoli nel dettaglio.

Robots.txt

Come già detto sopra , contiene tutti i dati che vogliamo escludere dalla scannerizzazion dei crawler di Google. Questo perchè magari non tutte i dati sono otimizzati per la SEO. Per esempio se nel nostro sito sono presenti contenuti duplicati , pagine per gli amministratori , file di sistema / script . Questi file sono “superflui” per i Crawler. Per visualizzare il file robots.txt di un sito sarà sufficiente , aggiungere alla fine dell’url del sito /robots.txt

Ecco un esempio di file Robots.txt

SiteMap.xml

Questo file invece serve per dare una struttura che i crawler possono seguire.Contiene tutte le pagine del sito, si può generare con dei plugin installabili sul CMS (Content Management System), che partendo dalle pagine HTML del sito, creano il file xml.Per siti piccoli sarà sufficiente un solo file sitemap.xml invece per i siti più grandi si può optare per avere diversi sitemap.xml figli , collegati tutti ad un file padre. Questo per rendere più semplice e organizata la gestione dei file

Qui potete trovare i link per i vari articoli.

  • link1
  • link2
  • link3
  • link4


Commenti

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *