2. SEO
Con il termine ottimizzazione (Search
Engine Optimization, SEO, in inglese) si
intendono tutte quelle attività finalizzate ad
aumentare il volume di traffico che un sito
web riceve dai motori di ricerca. Tali
attività comprendono l'ottimizzazione sia
del codice sorgente della pagina, sia dei
contenuti. (wikipedia)
3. Directory
“In principio c'erano le directory”
Dmoz: è una web directory multilingue a
contenuto aperto di proprietà della Time
Warner e mantenuta da una comunità
virtuale di redattori volontari. Scopo della
directory è essenzialmente la raccolta e
indicizzazione di hyperlinks reperiti nel
WorldWideWeb.
Yahoo
Google
4. Motori di Ricerca
Con l'aumento dei siti
web non era possibile
censirli tutti, serviva
un modo per
rispondere
all'esigenza degli
utenti di trovare
velocemente la
risorsa adatta ai
propri bisogni
5. Motori di Ricerca
Un motore di ricerca (in
inglese search engine) è un Google
sistema automatico che
analizza un insieme di dati Yahoo
spesso da esso stesso
raccolti e restituisce un
Bing
indice dei contenuti Altavista
disponibili classificandoli in
base a formule statistico- Ask
matematiche che ne
indichino il grado di Virgilio
rilevanza data una
determinata chiave di
...
ricerca. (Wikipedia)
6. Spider, Crawler, Robot
Un crawler (detto anche
spider o robot), è un
software che analizza i
contenuti di una rete (o di
un database) in un modo
metodico e automatizzato,
in genere per conto di un
motore di ricerca. I crawler
solitamente acquisiscono
una copia testuale di tutti i
documenti visitati e le
inseriscono in un indice.
(Wikipedia)
7. SERP
Search engine results
page (abbreviata in
SERP) significa
"pagina dei risultati del
motore di ricerca". Ogni
qualvolta un utente
effettua una ricerca con
un motore, infatti,
ottiene come risposta
un elenco ordinato.
8. Parametri
I parametri che influenzano le serp sono molti, ma pssoiamo dividerli in due
categorie:
Fattori interni Fattori Esterni
On-page Off-Page
10. Da dove partiamo?
Prima di tutto pensiamo a chi si rivolge il
nostro sito, non ai motori di ricerca.
Il cliente prima di tutto
11. Utenti e Search engine
Come usano gli utenti i motori di ricerca?
http://shinynews.it/marketing/1107-chiavi-motori.shtml
“solo” il 42% delle ricerche è fatto con una
sola parola chiave.
Questo dato è in costante calo e google
suggest ha dato una grossa mano a tutto
ciò.
12. Perché no le chiavi singole?
Utente:
– Non trova quasi mai la risorsa che cerca
SEO:
– Utenza troppo vasta, quindi difficile da
accontentare
– Troppa concorrenza
13. Long Tail
La coda lunga è un concetto elaborato da Chris
Anderson nel 2004.
Invece che produrre un numero limitato di oggetti da
vendere a più persone possibile si tenta di produrre
per quelle persone disposte a comprare oggetti
meno conosciuti. Secondo Anderson questi individui
sono tanti da poter avere una massa critica molto
importante.
14. Long Tail [2]
Nel SEO ci si riferisce a
chiavi, di solito
composte da più
parole, che portano
poco traffico ma
spesso ci permettono
di soddisfare appieno
l'utente che ci trova.
18. Scelta del nome
La scelta del nome non è certo la scelta
più importante ma può essere d'aiuto
nell'indicizzazione.
•
Nome brand se già esistente offline
Se è un progetto nuovo invece:
•
Facile da ricordare
•
Attinente all'argomento del sito
•
Facilemente comprensibile
quando viene pronunciato
19. Estensioni
Le estensioni hanno
per i motori lo stesso
valore, ma se mi
riferisco al mercato
italiano avere
l'estensione .it
probabilmente sarà
vista meglio dai miei
utenti che avere
l'estensione .fr
20. Indicizzazione
I metodi usati dai motori di ricerca sono
principalmente questi:
– Spider
– Suggerisci URL
– Sitemap
– RSS
21. Sitemap
http://www.sitemaps.org/it/
Le Sitemap consentono ai webmaster di indicare ai motori di ricerca
le pagine dei loro siti disponibili per la scansione. Nella sua forma
più semplice, una Sitemap è un file XML contenente gli URL di un
sito insieme ai rispettivi metadati aggiuntivi (data dell'ultimo
aggiornamento, frequenza tipica delle modifiche, importanza
rispetto agli altri URL del sito) che consente ai motori di ricerca di
eseguire la scansione del sito in modo più efficiente.
In genere, i crawler web individuano le pagine dai link presenti sul
sito e da altri siti. Questi dati vengono aggiunti per consentire ai
crawler che supportano Sitemaps di selezionare tutti gli URL nella
Sitemap e di ottenere informazioni relative a tali URL tramite i
metadati associati. L'utilizzo del Protocollo Sitemap non garantisce
l'inclusione delle pagine web nei motori di ricerca, ma facilita il
processo di scansione del tuo sito da parte dei crawler web.
22. Rss e Ping
RSS (Really Simple Syndication) è uno dei più popolari
formati per la distribuzione di contenuti Web; è basato su
XML, da cui ha ereditato la semplicità, l'estensibilità e la
flessibilità. L'applicazione principale per cui è noto sono i
flussi RSS che permettono di essere aggiornati su nuovi
articoli o commenti pubblicati nei siti di interesse senza
doverli visitare manualmente uno a uno.
Il Ping corrisponde ad una notifica inviata, in modo
automatico o manuale, per avvertire chi è interessato
delle novità sul feed
23. Indicizzazione problemi
– Javascript
– Alcuni link flash
– Ajax, silverlight,
iframe
Tipi di file indicizzati
http://support.google.com/webmasters/bin/answer.py?hl=it&answer=35287
Flash e contenuti multimediali
http://support.google.com/webmasters/bin/answer.py?hl=it&answer=72746
Ajax
http://support.google.com/webmasters/bin/answer.py?hl=it&answer=174992
24. Robots.txt
Il file robots.txt contiene delle regole utilizzate dai crawler (detti
anche spider) per applicare restrizioni di analisi sulle pagine di un
sito internet.
I web crawler sono dei software automatici programmati per
effettuare ricerche ed indicizzazioni periodiche. Nella prima fase di
analisi di un sito web controllano l'esistenza del file robots.txt per
applicare eventuali restrizioni richieste dal webmaster del sito.
Il file robots.txt è stato creato nel giugno 1994 con il consenso dei
membri della robots mailing list (robots-request@nexor.co.uk).
In questo momento non esiste un vero e proprio standard per il
protocollo robots. (wikipedia)
User-agent: *
Disallow: /
25. robots.txt [2]
User-Agent
il valore di questo campo contiene il nome del robot che
si deve attenere alle restrizioni. Con il carattere * la
regola viene applicata a qualsiasi robot.
Disallow
il valore di questo campo contiene le pagine del sito che
devono essere escluse dai robot durante l'indicizzazione.
Si può indicare un URL specifico o una serie di URL
appartenenti ad un pattern.
Per ogni User-Agent è possibile specificare una o più
restrizioni tramite Disallow.
26. NoFollow
<a href=”sito.it” Nofollow è un valore
rel=”nofollow” assegnabile all'attributo rel
dell'oggetto HTML a per
indicare ai motori di ricerca
Nella bozza di HTML5 è che un Collegamento
ipertestuale non deve
stato aggiunto il l'attributo
influenzare la
rel con valore NoFollow classificazione della pagina
web del collegamento
nell'indice dei motori di
ricerca stessi. (wikipedia)