mercoledì 25 gennaio 2012

Lenti Buoni Propositi per il 2012

Come tutti i blogger vorrei scrivere un post sui buoni propositi del 2012 che intendo realizzare su mio bloghettino.. Sono in tempo vero? Siamo solo al 25 Gennaio, di solito questi post si scrivono prima dell'inizio del nuovo anno.
Eh ma che ci volete fare?

Non che i buoni propositi non ci siano, è che il tempo è veramente misero ed infame, e a volte anche la voglia di mettermi davanti al pc la sera a scrivere dopo aver passato una giornata davanti ai pixel, a volte non ci sta proprio..e ho anche appena compiuto 34 anni l 'età avanza.

Senza contare quel loop sonoro prodotto dal software moglie 2.0 che dice continua a far apparire un pop-up con scritto "sempre li davanti stai?".

Ecco come vedete faccio benissimo a staccare se devo avere queste allucinazioni :)

Ovviamente Google mi ha punito per questo, portando il mio PR da 3 a 1 e questo non perche i miei contenuti non siano totalmente originali o di qualità, ma sicuramente per la mia scarsa frequenza di aggiornamento e soprattutto per la totale mancanza di attività di link-building, dato che non ne vedo il motivo.

Comunque sia sarò di buoni propositi ce ne sono tanti ma ho voluto focalizzarmi su 3 attualemte:

1) Dedicare una Sezione Interamente al Panda e ai vari GooPla (spiegherò nel post che sto preparando di cosa sto parlando), con approfondimenti, suggerimenti, risultati di test SEO etc..

2) Aggiornare il Blog con 1  post a settimana a partire dalla prossima ovviamente (sembro uno di quelli si dicono da domani dieta)

3)Iniziare un progettino che ho in mente dedicato ai moltissi SEO Tools che girano su Internet, ovviamente tutto vi sarà svelato a tempo debito.

Mi sembrano 3 belle intenzioni che ne dite vada per 2 su 3? Ok ok proviamo tutte e 3.
Ora vi saluto e vi auguro in leggerissimo ritardo buon natale e buon ultimo anno (come specificano i Maya).
:)



giovedì 22 dicembre 2011

Pepsi Fun Spot 2011

La Pepsi ci suggerisce come riuscire ad ottenere un posto di lavoro dove ci sono molti candidati.
Enjoy it!


giovedì 24 novembre 2011

Intervista a Michele Caivano di Fortunecat

Voelvo segnalarvi una interessante intervista, fatta da Salvatore Capolupo e pubblicata sul suo blog, a Michele Caivano, creatore, fondatore del Seo Blog Fortunecat e della sua community, nonchè amico :)

Vari gli argomenti trattati nell'intervista dai motori di ricerca ai fattori Seo più recenti. Ecco il link diretto Intervista a Michele Caivano

Buona Lettura!

sabato 5 novembre 2011

Cloaking - Cosa sono i siti Cloak per Google

Un paio di giorni fa Matt Cutts, ha pubblicato questo video per spiegare quando un sito è considerato Cloak per Google.


 In sintesi per Google cloak significa mostrare contenuti differenti a seconda che ad accedere sul sito sia un utente umano, o il Google Bot.

Per esempio spiega Matt Cutts,  viene definito cloak un sito in grado di mostrare al crawler di Google contenuti riguardanti cartoni Disney e allo stesso tempo mostrare invece agli utenti dei contenuti per esempio porno.

Ovviamente questo non è accettato da Google in quanto il sito verrebbe indicizzato per cartoni Disney, ma mostrerebbe contenuti del tutto opposti.

Ovviamente chi usa questa tecnica Black Hat Seo, sa benissimo che se presi in flagrante questo comporta il ban del sito, peccato però Google non abbia nessun metodo, se non quello delle segnalazioni da parte degli utenti, o dei quality rater di bloccare questo fenomeno. Spiegherò poi quanto sia facile individuare un sito cloak.

Dopo questa prima definizione di cloak data da Matt Cutts, ovviamente la domanda nasce spontanea:
"Allora anche la geolocalizzazione (ovvero mostrare gli stessi contenuti ma tradotti per esempio in lingua inglese ai visitatori che arrivano usando indirizzo IP del Regno Unito) e la mobile detection (se il nostro sito identifica che l'user agent tramite cui si accede al nostro sito è quello di un Iphone, Safari per Iphone per esempio, è possibile fornire la versione del sito ottimizzato mobile, cellulari e smartphone) sono tecniche che Google considera come cloak?

La risposta di Matt Cutts è ovviamente No.
La Geo-location, fornire gli stessi contenuti in lingua diversa, è una cosa molto utile secondo Google, dato che facilità l´esperienza dell´utente che arriva da un altro paese.

La Mobile detection va benissimo dato che si cerca di migliorare la navigabilità dell'utente dato che un sito ottimizzato per smartphone è piu facile da vedere e navigare se si usa un cellulare.

In pratica la domanda che vi dovete porre secondo Matt Cutts è : State fornendo le stesse informazioni e lo stesso sito sia a GoogleBot che agli utenti? Se la risposta è si allora non vi dovete preoccupare.

Ora come è possibile identificare un sito cloak?
Lo stesso Google ci fornisce uno strumento che sì è fatto per un altro scopo, ma che in pratica smaschera velocemente. Dato che un sito cloak inganna Google è possibile tramite la Copia Cache del sito o l'Istant Preview che trovate nelle Serp di Google di verificare se un sito è cloak o no.

Chi é bravo nel cloak di solito acquista un sito autorevole per esempio di informatica magari di 2 o 3 anni fa, e fa mi in modo che per determinate parole chiavi il sito dia dei contenuti cloak mentre per tutte le ricerche riguardanti per esempio appunto l'informatica la visualizzazione rimane quella del vecchio sito.

Ovviamente é necessario inserire nel titolo della home page le parole chiavi per i contenuti cloak.(altro semplice modo per individuare un sito di questo tipo). Cosi facendo Google dato che il sito o blog è autorevole e con buoni link in ingresso, spinge in cima alla Serp il sito per le Kws inserite nel titolo della homepage.

Ovvio il webmaster inserisce inoltre dei contenuti specifici relativi alle parole chiavi cloak.

E se Google scopre tutto? Niente banna il sito, ma la strategia di chi usa il cloak è mordi e fuggi, in pratica dopo il ban un altro sito è già pronto per sostituire quello appena bannato e cosi via.
Si cerca di massimizzare quindi i profitti  per il tempo che il sito resta live finchè non viene segnalato, e se questo capita beh avanti un altro.

mercoledì 21 settembre 2011

Link Building - Cosa è cambiato con Panda?

 Sembra quasi morto questo blog,e  invece non lo è e dopo essermi sorbito le disgrazie politiche del mio ex paese, guardando Ballarò, ho messo in sottofondo SOS Tata in modo da trovare ausilio su come affrontare i nuovi comportamenti del mio nanetto che ormai ha 2 anni e mezzo.
Ora. dopo essermi trasferito da Stoccolma a Malta, aver trovato casa, asilo per mio figlio e tutto ciò che comporta un cambiamento del genere posso tornare a parlare di Seo.

In questo post vorrei riprendere un commento che fece Francesco su un post scritto piu di un anno che trattava la Link Building.
Cito il commento:

"e passato quasi un anno da tutti questi commenti, adesso con l'avvento di google panda sarei curioso di sapere se funzionano ancora le tecniche con xrumer, oppure mi sai dire qual è il limite dei link in entrata che si devono ricevere per non correre il rischio di eventuali penalizzazioni?"

Partiamo da Xrumer, uno dei tanti tools considerati "Black Hat Seo"  che in base a dei parametri settati dall'utente, scandagliano la rete, e principalmente blog, e inseriscono in modo automatico commenti e anchor text links diretti verso un determinato sito. La domanda sembra ovvia, funzionano? Se da una parte è vero che questi tools permettono di costruire links molto velocemente risparmiando molto tempo, da una parte continuo a sostenere che questi tools non sempre portano risultati, o riescono a portarli solo per un breve lasso di tempo.

Dopo aver testato alcuni di questi tools e vi assicuro che ce ne sono parecchi, posso affermare che:
- Se usati con moderazione, in mercati a bassa competitività si ottengono buoni risultati, ovviamente se mixati con altri tipi di links.
- Se usati senza controllo portano nei mercati a bassa competitività a buoni risultati che durano solo per un breve tempo e che addirittura possono portare ad una penalizzazione per la determinata KW usata.
- Usati invece nei mercati molto competitivi sia in modo moderato che non, i risultati non ci sono.

Al di là del fatto che la maggior parte dei links inseriti tramite l'uso di questi tools, abbiano come caratteristica l'attributo nofollow, che, e apro una parentesi non necessariamente viene preso in considerazione da Google anzi a volte viene proprio ignorato e chiudo la parentesi, rimane il fatto che per costruire una sana link profile del proprio sito sono necessari sia la quantità di links che la qualità.
Dal mio punto di vista do un peso maggiore a quelli di qualità. Sono estremamente convinto che un link di qualità valga più di 10 links di bassa qualità per quanto riguarda ovviamente il ranking di un sito.

La domanda sorge spontanea e il Panda con la link building?

Non ho mai aperto un post al Panda, e non perchè non me ne curo anzi sono invischiato ogni giorno con siti pandalizzati o con siti premiati dal Panda cercando di interpretare al meglio quello che Google non dice.
In più markettari e blog di ogni genere stanno usando Google Panda solo come link bait ed ad eccezioni di pochi quello che viene scritto è totalmente inutile.

Per rispondere alla domanda io farei un passo indietro, vi ricordate di Google Caffeine?  A mio avviso tra Panda e Caffeine non ci sta poi così tanta differenza, anzi direi che Panda è un po l'evoluzione di Caffeine dove:
- I parametri di Google Caffeine sono stati tenuti e "forse" migliorati
- Il filtro dedicato all'analisi dei contenuti, ovviamente a detta di Google, è stato notevolmente migliorato
- La naturalezza e la qualità della link profile  di un sito web vengono notevolmente premiate.(questo succedeva anche prima)

Lasciamo stare i contenuti, le dicerie sulle content farm, etcc..

Per la link building non è cambiato molto, forse le uniche cose a cui bisogna prestare un po' più di attenzione sono:

- che i siti che "ci linkano" non abbiamo contenuti duplicati (credo che ci sia una tolleranza di circa 80% originali 20% duplicati)
- non siano scraper sites,
- non siano MFA (Made for Adsense)

Ma ovviamente devono essere:

- naturali, (anche come implementazione)
- on topic (meglio se inseriti in un contesto inerente ai contenuti del nostro sito)
- di qualità, quindi siti  o blog autorevoli (on-topic è meglio)
- e anche di discreta quantità
- Vi ricordo che anche se in questo post ho parlato solo di backlinks, anche il linking interno è un fattore di ranking per Google.

Per concludere, vorrei rispondere a Francesco alla seconda parte della domanda e cito:
" mi sai dire qual è il limite dei link in entrata che si devono ricevere per non correre il rischio di eventuali penalizzazioni?"

La mia risposta è:
Dipende dal Mercato, e dalle Keywords che comporta tale mercato. Devi quindi effettuare una analisi sui competitors stabili nella Serp per farti una idea della quantità e della qualità.
Per non incappare in penalizzazioni automatiche,(dalle quali è possibile uscire in tempi che vanno da 1 mese a 3 mesi) non spammare, non usare sempre la stessa Keyword, non linkare solo la home page. Non ricevere una quantità di links non naturale( ovvero 10000 in un giorno).
Per non incappare in una penalizzazione manuale dei quality rater, (dalle quali è possibile uscire se in circa 3-6 mesi, se hai effettivamente dimostrato di aver sistemato quello per il quale "potresti" essere stato penalizzato e quindi che la tua reinclusion request sia effettivamente accettata) il mio consiglio è di non trasgedire le "chiarissime linee guida di google" e pregare che nessun quality rater inetto capiti sul tuo sito.