martedì 26 giugno 2012

Google Panda Update 3.8

Ennesimo update del filtro Panda, il 25 Giugno è stato rilasciato il 3.8.

Questo aggiornamento riguarda l'1% delle query a livello mondiale.

L'ultimo update, il Google Panda 3.7, risale all´8 Giugno, l'unica stranezza e che appunto questo aggiornamento arriva appena 2 settimane dopo il precedente.

Google ha inoltre confermato che non ci sono state modifiche all'algoritmo o ai ranking signals.

Questi update impiegano massimo 24 ore per aggiornate tutti i data center quindi meglio iniziare a controllare eventuali cambiamenti di ranking e traffico tra stasera e domani

lunedì 18 giugno 2012

Seo Update per Giugno 2012. Penguin 1.2? Non Ancora

Purtroppo questo mese non ho trovato molto tempo per scrivere sul blog, ma non perchè non sia successo nulla anzi avevo raccolto anche buon materiale, ma purtroppo il lavoro mi ha portato via la maggior parte del tempo e quindi con questo post vorrei elencare le principali novità fin ora avvenute in ambio SEO e non nella prima metà di questo mese.


5 Giugno 2012: Matt Cutts intervistato da Danny Sullivan(Search Engine Land Editor-In-Chief)al convegno SEO SMX Advanced di Seattle, conferma che ogni qualvolta che si riceve un messaggio di warning sul proprio account di Google web Master Tool, significa che Google ha intrapreso una azione di penalizzazione manuale nei confronti del vostro sito.

Matt Cutts ha inoltre affermato che sono in questo caso si puo parlare di penalizzazione e che se essere colpiti da Penguin invece non lo è.

La mia opinione in questo caso è che esistono interventi algoritmici e manuali e quindi esistono anche penalizzazioni automatiche. Certo uscire da quelle automatiche è molto più facile rispetto a quelle manuali.

Matt Cutts ha inoltre confermato tra le linee che ancora i Social non sono un fattore diretto di ranking, e che potrebbero diventarlo un giorno, e ha inoltre accennato al fatto di una possibile integrazione dentro Google Web Master tool di uno strumento per segnalare a Google i links da non seguire e valutare

Trovate la trascrizione in inglese dell´intervista qui.

6 Giugno: Lanciato a livello mondiale il nuovo protocollo IPv6 per indirizzi IP. Guardate questo video per farvi una idea di cosa sia

Se volete approfondire cosa significa questo lancio a livello SEO vi rimando a questo articolo

8 Giugno: Google Penguin Update 3.7 cha ha interessato 1% delle query negli Stati Uniti e l'1% nel resto del mondo.

Settimo refresh per Panda ed ovviamente come detto in precedenza anche questo update è da aspettarsi una volta al mese.

Nonostante a mio avviso Penguin sia molto più dannoso come update e sempre bene tenerlo sotto controllo e verificare se ci sono state modifiche rispetto all'update precedente

12-13-14-15 Giugno: Ho notato però questo week end moltissimi movimenti nelle Serp di Google, e a quanto pare indagando oggi non sono stato il solo a notarle.

Sarà già arrivato il Penguin 1.2?

Per ora niente di ufficiale, ma sembra che io non sia stato l'unico a notarle. Vi tengo aggiornati non appena ne so qualcosa di più.

Aggiornamento: molti hanno notato movimenti ma Google ha affermato che non è stato rilasciato nessun update or Penguin 1.2, ecco l'articolo in merito

lunedì 28 maggio 2012

Google Penguin Nuovo Update 1.1

Lo scorso Venerdì 25 Maggio, esattamente un mese dopo il primo Google Penguin, è stato rilasciato il nuovo update Penguin 1.1 . Come  specificato nel precedente post , esattamente come Google Panda, questo filtro verrà aggiornato e fatto girare da Google almeno una volta al mese.

Attualmente altri siti sono scomparsi, ma altri sono anche ritornati. Questo anche grazie al form che Google aveva messo a disposizione dopo il primo rilascio che permetteva a chi fosse stato penalizzato di richiedere una ulteriore verifica da parte di Google.

Riguardo a questo form, quello che non è stato detto ufficialmente è che le richieste di verifica, le lamentele dei SEO o dei web master non sono state controllate manualmente. Semplicemente sono ricontrollate nuovamente in maniera automatica da Google Penguin, aggiornato e migliorato.

Ancora non ho notato cosa è stato migliorato o modificato rispetto al primo Google Penguin Update, ma se avete notato anche altro vi invito, se avete voglia, a commentare per iniziare una discussione a riguardo :)

29/05/2012 Aggiornamento: Matt Cutts ha affermato che il Penguin Update 1.1 ha impattato solo lo 0,1% delle ricerche quindi non aspettatevi gran che. Pero una lieta notizia è che è possibile uscire da tale penalizzazione. Vi consiglio di leggere questo post giusto per farvi una idea e per capire come WPMU.org sia riuscito ad uscire da Google Penguin.

martedì 22 maggio 2012

Google Penguin: Cosa è e chi Penalizza

Non c'è che dire Google Penguin, l'ultimo update rilasciamo da Big G. ha colpito notevolmente numerosissimi siti online, quindi da parte di Google questo è stato un vero e proprio successo dato che tale filtro si prefiggeva non di migliorare le serp, o almeno questo dovrebbe essere un effetto secondario, ma aveva come obbiettivo proprio quello di colpire lo spam.

Proprio come il Panda quindi anche il Penguin è un filtro che sarà soggetto ad update e che verrà quasi sicuramente fatto girare mensilmente, per continuare a pulire ed evitare che il problema rinasca.

Il fatto che Google abbia per la prima volta fornito un form dove "segnalare eventuali penalizzazioni ingiuste" ci suggerisce proprio che Google Penguin deve essere ancora migliorato e che sicuramente una volta fatto ciò farà tremare ancora una volta noi SEO.

Certo, la parola "spam" usata da Google risulta un pò forte per chi magari sta leggendo questo post ed è stato penalizzato, ma con questo termine Google non intende un over utilizzo (quindi spam) delle tecniche SEO sopratutto dal punto di vista della link building.

 Se il Panda aveva preso di mira il contenuto e altri elementi, il Penguin invece punta il dito contro:

1) la Link over-optimization soprattutto contro quelli ad "exact anchor text" dette anche le "money Keywords" (esempio avete un hotel a Parma e avete sempre linkato il vostro sito con hotel parma o hotel a Parma)

2) Network e siti nicchia creati ad hoc solo per migliorare il proprio posizionamento dico io, o manipolare il Page Rank dice Google.
Nella tabella sottostanti (fonte: www.micrositemasters.com) è possibile vedere in base a quale percentuale di inbound links (link in entrata) con esatta anchor text, i siti sono stati penalizzati o meno.

Percentuale di Anchor Text usata nei backlinks dei Siti Penalizzati



E´molto facile notare che i siti che presentavano più del 60% del totale degli incoming links sotto forma di exact Keyword sono stati penalizzati.

 Ovviamente stare sotto il 60% non vi garantisce l'immunità da Google Penguin, questi dati sono della prima release e quindi ci potrebbero comunque essere degli errori nel filtro di Google, ma secondo me se la percentuale delle money Keyword oscilla tra il 40% e il 45% il Penguin non dovrebbe penalizzarvi.

Ovviamente tengo a precisare che tutto il sito deve avere un link profile estremamente naturale e con essa la vostra strategia di link building e ovviamente seguire le cosi tanto note e chiare Google Guidelines.

 Il problema ora è come uscire da Google Penguin?

 Matt Cutts sostiene che se siete stati penalizzati da Google Penguin vi conviene direttamente creare un nuovo sito e ricominciare da capo, certo del resto come potreste aggiustare il vostro link profile dopo magari 10 anni di links in questo modo?

Ma se siete stati buoni SEO e lungimiranti sicuramente avete solo esagerato un po`con le keywords e allora il mio consiglio è quello di provare a diversificare maggiormente le anchor text dei vostri links in modo da abbassare la percentuale dei links con exact keyword. Ci vorrà tempo magari ma almeno non perderete tutto il lavoro fatto fin ora.

venerdì 27 aprile 2012

Penalizzati da Google Penguin? Ecco cosa fare

Se pensate di essere stati penalizzati per sbaglio dal nuovo Update di Google Penguin, perchè non siete siti Spam e vi ritenete innocenti, Google ha allestito un form apposito per richiedere la revisione del vostro sito e la rimozione della penalizzazione.

Lo trovate qui

Se invece volete segnalare dei siti spam potete farlo tramite l'apposito form presente dentro il Google Web Master Tool

giovedì 26 aprile 2012

Panda 3.6 e Google Penguin

Non c'è che dire Google continua a rilasciare update sempre più spesso.

Ma questa volta nel pacchetto Panda Update 3.5, è stato anche incluso il Google Over Optimization Filter(detto anche Web Spam Algotithm e ora Pinguino) il tanto temuto dai SEO?
Si e No.
.
Aggiornamento 27/o4/2012 "Aggiungo in ritardo questa parte perchè finalmente è stata fatto un po´di chiarezza, Panda 3.5 è stato rilasciato il 19 Aprile, mentre il Penguin Updated (Web Spam Algo) pochi giorni dopo, tra il 23 3 il 24 Aprile. Il che rende la cosa complicata per chi è stato colpito. Non sara facile capire se il drop sia dovuto al refresh del Panda o al Pinguino,"

Matt Cutts ha affermato che è il target è lo spam e che la definizione di over-optimization non era la migliore descrizione data a tale update annunciato tempo fa, ma allo stesso tempo spam aggiungo io è anche over-optimization.

Cito Matt Cutts che dice infatti:

"I think ‘over-optimization’ wasn’t the best description, because it blurred the distinction between white hat SEO and webspam. This change is targeted at webspam, not SEO, and we tried to make that fact more clear in the blog post.

Ecco il post sul blog ufficiale di Google dedicato a questo update..che come al solito da una spiegazione velata della cosa.

Rimane il fatto che negli ultimi 2 giorni infatti sul Google Web Master Forum e non solo, le lamentele di drop si sono sprecate anche se Google ha affermato che questo nuovo update ha colpito solo il 3% dei risultati.

Ora è da mettere in chiaro che Google non sta combattendo i SEO o per lo meno non il White Hat Seo, ma sta ripulendo le SERPs da chi ha spesso abusato di tali tecniche di ottimizzazione, o chi ha spesso utilizzato tecniche Black Hat Seo che purtroppo ancora fino ad oggi hanno spesso influenzato i risultati.

 Una delle cose che non ho mai gradito è sempre stato vedere Google premiare, chi abusava di SEO o chi campava esclusivamente con tecniche Black Hat SEO. Per esempio, anche se questo sito è in svedese, non vi sarà difficile  individuare se ci sta un abuso di Keyword.

Ho spesso criticato Google e i suoi update, e non smetterò di certo ora, ma ho sempre criticato soprattutto la poca chiarezza che Google ha sempre avuto nei confronti di Webmaster e SEO.
Come la nota frase "Abbiamo cambiato il modo di interpretare il valore dei link e delle anchor text"...

Credo comunque che a volte un po di pulizia non faccia male.

Al di là delle mie chiacchiere, vediamo alcuni dei fattori sono stati presi di mira e che violano quindi esplicitamente le linee guida di google:

  • Keyword Stuffing: Riempire le pagine di Kws per forzare il Ranking.

  • Schemi di Links che include:

    • Links volti a manipolare il Page Rank

    • Links a spammer o a siti considerati dannosi

    • Eccessivi links reciproci o scambio links (linkami che ti linko)

    • Comprare o vendere links per passare PageRank

  • Cloaking (linko un mio post sull'argomento)

  •  Sneaky JavaScript redirects: usare Javascript per mostrare agli utenti contenuti di una pagina differenti rispetto a quelli che vengono mostrati al motore di ricerca, e o usare Javascript per reindirizzare utenti e spider a a pagine differenti.

  •  “Doorway” Pages: Pagine di bassa qualità e dai contenuti poveri ottimizzati per una specifica KWs o più comunemente per una determinata frase che viene spesso ricercata dagli utenti.

  •  Testo Nascosto

  •  Link Nascosti

  •  Contenuti Copiati intenzionalmente

  •  Contenuto creato giusto per spammare links (vedi immagine sottostante)

Non che Google abbiamo iniziato ora a combattere lo spam nei suoi risultati, questa volta forse l'hanno fatto in maniera più concreta, continuando comunque ad incoraggiare le persone ad utilizzare le migliori metodologie SEO per creare siti di alta qualità.

Una domanda quindi mi sorge spontanea: "Caro Google, non è che per caso non sei in grado di fornire realmente risultati di qualità e quindi utilizzi noi SEO per crearli su misura per te? Alla fine loro dicono questo non va bene e noi aggiustiamo...

E quando tutto sarà di qualità che faremo noi SEO? Per fortuna ci sta ancora tanto da ottimizzare :)

Aggiungo inoltre la lista dei Vincitori e dei Perdenti, dal punto di vista SEO e quindi traffico, di questo ultimo update di Google.

I Vincenti

I Perdenti

giovedì 19 aprile 2012

Google Park Domain Updated: Epic Fail!

Tra il 17 e il 18 Aprile, Google ha rilasciato nuovamente un update, che si prefiggeva l'obbiettivo di colpire i così detti park domain (domini parcheggiati).

La cosa divertente ma anche molto triste, che questo update ha creato non pochi problemi al web. Centinaia sono stati i post aperti sul Google Web Master Forum, di scomparsa dalle serp, di perdita di posizionamento ecc..

 Tutti quanti hanno subito dichiarato, ecco il SEO Overoptimization Updated, io dalla mia pensavo che fosse più connesso ai links, poichè avevo notato grandi Brand non ottimizzati droppare drasticamente da posizione 2 a 15 e cosi via.

 In verità questo update è stato un tremendo errore di Google ammesso dallo stesso Matt Cutts che cito testualmente:

  "I saw a recent post where several sites were asking about their search rankings. The short explanation is that it turns out that our classifier for parked domains was reading from a couple files which mistakenly were empty. As a result, we classified some sites as parked when they weren't. I apologize for this; it looks like the issue is fixed now, and we'll look into how to prevent this from happening again."

In pratica per sbaglio questo update ha identificato come park domain dei propri e veri siti, facendoli droppare drasticamente. Google essendo in una situazione di monopolio si è limitato a scusarsi, molto in ritardo, con gli utenti affermando che il problema è stato risolto ora e che tutto tornerà alla normalità.

Rispondendo inoltre a qualche commento sul suo profilo Google+, Matt Cutts ha affermato che non esiste un modo per capire se si è stati colpiti o meno, dato che non è una penalizzazione manuale, l'unica cosa che potete valutare è quando avete perso posizionamento.

Se è capitato in questi 2 giorni potrebbe essere questo update, e quindi vi conviene aspettare e pregare che tutti i Google data center vengano aggiornati al più presto.
Inutile mandare richieste di riconsiderazione a Google.

Quello che mi domando io è: Caro Matt Cutts invece di passare il tempo a controllare come crescono i tuoi baffi o a pubblicare stupide sfide personali sul tuo blog, come maratone e diete, potresti cortesemente testare gli update di algoritmo prima di fare release ufficiali?

mercoledì 11 aprile 2012

giovedì 15 marzo 2012

Gioco Online in Italia 2012 - Infografica

Ecco come è la situazione in Italia del gioco online, in base ad un ultimo studio dell'Osservatorio del Gioco Online del Politecnico di Milano. Ringrazio Bizup Media per aver realizzato l'infografica sottostante.


venerdì 2 marzo 2012

Come Scoprire se un Sito Web è BlackListed?

Oggi volevo consigliarvi un tool interessante per la sicurezza dei vostri siti web:

Sucuri Site Check


Con questto tool potete facilmente scoprire se il vostro sito è affetto da malaware, è blacklisted, se ha ricevuto attacchi e se è
considerato Spam.

Ovviamente la prima scansione è gratuita, se trovate un malaware l'account a pagamento vi aiuterà a risolvere la vostra situazione. Da aggiungere ai preferiti :)

giovedì 16 febbraio 2012

Internal Linking - Come incrementare il valore dei Links Interni

Un mesetto fa ho letto un articolo SEO abbastanza interessante sul noto blog SEOMOZ (occhio comunque a non prendere per oro colato quello che dicono) su come massimizzare il valore del linking interno, ed in particolare il valore trasmesso da un link da una pagina autorevole, magari statica e vecchia, ad una pagina nuova appena creata.

Per la precisione Seomoz ha preso spunto da un post di Tim Grice autore del Blog Seo Wizz, che ha appunto verificato che un link su un contenuto vecchio e già "crawlato" da Google non passa valore alla nuova pagina.

In pratica, e questo fin ora era sempre stata un dei modi migliori per aumentare rapidamente il posizionamento di una nuova pagina nelle Serp di Google(principalmente ha sempre funzionato bene per posizionare le Long Tail Keywords), se da una pagina interna A vecchia ma di valore agli occhi di Google cioè con tanti backlinks, che ranka bene e autorevole, linkate una pagina nuova appena creata, in breve a questa pagina nuova verrà trasmesso il valore di quella vecchia il che consentirà alla nuova pagina di salire rapidamente e di ricevere traffico per la long tail keyword desiderata.

Ora questo rimane del tutto vero e sensato, ma una cosa interessante sottolineata in questa discussione e testata anche sulla mia pelle è il fatto che rispetto qualche tempo fa il valore trasmesso dal link interno è comunque diminuito.
Quelli di Seomoz sostengono che questo valore è diminuito anche se il link viene da un altro sito tipo homepage autorevole con pr alto e di valore, ma su questo non sono assolutamente d'accordo.
Ma torniamo a parlare di links interni, ora se questo valore è diminuito significa quindi che non ha piu senso agire in questo modo?

Assolutamente no, rimane comunque una buona idea agire in questo modo, ma uno dei migliori suggerimenti che ho letto e del tutto sensato è se ad una pagina con contenuto statico che non cambia da molto tempo inserite improvvisamente un link, Google si chiederà come mai questo link prima non c'era e ora si? Cosa è cambiato? E come mai se c'è stato un cambiamento questo è avvenuto solo in un link e non nell'intero contenuto?

Il suggerimento migliore quindi è: quando volete spingere una nuova pagina con i link interni da pagine autorevoli, non limitatevi ad inserite solo i links nelle pagine vecchie, ma cambiante anche un po´quello che circonda questa modifica ovvero il contenuto.

Date insomma una rinfrescata alla pagina. In questo modo Google capirà che l'inserimento di uno più links può avere senso poichè magari dato da un aggiornamento dell'argomento trattato in quella determinata pagina.

Oppure nel caso in cui la pagina nuova creata sia veramente un aggiornamento del contenuto presente nella pagina vecchia potete anche, per far rankare il prima possibile la vostra nuova pagina, effettuare un 301 dalla pagina vecchia a quella nuova.

Quelli di Seomoz inoltre sono convinti che i links dai social servano a qualcosa, suggeriscono di usare dei social signal per aumentarne il ranking, io vi consiglio di non perdere troppo tempo con i links da Facebook o Twitter o altri Social, perchè non esiste prova, e nessuno dello Staff di Google ha mai dichiarato, che essi siano in una qualche maniera dei fattori diretti di ranking.

 Quello che invece vi consiglio io oltre ad gli suggerimenti elencati poco fa è questo: una volta aggiornato il contenuto della vecchia pagina, di iniziare a mandare links esterni nuovi non alla nuova pagina, ma alla vecchia, in modo che questi potenzino il valore del links al suo interno. Buona ottimizzazione! :)

domenica 5 febbraio 2012

GooPLA - Cosa è il Google Page Layout Algorithm

Senza dubbio il filtro Google Panda è il topic SEO più discusso, ma è bene ricordare che non è l unico filtro o update a cui l'algoritmo di Google è soggetto. Uno di questi filtri o update che è stato rilasciato il 19 Gennaio 2012 giorni fa e che è passato un po' in sordina,poichè a detta dello stesso Google la percentuale di incidenza sarebbe di circa 1% dei risultati, è il Google Page Layout Algorithm subito rinominato dalla comunità SEO GooPLA.

Cito e andrò a tradurre il testo di Matt Cutts postato sul blog Ufficiale di Google per i Webmaster pero poi commentarlo brevemente.

... we’ve heard complaints from users that if they click on a result and it’s difficult to find the actual content, they aren’t happy with the experience. Rather than scrolling down the page past a slew of ads, users want to see content right away. So sites that don’t have much content “above-the-fold” can be affected by this change. If you click on a website and the part of the website you see first either doesn’t have a lot of visible content above-the-fold or dedicates a large fraction of the site’s initial screen real estate to ads, that’s not a very good user experience. Such sites may not rank as highly going forward.

 Matt Cutts giustifica questo update con " Abbiamo sentito utenti lamentarsi di come la loro esperienza di navigazione non sia soddisfacente, in quanto molte volte dopo aver cliccato su un risultato, le informazioni che stanno cercando appaiono solo dopo la cosi detta parte "above the fold" (vedi immagine seguente) poichè proprio questa parte above the fold è spesso occupata da elementi pubblicitari o elementi di web marketing ideati per aumentare gli elementi di conversione di un sito e da pochissimo contenuto. Per questo motivo se non avete molto contenuto in questo "above the fold" potreste essere affetti da questo cambiamento.


Matt Cutts aggiunge ancora

We understand that placing ads above-the-fold is quite common for many websites; these ads often perform well and help publishers monetize online content. This algorithmic change does not affect sites who place ads above-the-fold to a normal degree, but affects sites that go much further to load the top of the page with ads to an excessive degree or that make it hard to find the actual original content on the page.

"Capiamo che inserire pubblicità nella parte above the fold è abbastanza comune in molti siti, questi elementi pubblicitari sono efficaci e aiutano i siti a monetizzare il loro contenuto. Questo update algoritmico non avrà effetto su chi usera elementi pubblicitari o di conversione di maniera equilibrata (ovviamente non viene specificato quale sia questo equilibrio) ma questo update colpirà chi inserira contenuti pubblicitari o elementi di conversione in maniera eccessiva in modo tale da rendere difficile raggiungere il contenuto della pagina".

Ora se da una parte mi trovo in linea con questo filtro poichè finalmente aiuterà molti SEO come me cercano di spiegare ai vari fissati di conversion e revenue che troppi elementi di conversione in una pagina non aiutano il ranking e che non tutte le pagine devono essere per forza finalizzate al guadagno, ma piuttosto devono fornire veramente contenuti utili ai visitatori in modo da aumentare la loro permanenza sul sito e il loro ritorno e perchè no qualche bel backlink,  dall'altra non vedo di buon occhio a questa continua intromissione di Google nel disegn e nella struttura di un sito. Ora capisco i siti MFA (Made for Adense), ma non sta a Google preoccuparsi troppo della pigrizia degli utenti che non hanno nemmeno voglia di fare uno scrolling, o di navigare un sito.
Credo che dovremmo comunque restare noi i padroni dei nostri siti web. Inoltre questa guerra alla pubblicità dichiarata poi da chi ha ben 11 annunci pubblicitari che appaiono ad ogni pagina di ricerca fa anche un po' sorridere, della serie dato che io non ci guadagno questo possiamo migliorarlo :)

mercoledì 25 gennaio 2012

Lenti Buoni Propositi per il 2012

Come tutti i blogger vorrei scrivere un post sui buoni propositi del 2012 che intendo realizzare su mio bloghettino.. Sono in tempo vero? Siamo solo al 25 Gennaio, di solito questi post si scrivono prima dell'inizio del nuovo anno.
Eh ma che ci volete fare?

Non che i buoni propositi non ci siano, è che il tempo è veramente misero ed infame, e a volte anche la voglia di mettermi davanti al pc la sera a scrivere dopo aver passato una giornata davanti ai pixel, a volte non ci sta proprio..e ho anche appena compiuto 34 anni l 'età avanza.

Senza contare quel loop sonoro prodotto dal software moglie 2.0 che dice continua a far apparire un pop-up con scritto "sempre li davanti stai?".

Ecco come vedete faccio benissimo a staccare se devo avere queste allucinazioni :)

Ovviamente Google mi ha punito per questo, portando il mio PR da 3 a 1 e questo non perche i miei contenuti non siano totalmente originali o di qualità, ma sicuramente per la mia scarsa frequenza di aggiornamento e soprattutto per la totale mancanza di attività di link-building, dato che non ne vedo il motivo.

Comunque sia sarò di buoni propositi ce ne sono tanti ma ho voluto focalizzarmi su 3 attualemte:

1) Dedicare una Sezione Interamente al Panda e ai vari GooPla (spiegherò nel post che sto preparando di cosa sto parlando), con approfondimenti, suggerimenti, risultati di test SEO etc..

2) Aggiornare il Blog con 1  post a settimana a partire dalla prossima ovviamente (sembro uno di quelli si dicono da domani dieta)

3)Iniziare un progettino che ho in mente dedicato ai moltissi SEO Tools che girano su Internet, ovviamente tutto vi sarà svelato a tempo debito.

Mi sembrano 3 belle intenzioni che ne dite vada per 2 su 3? Ok ok proviamo tutte e 3.
Ora vi saluto e vi auguro in leggerissimo ritardo buon natale e buon ultimo anno (come specificano i Maya).
:)



giovedì 22 dicembre 2011

Pepsi Fun Spot 2011

La Pepsi ci suggerisce come riuscire ad ottenere un posto di lavoro dove ci sono molti candidati.
Enjoy it!


giovedì 24 novembre 2011

Intervista a Michele Caivano di Fortunecat

Voelvo segnalarvi una interessante intervista, fatta da Salvatore Capolupo e pubblicata sul suo blog, a Michele Caivano, creatore, fondatore del Seo Blog Fortunecat e della sua community, nonchè amico :)

Vari gli argomenti trattati nell'intervista dai motori di ricerca ai fattori Seo più recenti. Ecco il link diretto Intervista a Michele Caivano

Buona Lettura!

sabato 5 novembre 2011

Cloaking - Cosa sono i siti Cloak per Google

Un paio di giorni fa Matt Cutts, ha pubblicato questo video per spiegare quando un sito è considerato Cloak per Google.


 In sintesi per Google cloak significa mostrare contenuti differenti a seconda che ad accedere sul sito sia un utente umano, o il Google Bot.

Per esempio spiega Matt Cutts,  viene definito cloak un sito in grado di mostrare al crawler di Google contenuti riguardanti cartoni Disney e allo stesso tempo mostrare invece agli utenti dei contenuti per esempio porno.

Ovviamente questo non è accettato da Google in quanto il sito verrebbe indicizzato per cartoni Disney, ma mostrerebbe contenuti del tutto opposti.

Ovviamente chi usa questa tecnica Black Hat Seo, sa benissimo che se presi in flagrante questo comporta il ban del sito, peccato però Google non abbia nessun metodo, se non quello delle segnalazioni da parte degli utenti, o dei quality rater di bloccare questo fenomeno. Spiegherò poi quanto sia facile individuare un sito cloak.

Dopo questa prima definizione di cloak data da Matt Cutts, ovviamente la domanda nasce spontanea:
"Allora anche la geolocalizzazione (ovvero mostrare gli stessi contenuti ma tradotti per esempio in lingua inglese ai visitatori che arrivano usando indirizzo IP del Regno Unito) e la mobile detection (se il nostro sito identifica che l'user agent tramite cui si accede al nostro sito è quello di un Iphone, Safari per Iphone per esempio, è possibile fornire la versione del sito ottimizzato mobile, cellulari e smartphone) sono tecniche che Google considera come cloak?

La risposta di Matt Cutts è ovviamente No.
La Geo-location, fornire gli stessi contenuti in lingua diversa, è una cosa molto utile secondo Google, dato che facilità l´esperienza dell´utente che arriva da un altro paese.

La Mobile detection va benissimo dato che si cerca di migliorare la navigabilità dell'utente dato che un sito ottimizzato per smartphone è piu facile da vedere e navigare se si usa un cellulare.

In pratica la domanda che vi dovete porre secondo Matt Cutts è : State fornendo le stesse informazioni e lo stesso sito sia a GoogleBot che agli utenti? Se la risposta è si allora non vi dovete preoccupare.

Ora come è possibile identificare un sito cloak?
Lo stesso Google ci fornisce uno strumento che sì è fatto per un altro scopo, ma che in pratica smaschera velocemente. Dato che un sito cloak inganna Google è possibile tramite la Copia Cache del sito o l'Istant Preview che trovate nelle Serp di Google di verificare se un sito è cloak o no.

Chi é bravo nel cloak di solito acquista un sito autorevole per esempio di informatica magari di 2 o 3 anni fa, e fa mi in modo che per determinate parole chiavi il sito dia dei contenuti cloak mentre per tutte le ricerche riguardanti per esempio appunto l'informatica la visualizzazione rimane quella del vecchio sito.

Ovviamente é necessario inserire nel titolo della home page le parole chiavi per i contenuti cloak.(altro semplice modo per individuare un sito di questo tipo). Cosi facendo Google dato che il sito o blog è autorevole e con buoni link in ingresso, spinge in cima alla Serp il sito per le Kws inserite nel titolo della homepage.

Ovvio il webmaster inserisce inoltre dei contenuti specifici relativi alle parole chiavi cloak.

E se Google scopre tutto? Niente banna il sito, ma la strategia di chi usa il cloak è mordi e fuggi, in pratica dopo il ban un altro sito è già pronto per sostituire quello appena bannato e cosi via.
Si cerca di massimizzare quindi i profitti  per il tempo che il sito resta live finchè non viene segnalato, e se questo capita beh avanti un altro.

mercoledì 21 settembre 2011

Link Building - Cosa è cambiato con Panda?

 Sembra quasi morto questo blog,e  invece non lo è e dopo essermi sorbito le disgrazie politiche del mio ex paese, guardando Ballarò, ho messo in sottofondo SOS Tata in modo da trovare ausilio su come affrontare i nuovi comportamenti del mio nanetto che ormai ha 2 anni e mezzo.
Ora. dopo essermi trasferito da Stoccolma a Malta, aver trovato casa, asilo per mio figlio e tutto ciò che comporta un cambiamento del genere posso tornare a parlare di Seo.

In questo post vorrei riprendere un commento che fece Francesco su un post scritto piu di un anno che trattava la Link Building.
Cito il commento:

"e passato quasi un anno da tutti questi commenti, adesso con l'avvento di google panda sarei curioso di sapere se funzionano ancora le tecniche con xrumer, oppure mi sai dire qual è il limite dei link in entrata che si devono ricevere per non correre il rischio di eventuali penalizzazioni?"

Partiamo da Xrumer, uno dei tanti tools considerati "Black Hat Seo"  che in base a dei parametri settati dall'utente, scandagliano la rete, e principalmente blog, e inseriscono in modo automatico commenti e anchor text links diretti verso un determinato sito. La domanda sembra ovvia, funzionano? Se da una parte è vero che questi tools permettono di costruire links molto velocemente risparmiando molto tempo, da una parte continuo a sostenere che questi tools non sempre portano risultati, o riescono a portarli solo per un breve lasso di tempo.

Dopo aver testato alcuni di questi tools e vi assicuro che ce ne sono parecchi, posso affermare che:
- Se usati con moderazione, in mercati a bassa competitività si ottengono buoni risultati, ovviamente se mixati con altri tipi di links.
- Se usati senza controllo portano nei mercati a bassa competitività a buoni risultati che durano solo per un breve tempo e che addirittura possono portare ad una penalizzazione per la determinata KW usata.
- Usati invece nei mercati molto competitivi sia in modo moderato che non, i risultati non ci sono.

Al di là del fatto che la maggior parte dei links inseriti tramite l'uso di questi tools, abbiano come caratteristica l'attributo nofollow, che, e apro una parentesi non necessariamente viene preso in considerazione da Google anzi a volte viene proprio ignorato e chiudo la parentesi, rimane il fatto che per costruire una sana link profile del proprio sito sono necessari sia la quantità di links che la qualità.
Dal mio punto di vista do un peso maggiore a quelli di qualità. Sono estremamente convinto che un link di qualità valga più di 10 links di bassa qualità per quanto riguarda ovviamente il ranking di un sito.

La domanda sorge spontanea e il Panda con la link building?

Non ho mai aperto un post al Panda, e non perchè non me ne curo anzi sono invischiato ogni giorno con siti pandalizzati o con siti premiati dal Panda cercando di interpretare al meglio quello che Google non dice.
In più markettari e blog di ogni genere stanno usando Google Panda solo come link bait ed ad eccezioni di pochi quello che viene scritto è totalmente inutile.

Per rispondere alla domanda io farei un passo indietro, vi ricordate di Google Caffeine?  A mio avviso tra Panda e Caffeine non ci sta poi così tanta differenza, anzi direi che Panda è un po l'evoluzione di Caffeine dove:
- I parametri di Google Caffeine sono stati tenuti e "forse" migliorati
- Il filtro dedicato all'analisi dei contenuti, ovviamente a detta di Google, è stato notevolmente migliorato
- La naturalezza e la qualità della link profile  di un sito web vengono notevolmente premiate.(questo succedeva anche prima)

Lasciamo stare i contenuti, le dicerie sulle content farm, etcc..

Per la link building non è cambiato molto, forse le uniche cose a cui bisogna prestare un po' più di attenzione sono:

- che i siti che "ci linkano" non abbiamo contenuti duplicati (credo che ci sia una tolleranza di circa 80% originali 20% duplicati)
- non siano scraper sites,
- non siano MFA (Made for Adsense)

Ma ovviamente devono essere:

- naturali, (anche come implementazione)
- on topic (meglio se inseriti in un contesto inerente ai contenuti del nostro sito)
- di qualità, quindi siti  o blog autorevoli (on-topic è meglio)
- e anche di discreta quantità
- Vi ricordo che anche se in questo post ho parlato solo di backlinks, anche il linking interno è un fattore di ranking per Google.

Per concludere, vorrei rispondere a Francesco alla seconda parte della domanda e cito:
" mi sai dire qual è il limite dei link in entrata che si devono ricevere per non correre il rischio di eventuali penalizzazioni?"

La mia risposta è:
Dipende dal Mercato, e dalle Keywords che comporta tale mercato. Devi quindi effettuare una analisi sui competitors stabili nella Serp per farti una idea della quantità e della qualità.
Per non incappare in penalizzazioni automatiche,(dalle quali è possibile uscire in tempi che vanno da 1 mese a 3 mesi) non spammare, non usare sempre la stessa Keyword, non linkare solo la home page. Non ricevere una quantità di links non naturale( ovvero 10000 in un giorno).
Per non incappare in una penalizzazione manuale dei quality rater, (dalle quali è possibile uscire se in circa 3-6 mesi, se hai effettivamente dimostrato di aver sistemato quello per il quale "potresti" essere stato penalizzato e quindi che la tua reinclusion request sia effettivamente accettata) il mio consiglio è di non trasgedire le "chiarissime linee guida di google" e pregare che nessun quality rater inetto capiti sul tuo sito.

mercoledì 27 luglio 2011

Spia La Concorrenza con SpyOnWeb

Volevo suggerirvi utile Seo tool che vi aiuterà a spiare la concorrenza o a valutare eventuali partners.



Semplicemente è necessario copiare un url da analizzare e SpyOnWeb vi mostrerà

Nome Dominio
IP Address:
ID di Google Analytics
ID di Google Adsense
Alexa Rank
Page Rank
Last Updated, ovvero l'ultima volta che il sito è stato cachato da Google.

Ma vi mosterà soprattutto se:
1) Lo stesso ID di Google Analytics è presente su alti siti
2) Lo stesso o gli stessi ID di Google Adsense è inserito su altri siti
3) I siti web con lo stesso IP di quello analizzato

Link: SpyOnWeb

mercoledì 15 giugno 2011

Google Annuncia Instant Page

A breve, esclusivamente per Google Chrome verra' implementata la nuova funzionalita' Google Instant Page che portera' il tempo di caricamento delle pagine praticamente a 0.
Per farvi una idea date un occhio a questo video, noterete delle belle differenze.
Google e' sta cercando constantemente di portare sempre piú' utenti ad utilizzare Google Chrome.

martedì 7 giugno 2011

Pubblicita' Volkswagen Passat 2011

Il nuovo spot della Volkswagen Passat e' sicuramente uno dei piu' divertenti del 2011.



Da non perdere anche il Volkswagen: The Making of "The Force" Commercial



Anche se largamente usato in molte parodie e film comici "la forza" di guerre stellari si adatta perfettamente alle pubblicita' a sfondo umoristico.