mercoledì 27 aprile 2011

Google 1 Mese di Cambiamenti

Mi sono accorto di non aver postato nulla nel mese di Marzo e me ne scuso, un po' per lavoro un po' per sana pigrizia, ma mi voglio rifare con un bel articolo riepilogativo.

Eppure di cose ne sono successe in Casa Google e quindi lato Seo.

Vediamo di fare un piccolo riepilogo, tutto è nato dalla vicenda dei grandi magazzini JCPenny. Questo colosso di abbigliamento americano riusciva a rankare nelle Serp persino meglio degli stessi marchi della merce che vendeva. Un po' assurdo infatti era scrivere Puma su Google.com e trovarsi loro come primo risultato e non il sito ufficiale della Puma magari.

Un team di Seo esperti ingaggiati dal NY Times, che tramite questa costosa perfetta operazione di link bait con la quale il noto giornale americano ha raccimolato parecchi links naturali, ha scoperto che per anni semplicemente grazie ad una valanga di links provenienti da moltissimi siti satelliti con contenuti duplicati e comunque di bassa qualita'( in termini di valore per gli utenti)lo store americano riusciva ad essere sempre in prima posizione per migliaia di ricerche su Google.

Si potrebbe pensare che siano riusciti a farla in barba a Google, ma questo è poco verosimile anche se BigG ha fatto di tutto per farlo sembrare così. Semplicemente con questa vicenda,finita su tutte le testate giornalistiche più importanti al mondo, è venuto alla luce uno dei tanti bug di Google che ovviamente la maggior parte dei Seo sfruttava e del quale Google non si curava molto ovvero "Content is the king nei tuoi sogni, se vuoi rankare spamma links dato che le Serp di Google sono piene di link Spam.

Di fronte ad una cosa del genere BigG è dovuto ricorrere ai ripari con 1? No ben con 3 dei suoi indecifrabili update e tutti, o forse poichè l 'ultimo sembra non sia così, legati proprio al contenuto originale e di qualità. Strano eh?
Perchè indecifrabili? Semplicemente perchè ti penalizzano ma non ti dicono mai come risolvere il problema che ha il tuo sito bisogna andare per tentativi.
Ma vediamo quali sono stati questi Google Update e che impatto hanno avuto lato Seo, ovviamente tutto ciò e accaduto soprattutto negli Stati Uniti in Google.com, e in parte minore negli altri paesi.

1)Lo Scraper Update
Filtro applicato a Google Int ovvero in tutti i motori volto a colpire quelli che sono stati definiti i siti Scraper ovvero quei siti che non hanno contenuto originale ma che generano automaticamente contenuti copiati dai vari feeds in internet. Questo update rilasciato a livello globale ha colpito soltanto il 2% dei risultati nelle Serp.

2)Il Farmer Panda Update
Definito Farmer Update poichè in teoria indirizzato a i siti con migliaia di pagine e di contenuti di bassa qualità e di scarsa lunghezza creati ad hoc solo per il ranking come ad esempio quelli di E-How ecc.. che ha colpito il 12% delle Serp di Google.com.
Nella sua prima release in effetti i siti colpiti non sono stati quelli definiti farmer o quelli che generano content on demand, ma bensi altri siti e molti dei quali non meritavano assoltamente una penalizzazione.
Dopo varie scuse di Google e dei post aperti appositamente sul forum di Google per la richiesta di reinclusione di tali siti il Panda Update è stato "migliorato" modificato cambiato e rilasciato nuovamente non solo per Google.com ma per quasi tutte le ricerche in lingua inglese, Google.co.uk Google Australia ecc..
Questa nuova modifica ha impattato di un ulteriore 2% le Serp di Google.
In totale quindi il Panda Update ha colpito il 14% delle ricerche in lingua inglese.

In mezzo a tutto questo è stato rilasciato Google Spam blocker su Chrome, una addon che consente agli utenti di bloccare i siti che reputano spam dalle proprie ricerche e Google +1 un sorta di I like di Facebook sia per i risultati organici sia per Adwords. In modo tale da raccogliere dati dagli utenti su cosa reputano buono o no.
Useranno questi dati? Staremo a vedere.

Al di là del fatto che Google rilascia nuovi filtri penalizzando vari siti senza fornire linee guida specifiche di come fixare i problemi ed uscire dalle penalizzazioni, quello che è più sconcertante è che mentre Google gioca a penalizzare siti, molte persone in varie aziende sono state licenziate a causa di questi update.

Ora è si verò che qualcosa dovevano pur fare per pulire lo spam dal motore di ricerca, ma prima di rilasciare versioni poco funzionanti e dannose per ottimi siti sarebbe meglio testarli questi filtri. Inoltre cosa farà Google contro tutti quei siti cloak che dominano le Serps? Attualmente chi era lì, lì è rimasto.

Ora le domande sono quando rilasceranno Il Panda anche in Italia?
Io credo non prima di 3 o 4 mesi.
In caso di penalizzazione cosa fare?
Il mio consiglio è già da ora prendere preucazioni

Riscrivere i propri contenuti se duplicati.
Usare il Tag Canonical se necessario.
Migliorare la lo schema dei link interni al proprio sito
bloccare tramite il robots.txt tutte quelle pagine e sezioni innutili agli utenti.
Creare buoni contenuti di giusta lunghezza.
Rimuovere tutti i broken links e i 404 presenti sul proprio sito.
Non inviare backlinks solo alla homepage.

mercoledì 16 febbraio 2011

Google combatte lo Spam? No lo fa fare a voi

La novità della settimana in casa Google e la nuova estensione di Google Chrome, la Personal Bloc List.
Come funziona? Semplicissimo solo usando il Browser Chrome, di Google, potrete bloccare la visualizzazione dei risultati dei siti da voi considerati Spam.

Ovviamente potrete decidere di revocare la vostra scelta ogni volta che vorrete. Tutte le vostre segnalazioni inoltre diventeranno una specie di feedback per Google nella valutazione del ranking di Google.
Tutto questo non vi pare eccezionale?

Assolutamente no, almeno secondo me.

Dal mio punto di vista questo attualmente l unico modo che ha Google di combattere lo spam questo perché un conto e' identificare un contenuto duplicato un altro e' capire quando un contenuto originale e' di bassa o di alta qualità. Decidere se questo post e' di qualità o meno spetta agli utenti che lo leggeranno perché per alcuni sara' di alta qualità per altri no. Ora ammettiamo anche che Google dica ok se il contenuto e' di qualità allora gli utenti lo linkeranno lo condivideranno sui social e sul web ma:

1) la cosa puo' essere manipolata dai SEO sia tramite black hat che agite hat SEO

2)Ci sono sicuramente molti blogger che scrivono contenuti di altissima qualita' ma che ignorano totalmente le basi Dell indicizzazione su Google e quindi sono pressoché invisibili.
Questi blogger o questi contenuti in che maniera verrebbero premiati da google pur essendo di ottima qualità ?
In nessun modo. Ovviamente pensandolo in un contesto di mercato molto competitivo dove si fanno i soldi veri online se si scrive della cinciallegra e facile essere indicizzati ma il trend di ricerche e' molto basso.

3) ho una azienda con 300 dipendenti e faccio segnalare a tutti usando proxy ip diversi o quello che vi pare, il mio maggiore competitor come Spam e la stessa cosa gliela faccio fare dai pc di casa e dico di farlo fare anche ai loro e ai miei amici.
Ok in questo caso anche se il mio competitor scrive di qualità in modo originale e offre servizi meglio dei miei verrebbe penalizzato da Google usando questa estensione di Chrome?

Il presentatore di Google Matt Cutts e i suoi fedeli si inventeranno veramente qualcosa di concreto per combattere lo Spam? Speriamo di si perché attualmente Google, che forte del suo monopolio mondiale essendo l unico motore di ricerca decente in Internet con risultati decenti, continuera' a riempirsi di Spam e risultati sfalsati e gia' c'e ne sono abbastanza direi.

giovedì 10 febbraio 2011

Bing Copia Google, ma Google chi ha copiato?

Purtroppo in questo periodo sono sommerso dal lavoro e non riesco a ritagliarmi molto tempo per scrivere sul blog e di questo vi chiedo scusa. Sono varie le notizie accadute in questi ultimi 20 giorni. Google vuole iniziare a combattere lo Spam con un nuovo algoritmo che si pensava online ma che invece non lo e' ancora oppure un'altra notizia e' l accusa di Google nei confronti di Microsoft con la quale BigG ha accusato ufficialmente che i risultati del motore di ricerca Bing siano totalmente copiati da quelli di Google.

Come hanno fatto gli ingegnieri di Google ad esserne cosi sicuri?
Semplicemente tramite moltissime query prive di ogni significato e quindi escluse da ogni parametro di indicizzazione hanno scoperto che i risultati di queste query chiamante "syntetic" erano identici a quelli di Bing.

Ad esempio ricerche come:

"hyhsaskalsaoisaöoi
qgggghhhwye
iiiiowpqaa
ywgewher"

e cosi via dicendo.

Ora senza dubbio e´ indiscusso il fatto che Bing sia uno dei, a mio parere, peggiori motori di ricerca al mondo, e che invece di copiare dovrebbe comunque migliorare il suo algoritmo e utilizzare magari parametri diversi di indicizzazione diversi da quelli di Google magari proprio per fornire un tipo di ricerca diversa una alternativa al Web sul quale regna sovrano Google.
Quello che mi chiedo e' il perche' Google ha deciso di pubblicare una accusa a viso aperto nei confronti di Bing? A mio avviso Google non stava rischiando di perdere il suo predominio sul Web.
Ma soprattutto Google non ha mai copiato nessuno o almeno se "copiare" e' una parola forte Google non ha preso spunto da nessuno nella creazione dei suoi servizi?
Se ben mi ricordo

Google ha preso spunto da Overture = (AdWords)
Google ha preso spunto da Overture Twitter (Buzz)
Google ha preso spunto da Overture Flickr (Picassa)
Google ha preso spunto da Overture iPhone (Android)
Google ha preso spunto da Overture MapQuest (Maps)
Google ha preso spunto da Overture Yahoo (Finance)
Google ha preso spunto da Overture Alta Viata (Translate)
Google ha preso spunto da Overture AIM/ICQ (Gtalk)
Google ha preso spunto da Overture Friendster (Orkut)

e via dicendo.

Quello che e' singolare e' il fatto che quando Google "prende spunto" da altre societa' che hanno creato un servizio utile agli utenti del web, lo ripropone lo rimpasta fa qualche modifica di layout allora migliaia di blogger scrivono "E' nato Google bla bla" da oggi sara' possibile fare questo e quello, senza sapere che il servizio gia' esisteva, magari a pagamento dato che queste societa' con qualcosa devono campare. Con questo non voglio dire che Google non offra ottimi servizi anche gratuiti (perche se lo puo' permettere) molto buoni, ma non sempre sono farina del suo sacco. Direi non e' oro tutto quel che luccica.

venerdì 21 gennaio 2011

Google PageRank Update 2011


Nuovo aggiornamento del PageRank di Google e´ avvenuto questa notte. L'ultimo update risale al 10 Aprile 2010 circa 9 mesi un fa. Praticamente un parto.
Il PageRank e´ uno dei tanti rank factor per Google non l´unico quindi non perdete troppo tempo sul PR, potete comunque divertirvi ad analizzare tutti i vostri siti per vedere se il lavoro fatto fin ora ha portato ad un aumento del Page Rank o ad una sua diminuzione, ma tutto cio´ non ha impattato sulle Serp.

lunedì 3 gennaio 2011

Come controllare le Richieste HTTP e le Risposte del vostro sito

Buon Natale in ritardo e buon 2011 a tutti i lettori del blog. Scusate la non prontezza degli auguri ma tra traslochi in Svezia, lavoro e bimbo il tempo vola.
Ma passiamo al dunque.

Qualche settimana fa, ho notato che la homepage di un sito che gestisco stava perdendo da un ottimo ranking molte posizioni ad esempio da 5 a 17 in un solo giorno. Tutto questo accadeva solamente alla homepage e non alle altre pagine. Prima di affermare la classica "penalizzazione" Seo ho controllato tutti gli eventuali cambiamenti fatti nel mese prima, e ho analizzato tutti i nuovi link in ingresso per verificare se ci fosse qualche bella risorsa spam che ne causava la perdita. Tutto era in linea con la strategia Seo e Sem adottata e nessun cambiamento notevole era stato effettuato. A questo punto purtroppo non potendo "per scelte aziendali interne" analizzare il sito utilizzando il comodo Google Web Master Tools, mi sono preso la briga di verificare le richieste e le risposte HTTP del server.
Grazie a questo tool ho scoperto un errore involontario del programmatore che segue il sito, che non permetteva il caricamente nella home page di tutta la pagina e che aveva causato la perdita del posizionamento.

Una volta fixato il problema e atteso 3-4 sett il sito e´ tornato in corsa ecco il tool
Sniffer