E anche quest’anno la SEO muore l’anno prossimo

seo-rip

Al Web Marketing Festival 2016 avevo proposto uno speech dal titolo provocatorio, qualcosa tipo: “SEO = Search Engine Onlus”. Volevo raccontare di tanti buoni motivi per cui i SEO sono utili a Google ed è difficile che Google decida di privarsi di questi alleati.

Poi Cosmano mi chiama e mi ha fa: “Fra, ma tu ora ti occupi di Onlus? Devo metterti nella sala No profit!” Lì ho capito che quel gioco di parole non era così chiaro e brillante come pensavo e abbiamo convenuto che mi sarei occupato (di nuovo) di SEO e turismo.

Di quello speech mancato mi sono rimaste diverse annotazioni su Evernote, tanto che ho deciso di pubblicarle in questo post. Cercherò di tenerlo aggiornato con altri spunti sul perché la SEO non è morta e non morirà, man mano che mi vengono in mente.
Enjoy!

I SEO sono un motore di cambiamento e innovazione

Non è un caso che molte novità in casa Google siano accompagnate da una dichiarazione di qualche dipendente tipo: “sarà fattore di ranking”.

Ad esempio è successo così con Caffeine nel 2010, quando Google stava lanciando Chrome (il browser più veloce di tutti) e improvvisamente il web doveva essere un posto veloce e caffeinico, tanto che i tempi di caricamento di un sito sarebbero diventati fattore di ranking.

Stessa cosa con il mobile friendly, il protocollo https e così via. Google chiama e i SEO si mettono all’opera facendosi agenti di cambiamento.

Come sarebbero le SERP oggi senza i SEO?

Vi ricordate come erano le SERP 18 anni fa? Io sì e ricordo bene che la pagina dei risultati di Google non era certo funzionale come l’attuale, anzi era proprio un posto molto confuso.

Oggi abbiamo title ottimizzati, la keyword principale all’inizio del titolo (proprio dove scorre l’occhio dell’utente), il numero “giusto” di caratteri, il brand del sito alla fine, i dati strutturati nel sito per i rich snippet, i sitelink se il SEO ha costruito un buon linking interno, la call to action, ogni title è originale… E le stesse osservazioni si potrebbero fare per le description.

I SEO hanno fatto questo lavoro per ottenere più click e traffico da organico, ma è indubbio che facendolo hanno reso Google un posto migliore.

I contenuti duplicati la farebbero da padrone

La scrittura per il web è una cosa diversa rispetto a quella su carta, questo lo sappiamo e centra poco la SEO. Tuttavia è innegabile che una buona spinta verso la maggior cura dei contenuti venga anche dalla SEO.

Ad esempio, senza i motori di ricerca, se ogni sito avesse una quota di traffico ogni giorno per diritto anzichè per merito, sono sicuro che alcune pagine di molti siti sarebbero un semplice copia e incolla da Wikipedia.

L’esistenza dei motori di ricerca e della SEO ci spinge a curare TUTTI i contenuti in modo che siano unici, originali e interessanti per gli utenti.

A chi servirebbero il Search Console, il Disavow Tool e il Forum di assistenza ai Webmaster?

Alcuni strumenti sviluppati da Google sono evidentemente pensati per i SEO. Se la SEO fosse in procinto di morire, o se fosse qualcosa di non riconosciuto, qualcuno saprebbe spiegarmi perché esistono il Search Console, il Disavow Tool e il Forum di assistenza ai Webmaster?

L’organico è il canale principale di traffico della maggior parte dei siti web

Se ti capita di vedere decine di profili Google Analytics ogni settimana, come capita a me, saprai benissimo che il traffico organico di una PMI in media spazia fra il 40% e il 60% del totale.

Sostanzialmente l’organico è il canale principale di traffico della maggior parte dei siti web. In un contesto in cui l’algoritmo core di Google viene ritoccato centinaia di volte all’anno, non è rischioso trascurare la SEO?

E se su Google ci fossero solo risultati sponsorizzati?

Se un giorno ci svegliassimo e su Google trovassimo solo risultati sponsorizzati, come reagiremmo?

Non credo che sarebbe così divertente scartabellare fra migliaia di inserzioni pubblicitarie, alla ricerca di informazioni imparziali.
Senza i risultati organici ordinati in modo meritocratico, in base al search intent degli utenti, i motori di ricerca diventerebbero inutili in un solo attimo.

Google vorrebbe essere un motore di risposta, ma non può

Mai scordarlo: la ricerca di Google è il principale volano di un’azienda privata che vuole realizzare profitto economico (e ci riesce bene), prima si chiamava Google, oggi si chiama Alphabet. Se Google continuerà a funzionare bene come motore di ricerca questa azienda continuerà a fare profitto.

Certo che a Google piacerebbe trattenere gli utenti sulla propria piattaforma (un po’ come fa Facebook), il Google Knowledge Graph e AMP sono un tentativo, ma il fatto è che Google “deve” continuare a connettere utenti “bisognosi” a contenuti interessanti. Tutto per continuare ad essere il motore di ricerca più utilizzato.

“La SEO è morta” è una frase incompleta

In sostanza la SEO morirà quando morirà la ricerca di Google, finché questa esisterà i SEO cercheranno di capire come funziona e qual è il modo migliore per ottenere di più, con mezzi più o meno leciti.

Al limite si potrebbe parlare di “fine della SEO come la conosciamo” ed è proprio questo il punto: la tecnologia cambia, cambiano le abitudini e cambia anche la SEO.

La frase “la SEO è morta” non è del tutto sbagliata è solo incompleta, la versione più corretta è “la SEO è morta ed è rinata, di nuovo“.

Capisco che ai più “pigri” piacerebbe fermarsi al primo passaggio, del resto ogni volta che qualcuno dice “la SEO è morta” da qualche parte un SEO bravo ha un cliente in più.

Perché qualcuno sostiene che la SEO sia morta?

Ci sono diverse spiegazioni plausibili per rispondere a questa domanda, probabilmente servirebbe un post a parte. Il mio consiglio è di guardarti questo video di Giorgio Taverniti che fa un po’ di chiarezza sul perché qualcuno sostiene che la SEO stia morendo.

L’editore è un algoritmo (irresponsabile)

Questo post atipico è diviso in 3 parti: comincia con alcune considerazioni personali sui feed rss, c’è una breve presentazione di Nuzzel (come cos’è? devi leggere il post per scoprirlo) e termina con la traduzione dell’interessantissimo articolo “L’editore è un algoritmo” pubblicato sul Wall Street Journal qualche mese fa.

Potrebbero sembrare 3 tematiche diverse ma se osservi il monitor da più lontano potresti intravedere uno scenario.

The day the Reader died

Per molti anni Google Reader è stato il mio servizio targato “big G” preferito, era la prima pagina web che aprivo la mattina e molte volte l’ultima che chiudevo la sera. Se lavori anche tu in questo settore sai benissimo che restare aggiornati è molto importante.

Tuttavia il 13 marzo 2013 Google annunciò la chiusura di Reader, una decisione motivata dal fatto che il poco traffico presente sulla piattaforma non era più sufficiente a giustificarne il mantenimento.

Il servizio chiuse i battenti il 1° luglio 2013 e io, come molti altri, scelsi Feedly come alternativa.

Ho sempre pensato che la cosa migliore fosse gestire da me il flusso di informazioni, in questo senso il feed era l’ideale, bastava selezionare accuratamente le fonti e aspettare nuovi post. Tuttavia le fonti autorevoli non sempre sono costanti e le fonti costanti non sempre scrivono cose interessanti. Tutto molto umano, ma basando la mia in/formazione sui siti aggregati nel feed reader rischiavo di perdermi articoli interessanti pubblicati sugli altri siti.

Viceversa se dovessi basare la mia in/formazione sui link che escono da Facebook, sarei travolto da contenuti che non mi interessano. Diverso il caso di Twitter, dove cerco di seguire solo persone che postano link interessanti, qui la possibilità che articoli imperdibili arrivino a me è più alta, ma non siamo ancora all’optimum.

Alla fine arriva Nuzzel

Nuzzel è la soluzione che sto adottando da qualche mese a questa parte (in combinazione con Twitter e Pocket).

Nuzzel è un app e un sito che propone i post più interessanti in base alla popolarità che questi stanno riscuotendo nelle cerchie degli “amici” sui social. Si collega al tuo account Twitter, o Facebook, o Google + … e ti propone ciò che stanno condividendo maggiormente i tuoi “amici” oggi. Una volta che un contenuto raggiunge una determinata soglia di condivisione, Nuzzel ti notifica il post sul sito, nell’app, tramite notifica o con una mail.

Nuzzel è progettato per evitare che tu venga sovraccaricato di informazioni, puoi regolare Nuzzel in modo che le notizie ti arrivino solo dopo aver raggiunto 3 o 4 o 5 (e così via fino ad arrivare a 25) “voti”, con un valore di default che è 6. Il numero massimo di avvisi giornalieri predefinito è 5. Questi valori modesti ti mostrano come la pazienza degli utenti di Nuzzel è una priorità per il team di sviluppatori.

Per ora Nuzzel Inc. è una piccola realtà di sei persone, ma da quanto ho letto hanno come obiettivo quello di smarcarsi da Twitter e dagli altri social e riuscire a mettere in piedi un sistema di discovering di contenuti in target stand alone.

Ti consiglio di provarlo per un po’.

L’editore è un algoritmo, dal Wall Street Journal

Questo che segue è la traduzione di un articolo pubblicato sul Wall Street Journal qualche mese fa. Credo che spieghi molto bene la strategia dei social e delle media company basata sulla condivisione dei contenuti sulle proprie piattaforme. Buona lettura!

Le social media company stanno rapidamente diventando fornitori di notizie per molte persone in tutto il mondo. Le implicazioni di questa rivoluzione sono significative per capire l’ecosistema dell’informazione e la nostra democrazia.

Nel giro di pochi anni, il numero di statunitensi che si informano e recuperano informazioni (che è diverso da guardare i video dei gatti) da Facebook, Google, Apple e Twitter è aumentato in modo consistente. Negli Usa quattro adulti su dieci si informano su Facebook, e uno su dieci su Twitter: lo rivela il Pew Research Center. “Tra i Millennials”, scrivono i ricercatori del Pew, “Facebook è di gran lunga la fonte più diffusa per le notizie e le informazioni sul governo e sulla politica”.

Le media company stanno lavorando sodo per diventare i distributori di notizie dominanti. Gli Instant Articles di Facebook, che permettono alle narrazioni di storia di caricare più velocemente rispetto al passato, Apple ha lanciato Apple News, Google propone le AMP (Accelerated Mobile Pages), mentre Twitter ha i Moments.

Il cambiamento è profondo. Facebook ha implementato algoritmi che determineranno chi vede quali articoli del Washington Post. Due persone con interessi molti simili potrebbero ricevere news diverse, a seconda di quel che i server di Facebook ritengono sia migliore per ciascun lettore. Questo è un cambiamento straordinario da quando un editore di un quotidiano determinava cosa un lettore avrebbe visto sia sul cartaceo che sul sito web del quotidiano.

Mark Zuckerberg ha spiegato di recente: “Penso che la piattaforma sia il centro del nostro prodotto, che le persone utilizzano per condividere e sfruttare i media: ma noi non siamo una società di media”.
I funzionari con cui ho parlato a Google, ad Apple e a Twitter insistono similmente sul fatto che non fanno parte di aziende che producono notizie ma semplicemente forniscono contenuti che i loro algoritmi pensano che le persone vogliano o, nel caso di Facebook e Twitter, che gli amici o i follower degli utenti suggeriscono.

Questa posizione riflette lo storico ruolo delle società di Internet come distributori che forniscono informazioni attraverso ricerche o consigli. Inoltre, è conveniente dal punto di vista commerciale, in quanto permette loro di evitare alcuni problemi complicati, tra cui la diffamazione.

Tuttavia, nel momento in cui la tecnologia evolve, la posizione delle società tecnologiche per cui non sono organizzazioni che producono notizie diventa sempre più insostenibile. Semplicemente presentando gli articoli in modo differente, le società in questione influenzano in modo significativo la maniera di consumare le notizie. In più, stanno inserendosi, con le loro opinioni, sempre di più nel flusso di notizie. Sia Apple News che i Moments di Twitter richiedono una selezione attenta finalizzata a mettere in evidenza le storie importanti: è necessario un elemento di selezione editoriale. Tutti cercano di eliminare alcuni generi di pornografia e le terminologie che incitano all’odio, esercitando anche in questo modo un controllo editoriale.

Inevitabilmente, se la loro importanza e le loro ambizioni crescono, le società tecnologiche saranno indotte a fare di più. Per esempio, Facebook ha recentemente annunciato che avrebbe vietato le vendite private di armi sulla sua piattaforma. Per quanto possa trattarsi di una buona idea, nessuno aveva indicato la vendita di armi come il più preoccupante problema tra i molti post di Facebook. Piuttosto, la policy è scaturita dalle convinzioni del management.

In alternativa, si pensi alla lotta al terrorismo, dove è ancora più ovvia l’insostenibilità della tesi che fa riferimento a mere rete di distribuzione. Lo Stato Islamico e gli altri gruppi radicali sono diventati esperti nell’utilizzo dei social media per il reclutamento di adepti. Le società tecnologiche hanno reagito con misure che, pur essendo totalmente ragionevoli e responsabili, sembrano contraddire la loro posizione come semplici “tubi”. Twitter ha rimosso decine di migliaia di account che promuovevano lo Stato Islamico. Facebook elimina i post che manifestano sostegno ai terroristi o tollerano gli atti violenti. Sono stati anche concessi annunci gratuiti a coloro che manifestano dissenso verso i gruppi estremisti.

Si potrebbe sostenere che le imprese tecnologiche non sono aziende di news perché non hanno giornalisti. Tuttavia, il modello del XX secolo non si adatta realmente alle imprese moderne. Quel che è a disposizione delle società di social media è un tesoro ricco di informazioni relative a chiunque abbia uno smartphone o una connessione a Internet e, soprattutto, relative alle scelte di chiunque. Le informazioni che giungono tramite il data mining, così come gli umori dell’audience a proposito di temi particolari, sono già diventate rilevanti nei dibattiti presidenziali e nelle altre discussioni politiche. Google sta insegnando ai giornalisti come usare i suoi dati: è difficile immaginare che le società tecnologiche resisteranno ancora sfruttando la loro dote di informazioni rimanendo meri “tubi” in un mercato sempre più competitivo.

Nel momento in cui queste aziende entrano ulteriormente nell’arena delle news, sono chiamate a capire come adattare il proprio ruolo editoriale nella società americana e mondiale e come pensare a sé stesse in linea con gli obiettivi della società. Di certo una sfida fondamentale sarà quella di delineare come il loro imperativo finalizzato ai profitti e le richieste degli azionisti interagiranno con il loro ruolo di fornitori di informazioni.

Le aziende di media legacy hanno affrontato questo tema provando, con esiti differenti, a stabilire delle barriere tra i dipartimenti con responsabilità editoriali, quelli che si occupavano di notizie e quelli che si occupavano di pubblicità. Ciò diventerà sempre più difficile in un’epoca in cui gli algoritmi – e non gli editori – controllano spesso il contenuto e gli annunci controllano i consumi di una persona.

Una cittadinanza informata dipende da fonti di notizie solide. Il modo in cui le imprese tecnologiche si posizionano in qualità di fornitori di notizie, e le scelte che compiono come risultato, avranno un effetto non solo sulle imprese stesse, ma anche sulla qualità della nostra democrazia.

Rankinity, il tool SEO per monitorare le posizioni

Rankinity il SEO tool russo

Oggi sono in vena di rivelazioni, sei pronto? Eccola: Rankinity!

Rankinity è un’applicazione web russa che fa una sola cosa (ma la fa benissimo): tiene traccia delle posizioni dei tuoi siti sui motori di ricerca.
Lo sto testando da circa 8 mesi e mi ha conquistato principalmente per 3 motivi: report, piano di abbonamento e real time.

Report come infografiche

Per quanto riguarda i report è esattamente come ogni SEO vorrebbe che fosse: pochi suggerimenti su fantomatiche migliorie SEO da apportare al sito e tutto il focus sui numeri.

Oltre ai grafici e alla classica esportazione, l’intento di Rankinity è quello di mostrare i dati strutturati in modo simile ad una infografica. L’effetto è quello di una visualizzazione immediatamente interpretabile, a colpo d’occhio, sia dagli addetti ai lavori che non.

Pay per query

Per quanto riguarda i costi, Rankinity prevede una formula completamente diversa dai suoi competitor: non c’è nessun abbonamento mensile da pagare, si paga solo per le query che si desidera monitorare. Questo rende Rankinity ideale per chi non può allocare grandi budget su questo genere di report.

Facciamo un esempio reale, con 50 parole chiave da monitorare, alla frequenza di 1 volta ogni 6 giorni (la frequenza la decidiamo noi), il servizio costerà 0,82 $ al mese. Se pensi che al momento dell’iscrizione ti viene offerto un budget di 5 $ in regalo, significa che solo per esserti iscritto potrai monitorare 50 parole chiave, per 6 mesi, senza spendere un Euro.

Il real time

Altra peculiarità di Rankinity è la funzione “real time”. Quando si crea un nuovo progetto o se ne modifica uno esistente, non c’è bisogno di aspettare nemmeno un minuto, alla sezione “Positions” i report sono subito disponibili.

E’ tutto oro quello che luccica? Non credo, infatti per ora utilizzo Rankinity solo per progetti personali, ad esempio per monitorare questo blog.
Per i progetti più grossi e per i clienti che seguo, utilizzo applicazioni di comprovata affidabilità, di un’altra fascia di prezzo. Tuttavia a Rankinity va tutta la mia simpatia, faccio il tifo per loro.

Le altre features

Le altre features rientrano negli stantard di categoria, puoi leggerle tutte qui, ad ogni modo si tratta di:
analisi competitor in SERP
monitorare più motori di ricerca
impostazioni geografiche per Paese o Città
possibilità di condividere la piattaforma con diversi collaboratori
assegnare un’importanza diversa alle parole chiave
possibilità di personalizzazione con il proprio logo
individuare automaticamente i siti web in rapida crescita
servizio API

Ecco, dopo aver diffuso tutto questo amore, questo è il link con tanto di affiliazione a mio beneficio 🙂

Google Voice Search, cosa cambia per i SEO

Ok Google

A settembre 2013 in casa Google è stato svelato l’algoritmo di ricerca Hummingbird, in italiano colibrì, al momento dell’annuncio era già attivo da un mese.

Hummingbird non è un’integrazione all’algoritmo già esistente, come se ne sono viste tante negli ultimi anni, ma un vero e proprio nuovo algoritmo.

E’ stato pensato per rispondere alle cosiddette query conversazionali, quelle query lunghe, complesse e formulate dagli utenti proprio come se stessero parlando con una persona e non con un motore di ricerca: “fioraio aperto, vicino all’ospedale di rimini”

Query così lunghe e colloquiali sono in aumento e non è un caso che Hummingbird sia uscito quasi contemporaneamente con l’implementazione di Voice Search; la ricerca vocale tramite microfono, presente inizialmente solo su google.com e sugli smartphone di oltreoceano.

Dal 1 luglio 2014, la funzione “Ok Google” (tu parli e il tuo smartphone risponde) è attiva anche in Italia.

“Guarda mamma cerco senza mani!”

Voice Search non è solo la risposta di Google all’aumento degli smartphone, ma è anche il rivolgersi ad una nuova “fetta di mercato”.

La ricerca vocale infatti consente agli utenti di fare query (il business core di Google) anche quando hanno le mani impegnate (perché guidano, cucinano…), cosa che fino a 1 anno fa era impossibile.

Questo significa anche più impression per gli inserzionisti AdWords.

Aumentano le query conversazionali

Dal 1998 gli utenti di Google hanno imparato a preferire alle keywords generiche (“fioraio rimini”) le keywords più specifiche composte da più di 2 termini (“fioraio rimini vicino ospedale”), abituati via via a ricevere risultati più precisi.
Attraverso la ricerca vocale questa tendenza si fa ancora più marcata. Gli utenti ora sono portati ad utilizzare un linguaggio più naturale, includendo nella query anche le cosiddette stop words.

E’ lo stesso Matt Cutts a confermarlo:

[…] via voce, le persone sono più propense a usare il linguaggio naturale. Attraverso la voce ci sono meno probabilità che si utilizzino operatori di ricerca o parole chiave, questa è una tendenza che abbiamo già appurato.

Del resto anche Apple incoraggia i propri utenti a “parlare a Siri come se fosse una persona”.

Cosa cambia

Nell’algoritmo classico più parole inserisci nella query meno risultati ottieni, visto che all’aumentare delle parole ci sono via via meno possibilità di trovarle tutte in un solo documento presente nell’indice.

Al contrario le aspettative dell’utente che usa Voice Search saranno all’esatto opposto, quando formula una query l’utente si aspetta che più sarà dettagliato e specifico nel parlare, più risultati pertinenti otterrà.

Questo è quanto viene confermato anche dalla parole di Matt Cutts:

[…] dovremo cambiare un po’ il nostro punto di vista, perché normalmente se tu aggiungi parole ad una query, stai inconsciamente aggiungendo un ‘and’ tra ogi parola, e così facendo, aggiungendo parola su parola, otterrai via via meno risultati, perché ci sono meno documenti che contengono tutte quelle parole. Quello che si aspettano gli utenti invece è che più parleranno più risultati otterranno, perché ci hanno fornito più dettagli; sicuramente dovremo cambiare il punto di vista per cercare di estrarre il SENSO della ricerca, “basterà” riassumere quello che stanno cercando, e trovare i risultati che combaciano all’idea che c’è dietro alla query.

Hummingbird dovrà interpretare le “ricerche colloquiali”, capirne il senso e associarle alle keywords rilevanti presenti nei documenti già indicizzati.

L’algoritmo farà questo gestendo in modo diverso le query più lunghe, cercando di contestualizzarle e di capirne il significato nella sua interezza, piuttosto che focalizzarsi solo alcune parole chiave contenute nella query. Diciamo che dovrà leggere fra le righe, anche forte del fatto di conoscere il dispositivo (mobile o desktop) e la posizione di chi effettua la ricerca.

Cosa cambia per la SEO

Voice Search non è una nuova sfida solo per i motori di ricerca, ma rappresenta nuove opportunità anche per i SEO.

Ricerca vocale significa sintassi più naturale nelle query, dovremo aspettarci sempre più keyphrases al posto delle keywords, ovviamente non è una novità, ma la long tail acquisterà ancora più importanza all’interno della strategia SEO.

Si potrà pensare inoltre di utilizzare espressioni più colloquiali nei contenuti. Non sto dicendo di allungare forzatamente i testi, di snaturare lo stile o di scrivere in dialetto ma, tornado all’esempio di prima, si dovrà tenere presente che floricoltore, fiorista e fioreria saranno forse più corretti, ma la gente dice fioraio!

Creare una pagina FAQ

Un suggerimento valido per ampliare ulteriormente le keyphrases della long tail, senza forzare la mano, è quella di pensare a quali domande potrebbero avere i potenziali clienti e creare una pagina con tutte le domande più frequenti (frequently asked questions o FAQ).

Immaginando quali parole potrebbero utilizzare gli utenti per formulare una domanda, non sarà impossibile arrivare a scrivere delle FAQ coincidenti quasi al 100% con le query vocali.

Google e il computer di Star Trek

Scotty: Computer! Computer? Ciao, computer …
Dr. Nichols: Basta usare la tastiera.
Scotty: Tastiera? Che antiquato!

Star Trek IV: Rotta verso la Terra

L’obiettivo dichiarato di Google è quello di fornire risposte dirette alle query, possibilmente senza che questi debbano visitare questo o quel sito. Sono anni che a Mountain View si vedono come motore di risposta piuttosto che di ricerca.

Come disse l’anno scorso Amitabh Kumar “Amit” Singhal (senior vice president and software engineer):

Presto sarete in grado di dire ‘OK Google, ci sarà il sole questo week end a Santa Cruz?’ e ottenere una risposta a voce. Allora potrete continuare una conversazione con il vostro smartphone aggiungendo ‘quanto dista da qui Santa Cruz?’ […] Google vi darà a voce le risposte.

In questo scenario, in cui Google cercherà sempre di più di conservare la visita, sarà importante anche avere una strategia local e un profilo aggiornato su Google My Business.

Insomma a Google si aspettano un futuro alla Star Trek, purché nessuno nomini Hal 9000 🙂

5 tool per tenere sotto controllo i link in uscita

LinkPatrol

Quando mi capita di spiegare il concetto di link popularity ad un cliente o a un corso, utilizzo una metafora legata all’autorità professionale in un determinato settore.
Esempio.
Se il chirurgo Derek Shepherd (eh sì, mia moglie è una fan di Grey’s Anatomy) è molto conosciuto fra i suoi colleghi, ci sono buone possibilità che sia un buon chirurgo, se i colleghi sono autorevoli la credibilità di Derek aumenta agli occhi dei pazienti.
Il tuo sito in questo caso sarebbe Derek Shepherd.
Se il tuo sito è linkato da molti siti autorevoli e simili al tuo, è probabile che il tuo sia un buon sito.

Che i link in ingresso siano molto importanti per avere una buona autorità/visibilità sui motori di ricerca è una cosa abbastanza nota, fin qui nulla di nuovo. Quello che spesso si trascura però è che i link in uscita sono altrettanto importanti di quelli in entrata.
I link che partono dal tuo sito verso altri siti la dicono lunga e in alcuni casi possono influire negativamente sull’autorità del sito.
Torniamo alla metafora di prima: se il chirurgo Derek Shepherd, oltre ad essere molto conosciuto dai colleghi, frequentasse a sua volta gente poco raccomandabile, ne perderebbe in credibilità!

Vale lo stesso per il tuo sito che oltre ad essere linkato deve a sua volta linkare siti autorevoli. Attenzione, non puoi ignorare il problema non linkando nessuno o coltivando solo rapporti di link reciproci: non è così che si misura la popolarità!
Entrambi i casi poi puzzano di SEO lontano un miglio e quando c’è puzza di SEO Google si focalizza e “ti fa le pulci”.

Appurato che i link in uscita la dicono lunga sulla credibilità del tuo sito, capisci come sia importante avere un controllo totale sui di essi.
Prova a pensare che cosa accadrebbe se un sito che hai linkato 2 anni fa fosse scaduto e al suo indirizzo ora ci fosse un sito “spammoso”. In un attimo avresti la reputazione sporcata agli occhi dei motori di ricerca (con tutto quello che ne potrebbe conseguire).

Ecco 5 tool che utilizzo per monitorare la situazione dei link in uscita. Nello specifico io li uso per controllare che all’interno di un dominio non ci siano link rotti (o broken link o pagine 404) o link che redirigono verso siti che non avevo davvero intenzione di linkare.

1. Xenu

Xenu è un software open source gratuito per desktop, non esiste una versione cloud. Xenu ti offre la possibilità di individuare i link rotti, sia quelli che puntano internamente al sito che quelli verso l’esterno. Entrambe le tipologie, per motivi diversi, sono da correggere.

2. ScreamFrog

Screaming Frog è un tool SEO piuttosto completo, fa parecchie cose e bene, una delle quali è navigare il tuo sito alla ricerca di link rotti. Anche questo è un software desktop, ma non è open source, prevede una versione free con un limite di 500 url scansionate per sito. La versione senza limiti costa 99 $ all’anno.

3. Broken Link Checker

Broken Link Checker è un plugin per WordPress gratuito e davvero ben fatto. Non ha altre funzioni se non quella di scovare link rotti dentro al blog. Oltre ai link presenti nel corpo del post questo plugin da un’occhiata anche ai link nelle firme dei commenti e a quelli posti nelle immagini. I report vengono spediti direttamente per email e c’è una pagina da cui è possibile sistemare i link rotti senza doversi aprire i post uno ad uno. Molto utile!

4. Google Webmaster Tools

Nella sezione “Salute” / “Errori di Scansione” del Webmaster Tools di Google sono disponibili tutte le pagine 404 che Google ha rilevato sul tuo sito. In questo caso non si tratta di link verso l’esterno, ma di link interni che puntano a pagine che ora non esistono più.
Google continua richiede ossessivamente al tuo sito pagine che ora non esistono più, lo fa perché ha trovato un link su un altro sito web o perché c’è un link rotto all’interno del tuo sito.
In quest’ultimo caso è bene correggere i link per non disperdere PageRank (ma qui ci vorrebbe un’altro post) e per migliorare la user experience del sito.

5. LinkPatrol

LinkPatrol è un nuovo plugin per WordPress sviluppato da Search Engine Journal, non è gratuito e costa 25 $ per ogni sito su cui viene attivato (fino al 22 luglio poi finita l’offerta lancio costerà 50 $).
LinkPatrol permette di generare dei report che mostrano tutti i domini linkati all’interno del proprio blog e un’analisi è corredata di tutti gli ancor text.
Oltre alla scansione e alla reportistica è possibile correggere i link o sterilizzarli con un “no folloW” sia singolarmente che a livello di dominio. In pratica, con una sola operazione, è possibile eliminare o sterilizzare tutti i link che dal tuo sito puntano a verso uno specifico dominio.
Sembra uno strumento valido e lo segnalo volentieri, ma non l’ho ancora potuto vedere all’opera.