Archivio Autore

Aggiornamenti di Google del 2014

Come tutti sapranno, Google è in continuo mutamento, ci sono moltissime persone che operano in modo tale da cercare di migliorare sempre questo particolarissimo algoritmo, avvicinandolo sempre di più alla mente umana ma sempre non tralasciando l’aspetto commerciale visto che si tratta di un’azienda, in questo articolo prenderemo in considerazione gli aggiornamenti del 2014.

  • Giugno

con l’aggiornamento di giugno scompaiono le faccine relative all’autorship, eliminando le foto degli autori dalle serp.

L’autorship era nato sempre a giugno ma del 2011, e annunciato da Cutts in uno dei suoi video dove spiegava questa novità, che però prese piede un pò di tempo dopo, nel 2012 quando si iniziò ad utilizzarla in maniera massiccia da tutta la comunità Seo e non, si parlò molto dell’utilizzo di questo tag, venne introdotta perchè si pensava che “metterci la faccia” poteva essere un motivo in più per clikkare sul risultato della ricerca, in seguito si parlò anche che sarebbe potuta diventare anche motivo di rank, scatenando il fermento nella comunità stessa.

Poi come abbiamo detto, dopo due mesi di coma, Mueller annunciò che l’autorship veniva eliminato lasciando in un primo momento solo il nome e il cognome, per poi circa due mesi più tardi eliminare anche quello, il motivo non si è ben capito, molti pensano che tale operazione attirasse fin troppi clik tanto da svantaggiare la pubblicità a pagamento, niente di più facile.

  • Luglio

Google Pigeon, è il nuovo aggiornamento di luglio, così chiamato dalla search engine land perchè, trattando dei risultati di ricerca locali, è molto simile al piccione che ritrova sempre la strada di casa.

Verso la fine del mese, iniziarono a mutare i risultati di ricerca locali, ci furono i primi personaggi che studiavano le serp che si accorsero tempestivamente che qualcosa stava cambiando, e infatti l’aggiornamento era già in atto il giorno stesso in cui venne annunciato, a differenza di quanto si pensasse che era stato lanciato solo negli Usa, il fine era quello di garantire dei risultati quanto più utili e rilevanti, vicini in tutti i sensi,  favorendo la ricerca da mobile e restituendo informazioni relative alla prossimità dalla quale si effettua la ricerca.

Anche in questo caso, analizzando i settori che l’aggiornamento ha penalizzato, sembra ci sia di mezzo sempre lo stesso fine, ossia quello di massimizzare l’introito da adwords per ovvi motivi.

  • Settembre

Con Google Panda, cambiano molte cose, è un aggiornamento molto importante che segna una svolta nei risultati di ricerca, infatti prima di questo erano nate tante situazioni che sfruttavano con contenuti approssimativi, guadagni facili da adsense, questo algoritmo era nato per penalizzare tutti quei contenuti non propriamente utili alle ricerche dell’utente, quindi vennero penalizzati tutti quei portali, aggregatori di notizie e siti di bassa qualità con contenuti duplicati, nati solo per attirare i clik e guadagnare con il minimo sforzo, senza soddisfare quindi il principio fondamentale per il quale il motore di ricerca stava lavorando, migliorare l’esperienza nella ricerca.

  • Ottobre

Penguin, altro upgrade che ha cambiato il mondo del web, tanto che l’era dei siti si differenzia tra prima e dopo Penguin, un algoritmo che viene lanciato ad intervalli regolari e che va a colpire lo spam, quindi link di bassa qualità, scambio di link, compravendita di link, mirando quindi ai profili off-page, il problema si manifesta quando si viene colpiti dalla penalizzazione, in quanto per uscirne nella maggior parte dei casi si deve attendere la riconsiderazione di Penguin che spesso può tardare anche di un anno.

Per uscirne, bisogna andare ad agire quindi sui backlinks tramite i vari tool a disposizione, come ad esempio majestic,  andando ad analizzare link per link e dove possibile chiedere l’eliminazione, mentre per il resto procedere con il disawow, altro strumento messo a disposizione sempre da Google.

CONTATTAMI!

Follow o nofollow

Follow o nofollow, questo è il problema.

L’argomento è un pò controverso, in quanto Google ci fornisce a volte indicazioni contrastanti, nel caso dei link ad esempio c’è veramente molto su cui parlare, per l’importanza che hanno a livello di rank, quindi capirete che è un argomento molto delicato.

Google è sempre alla ricerca di novità, i crowler viaggiano ed esplorano alla ricerca di nuove situazioni, nuove tendenze, nuovi portali, insomma cercano tutto quello che è presente nella rete e anche quello che lo sarà, cercando di andare a scavare nei siti i vari collegamenti, ad esempio, se noi vogliamo far crescere la curiosità del motore dovremmo iniziare a parlare di qualcosa che ancora non è presente e il motore incuriosito cercherà tra i vari link presenti nei portali, di scovare questa novità, questo lo farà esplorando talvolta i link presenti, quindi per questo mettere un nofollow potrebbe essere limitativo, mentre è molto meglio un bel follow che porterà a scovare la nostra novità a Google, ampliando la sua rete di conoscenza.

Sapete poi che un link follow alla vostra pagina del sito, proveniente da un portale autorevole e magari anche tematico, vi sarà di aiuto per far capire al motore che ci siete e soprattutto che siete una fonte attendibile perchè citati da fonte autorevole, e proprio in funzione di ciò si sono scatenate una serie di situazioni a catena, tipo la compra vendita di link, siti dove poter inserire link in autonomia, guest post, digital pr, tanto da far uscire un algoritmo che andava e va proprio a caccia di queste azioni non propriamente naturali, infatti Google favorisce queste operazioni quando si trova davanti a citazioni naturali e non forzate o concordate, quindi per ovviare al problema dell’interpretazione da parte del motore di ricerca e conseguente penalizzazione, il mio consiglio è quello di mettere sempre il rel=nofollow, tranne che in casi chiaramente favorevoli e utili.

Per finire non specificare nulla significherà follow, perchè il rel=follow non esiste, oppure ci sono plugin appositi che metteranno il nofollow in tutti i link presenti sul vostro sito.

Follow o nofollow questo era il problema!!!

Schema.org

Schema.org è un sito che tramite un linguaggio condiviso dai principali motori di ricerca per la formattazione dei testi html, assegna significati univoci e soprattutto interpretabili dai motori di ricerca per un corretto e funzionale utilizzo a seconda delle occasioni, migliorando la visualizzazione nei risultati di ricerca.

Utilizzare quindi un markup univoco renderà più facile il lavoro dei motori che non dovranno interpretare a caso le vostre informazioni, ma saranno aiutati da questo linguaggio condiviso, il tutto per migliorare come solito l’esperienza utente, fornendo risultati quanto più vicini possibili alle aspettative, al contesto e alla cache di ricerca.

La versione non è completa infatti si stanno ancora apportando modifiche per la versione 2  che sarà quella definitiva, continuando a perfezionare tutte le viarie voci in relazione al contesto in cui vengono inserite, l’utilizzo di tale vocabolario di schema.org viene utilizzato tramite tre diverse tipologie, quella più utilizzata è il Microdata, vediamo alcuni esempi di termini che si utilizzano per completare una descrizione tematica, prendendo come esempio i dati per descrivere una persona:

  1. <Div itemscope itemtype = “http://schema.org/Person” >
  2.   <Span itemprop = “nome” > Jane Doe </ span>
  3.   <Img src = “janedoe.jpg” itemprop = “image” alt = “Foto di Jane Joe” />
  4.   <Span itemprop = “jobTitle” > Professor </ span>
  5.   <Div itemprop = “indirizzo” itemscope itemtype = “http://schema.org/PostalAddress” >
  6.     <Span itemprop = “streetAddress” >
  7.       20341 Whitworth Institute
  8.       405 N. Whitworth
  9.     </ Span>
  10.     <Span itemprop = “addressLocality” > Seattle </ span> ,
  11.     <Span itemprop = “addressRegion” > WA </ span>
  12.     <Span itemprop = “postalCode” > 98052 </ span>
  13.   </ Div>
  14.   <Span itemprop = “telephone” > (425) 123-4567 </ span>
  15.   <A href = “mailto: jane-doe@xyz.edu” itemprop = “email” >
  16.     jane-doe@xyz.edu </a>
  17.   Home page di Jane:
  18.   <A href = “http://www.janedoe.com” itemprop = “url” > janedoe.com </a>
  19.   Gli studenti laureati:
  20.   <A href = “http://www.xyz.edu/students/alicejones.html” itemprop = “collega” >
  21.     Alice Jones </a>
  22.   <A href = “http://www.xyz.edu/students/bobsmith.html” itemprop = “collega” >
  23.     Bob Smith </a>
  24. </ Div>

(esempio preso dal sito schema.org)

Con questo linguaggio, andiamo ad istruire i motori fornendo informazioni su ogni campo di dato inserito, in questo modo loro stessi, si cureranno di fornire risultati dinamici a seconda del tipo di ricerca effettuata dall’utente. Oltre a schema.org, Google ci fornisce un tool che analizza i markup del nostro sito, dove inserendo la sorgente da analizzare ci fa vedere come il nostro tema ha in automatico strutturato i dati, idem su Webmaster tool, dove sotto la voce del menù di sx, troviamo “evidenziatore di dati”, anche questo ci aiuta ad istruire il motore, dandoci la possibilità di assegnare tag ad ogni campo di dati.

CONTATTAMI!

Seo On page

La parola Seo sta a significare Search Engine Optimization e si divide principalmente in due attività, Seo on page e Seo off page.

La Seo on page tratta di tutte quelle attività che noi andremo a fare sul nostro sito, mentre la Seo offpage tratta di tutte quelle azioni che andremo a fare al di fuori del nostro sito web, quest’ultima possiamo chiamarla anche attività di web marketing ma questi sono solo dettagli…

La Seo in generale comunque comprende tutte quelle azioni atte a ottimizzare il sito web per il posizionamento sui motori di ricerca, partiamo dal presupposto che fare Seo non significa fare il mago, diffidate da chiunque pubblicizzi l’attività di posizionamento sui motori tipo “posizionamento in prima pagina su Google” senza neanche prendere in considerazione una chiave ben precisa, fare Seo, significa invece, seguire le direttive nascoste che i motori di ricerca mettono in campo con i loro continui aggiornamenti, quindi ciò che oggi può essere vero domani potrà essere falso, quindi la garanzia nessuno di noi può averla, magari i più bravi potranno anticipare tra le righe le tendenze, facendosi trovare preparati nel momento in cui l’aggiornamento entra in campo, e non incorrere in penalizzazioni.

Seo On page:

  1. Partiamo dal nome del dominio che sia riconducibile al nostro brand,  che abbia il top level domain adatto, e perchè no se possibile, anche che contenga la nostra parola chiave principale
  2. Scelta dell’hosting, influente per la velocità di caricamento, fattore importante di rank, ci sono hosting condivisi o dedicati, tutto dipende da cosa vi aspettate dal vostro portale e da quale progetto avete creato, se avete un sito già online e volete vedere con chi condividete il vostro host provate con questo tool: http://www.yougetsignal.com/tools/web-sites-on-web-server/
  3. Scelta delle parole chiave magari con Ubersuggest o con lo strumento di Google trend o keyword Eye
  4. Scelta del titolo della pagina, che sia unico, focalizzato per determinate keyword, magari 1 ancora meglio, lungo max 12 parole (sono quelle che Google indicizza) che rispecchi l’argomento della pagina, che non contenga keyword stuffing.
  5. Meta descrizione della pagina, sempre univoca, che termini con un punto, naturale,  che contenga informazioni all’utente che ci cerca.
  6. Ottimizzazione delle immagini, meglio se con una Sitemap personalizzata, nominate con un nome coerente con il contesto, compreso di tag alt sempre coerente.
  7. Url Seo friendly, ci sono molti plugin tipo WordPress Seo by Yoast che ci aiutano con i permalink, la giusta impostazione comunque dovrebbe essere questa: /%category%/%postname%.php
  8. Creare una Sitemap xml, ossia l’elenco delle pagine xml di un sito web
  9. Meta tag robots, cioè colui che ha il compito di indicare ai crowler le sezioni ad esso accessibili e non indicizzabili sfruttando il protocollo Rep
  10. File robots txt, è un file di testo che viene letto da tutti i motori prima di indicizzare un sito, deve essere nomitato robots.txt e deve risiedere nella root del sito, indica cosa scaricare e non dal sito
  11. Tag h1-h2-h3 che servono ad enfatizzare testo per i motori
  12. Microdati e schema.org, i microdati sono il linguaggio ufficiale riconosciuto per schema.org come standard per il markup semantico, ossia informazioni strutturate in modo semantico che vengono date al motore di ricerca, da utilizzare soprattutto nell’ecommerce.
  13. Rel canonical, strutturare il sito in modo da non duplicare le nostre pagine
  14. Mobile Friendly, da poco fattore di rank, ossia far si che il vostro sito sia ben visibile anche da apparecchi mobili

Queste sono alcune delle regole Seo on page da seguire, se avete bisogno di altre informazioni o di mettere in pratica queste regole sul vostro sito non esitate a contattarmi.

Operatori di Google

Si parla sempre di tool, programmi, strumenti di analisi complessi, ma molti non sanno che per analizzare anche in maniera piuttosto approfondita, basterebbe conoscere gli operatori di Google.

Si, proprio lui ci mette a disposizione i suoi dati, basta conoscere gli operatori e soprattutto incrociarli e ricavarne tutte le informazioni che ci servono, i comandi sono moltissimi e come detto una volta che uno li conosce, basta incrociare i risultati o ancora meglio saper utilizzare più operatori insieme per avere a nostra disposizione tutte le informazioni relative ai nostri competitors o meglio al nostro sito che magari in quel momento stiamo analizzando.

Possiamo ricevere risultati di tuti i tipi e con tutti i tipi di filtro, dai risultati contestuali del define, a quelli proprio con exact macht del virgolettato, addirittura ci sono cose che neanche immaginate, tipo file nascosti, cronologie di ricerca, file di testo, documenti personali, ecc; di seguito ve ne elencherò alcuni, ma potrete trovarli nella pagina di supporto di Google stesso, relativa agli operatori di Google.

  • site:nomesito (per vedere tutte le pagine indicizzate)
  • related:nomesito (per vedere i risultati semantici che Google attribuisce al sito)
  • info:nomedominio (per avere informazioni sul sito)
  • nomedominio-site:nomedominio (per vedere chi parla del sito)
  • inanchor:nomedominio (per vedere una sola parola, ancora, del sito)
  • allinanchor:nomedominio (per vedere + parole insieme, sempre relative alle ancore)
  • link:nomedominio (per vedere un campione di link che puntano al sito, mette in ordine i siti con più link generalmente)
  • inurl:nomedominio (per cercare una parola sull’url)
  • allinurl:nomedominio (per cercare più parole)
  • intitle:nomedominio (per cercare nel titolo una parola)
  • allintitle:nomedominio (per più parole nel titolo)
  • filetype: (con questo comando spesso escono risultati imbarazzanti)
  • define:parolachiave (escono risultati semantici alla ns parola indicata)
  • cache:nomedominio (escono i risulati relativi alla cache memorizzata)

Insomma, questi sono i più utilizzati degli operatori di Google, ma ce ne sono molti altri, come detto sono fondamentali sia per capire il sito nostro o quello di un competitors, ma soprattutto sono fondamentali per capire ciò che Google ha capito… e questo non è un dettaglio!

Contattami ora!

Ricerca vocale su Google

Ciao a tutti, volevo sconvolgervi con questa news… sapevate che è possibile riascoltare la vostra ricerca vocale su Google?

ricerca vocale su Google

Eh si è proprio così, come sapete vengono immagazzinate numerosissime informazioni, dicono loro, al fine di migliorare i servizi, e anche in questo caso si difendono dicendo di utilizzare le nostre ricerche vocali per migliorare la qualità del riconoscimento dei comandi, tipo “Ok Google” per iniziar una ricerca, ovviamente per ascoltale viene chiesto di inserire la password del vostro account, oltre ad essserci anche la possibilità di poter cancellare la cronologia con la possibile conseguenza che poi il servizio non funzionarà al meglio.

Vi metto il link per accedere alla cronologia per ascoltare le vostre ricerche vocali o per cancellarle.

TracciaWiki

Tracciawiki è uno strumento realizzato dallo staff di Esperto Seo, che serve per sfruttare la notorietà di Wikipedia per portare traffico sul proprio sito.

Sfruttare questa attività significa, andare ad integrare articoli pertinenti con il nostro argomento, inserendo link verso il nostro sito, il tutto all’interno di Wikipedia, come potrete vedere, già in molti utilizzano questa tecnica, basta digitare bit.ly/tracciawiki e digitare nell’apposita casella di ricerca il sito per il quale vorrete vedere i risultati, per capire come già molte aziende interagiscono con questo tipo di attività con risultati decisamente importanti, potrete utilizzare il servizio anche direttamente dal sito di Esperto Seo che trovate sopra.

Facendo una ricerca quindi inserendo il nome del sito concorrente (senza http davanti) potrete effettuare diversi tipi di risultati a seconda della domanda che inserirete, ossia ricerca con www, senza www, con asterisco, insomma le possibili strade da percorrere sono diverse, non vi resta che utilizzarlo, ma soprattutto non vi resta che sfruttare wikipedia, integrandolo con informazioni utili agli utenti e perchè no, sfruttandolo per avere maggior traffico, non pensate di utilizzarlo per fare link building perchè ovviamente i link sono tutti nofollow.

Se penso che questo articolo sia interessante condividili con i tuoi amici.

Contattami ora!

Screaming frog seo spider

Screaming frog seo spider, è uno strumento molto utile perchè simula lo spider di Google, scandagliando il sito evidenziando molti aspetti utili da tenere sotto controllo.

Potete scaricarlo nella versione gratuita nel link sopra riportato,  è uno strumento abbastanza comprensibile, anche per chi si avvicina al mestiere del seo in modo non troppo approfondito, ci sono versioni disponibili per Windows, Mac e Ubuntu, a seconda del vostro sistema operativo, i limiti della free versione sono i seguenti:

  • Limite di scansione per max 500 url
  • accesso ad un numero limitato di funzioni di configurazione
  • impossibilità di salvare
  • limite di ricerca nel codice sorgente del sito
  • impossibilità di accedere al supporto desk

Per acquistarlo il prezzo per la singola licenza è di 99 dollari esclusa iva.

screaming frog

Screaming frog seo spider, vi aiuterà ad esplicare le seguenti funzioni e ricerche:

  • verifica eventuali errori del server
  • Reindirizzamenti permanenti o temporanei, 302/301
  • Link esterni  e relativi codici di stato
  • Problemi URI
  • Pagine  con contenuti duplicati
  • verifica dei titoli delle pagine come h1-h2 ecc, con relativa lunghezza, mancanza o duplicati
  • verifica delle meta descrizioni  con relativa lunghezza, mancanti o duplicati
  • Meta Keywords
  • H1 – assente, duplicato più di 70 caratteri
  • H2 – assente, duplicato più di 70 caratteri
  • Robots Meta – Index, noindex, follow, nofollow, noarchive, nosnippet, noodp, noydir etc
  • Refresh Meta – compresa la pagina di destinazione e tempo di caricamento
  • Elemento link Canonical e intestazioni HTTP canonical
  • X-Robots-Tag
  • rel = “next” e rel = “prev”
  • Dimensioni delle cartelle
  • profondità delle pagine
  • Inlinks – Tutte le pagine che si collegano a un URI
  • Outlinks – Tutte le pagine di un URI collegate all’esterno
  • Anchor Text – Tutti i link di testo, testo alternativo di immagini con link
  • Follow e Nofollow – A livello di collegamento (vero / falso)
  • Immagini – Tutti gli URI con il link immagine e tutte le immagini da una determinata pagina. Immagini più di 100kb, manca del testo alt, alt testo sopra 100 caratteri
  • User-Agent Switcher – Crawl come Googlebot, Bingbot, Yahoo! Slurp, user-agent mobili o il personalizzato UA.
  • Redirect Chains – Scopri reindirizzamenti catene e loop.
  • Source Code Custom Search, consente di trovare tutto quello che vuoi nel codice sorgente di un sito web! Se questo è il codice di analisi, un testo specifico, o il codice ecc
  • Sitemap Generator XML – È possibile creare una sitemap XML di base

Contattami ora!

Facebook sempre più geolocalizzato

Le geolocalizzazione social, è questa la nuova sfida di Facebook Place tips.

Una delle ultime sfide di tendenza, ma già consolidate da applicazioni come Yelp e Foursquare, quella di condividere esperienze su luoghi visitati in comune, tramite una rete wi-fi, o un gps, ci si collega a questa nuova guida, realizzata dalle persone, condividendo immagini ed esperienze, tutto ciò aumenta così la user experience aprendo nuovi orizzonti, sia per i clienti che la utilizzano che per le attività, che ne traggono beneficio, anche se non sempre è così!

Facebook Place Tips

Aprendo Facebook Place Tips, si potranno vedere, le immagini scattate dai nostri amici, le esperienze condivise, i loro commenti, oltre che poter accedere alle informazioni relative ad eventi o informazioni generali, fornite dai titolari delle attività locali, quindi è bene che tutti si adoperino per sfruttare questa occasione, stimolando la condivisione sulle loro pagine di Facebook.

Buona condivisione geolocalizzata a tutti!!!

Ecommerce

Ecommerce: in questo articolo approfondiamo questo argomento, la domanda che molti si fanno è “perchè non riesco a vendere online?”

Ci sono ormai molti temi, preimpostati alla vendita online, con ecommerce preconfigurati, dove basta inserire i prodotti, le informazioni sul pagamento e il gioco sembra fatto, ma poi sorgono le domande…

Allora vediamo perchè il nostro tasso di conversione è molto basso, o nullo, possono essere molti i fattori che determinano il successo relativo al nostro ecommerce:

  • ottimizzazione del sito, seo
  • webmarketing
  • usabilità del sito (importantissimo)
  • Ctr
  • Comunicazione sui social media
  • perchè no, concorrenza e prezzi…

Ricodiamoci sempre, soprattutto se abbiamo concorrenza sui prodotti,  che il risultato della ricerca di Google ci inserirà all’interno di una lista di siti concorrenti, a questo punto entreranno in gioco alcuni fattori principali di una buona ottimizzazione Seo.

Se il nostro risultato sarà chiaro, trasparente, pertinente, e incoraggiante, avrà sicuramente più possibilità di essere cliccato rispetto ad un altro che invece non avrà tutte queste caratteristiche, tipo url formato da numeri o variabili, descrizione inesistente o generale, titolo generico;  capiamo da soli che impostare sin dall’inizio ogni pagina in modo da rispettare tutti i vari Meta, è una fase fondamentale, per questo possiamo farci aiutare dal plugin WordPress Seo by Yoast che ci fornirà l’impostazione dell’editor in modo tale da facilitarci il lavoro con tutti i campi utili all’ottimizzazione Seo.

ecommerce

 

 

 

Dobbiamo fare molta attenzione nell’ impostare i permalink, i vari meta title, meta description e i rich snippet, magari inserendo delle stelline relative alla soddisfazione dei clienti, in modo da fornire già nella prima fase di ricerca, più informazioni possibili all’utente, invogliandolo a sceglierci tra tanti.

Poi una volta entrati, dovremmo continuare a migliorare la fiducia del cliente, con una scheda prodotto altrettanto dettagliata e soprattutto di facile interpretazione, dove andremmo a spiegare nel dettaglio tutte le informazioni relative al prodotto, con foto, meglio se ad alta risoluzione, caratteristiche tecniche, prezzo, disponibilità, immagini correlate, e meglio se abbiamo anche dei feedback di clienti soddisfatti, e indicazioni per eventuale “soddisfatti o rimborsati”.

Ovviamente questo vale per aziende medio piccole, perchè se parliamo invece di grandi brand, le caratteristiche da mettere in evidenza saranno altre, ad esempio se parliamo di Mercedes, è inutile inserire dati scontati ma magari fare leva su fattori diversi.

  • Altro parametro importante da tenere sotto controllo è la velocità di caricamento, un fattore che anche i motori di ricerca stessi utilizzano per posizionarci, quindi sarebbe buona norma utilizzare un server performante e ottimizzare il CMS, per questo possiamo utilizzare GtMetrix, il quale scansionerà la pagina mettendoci in evidenza le eventuali modifiche da apportare per avvicinarci il più possibile al raggiungimento del livello A o del 100%.
  • Eliminare il prodotto o il trasferimento di categoria, generando un errore 404, un danno sia per il cliente che per Google, questo farà perdere la fiducia e ci penalizzerà, quindi teniamolo sotto controllo, intervenendo con un redirect 301 permanente alla pagina prodotto o ad un prodotto correlato, o un redirect 302 temporaneo fino all’inserimento della disponibilità dello stesso.
  • Fidelizziamo il cliente, non dimentichiamoci di loro una volta che effettuano l’acquisto, contattandolo con una newsletter, invogliandolo a rilasciare una recensione, o magari inviando semplicemente prodotti correlati, sempre nei limiti e non essendo troppo invadenti.
  • Se abbiamo molti prodotti, avere un buon motore di ricerca interno sarà molto utile
  • Mobile friendly, avere un tema responsive oltre che essere fattore di rank, sarà molto utile perchè l’utente che ha fretta spesso acquista tramite mobile, quindi perchè farcelo scappare?
  • Fare in modo di non avere troppi passaggi per arrivare all’acquisto, soprattutto se siamo nella versione mobile, in questo modo avremmo anche due versioni separate, una mobile e una desktop, generando due sitemap separate
  • Utilizzare i pulsanti dei social network per far si che anche gli amici dei clienti vedano i nostri prodotti, inserendo o un plugin come “Share this” o i codici generati dai social stessi
  • Sfruttare al meglio le recensioni degli utenti, ancora meglio se, come dicevo prima, le rendiamo visibili anche in serp
  • Verificare e controllare quotidianamente i valori forniti da Webmaster tool soprattutto le “query di ricerca” controllando quelle con CTR più alto e confrontandole talvolta con quelle più basse per ottimizzarle, il CTR sarebbe il rapporto tra la visualizzazione e il click.
  • Idem per Analytics attivando il monitoraggio di ricerca sul sito nella sez. Amministrazione, Impostazioni di vista, abilitando con “attiva” e scrivendo “search_query” sotto sul parametro di ricerca.
  • Ottimizzare le immagini e, se il prodotto ce lo permette, inserire anche un bel video di spiegazione, dimostrando il suo funzionamento
  • Utilizzare un collegamento sicuro https, comunicandolo a Google
  • Come ultima prova, facciamo analizzare il percorso e il sito da una persona diversa, per vedere come esplora o quali saranno i problemi visti da un occhio esterno.
  • Non dimenticatevi, soprattutto se siete ben posizionati, di monitorare la negative Seo tramite i link in entrata, magari con Majestic
  • Se avete intenzione di investire in qualsiasi campagna marketing, monitorate il vostro traffico tramite Analytics, investendo solamente nelle fasce e nei giorni di maggiore traffico, o a seconda di qual’è la vostra strategia, tenete in considerazione i dati forniti.

Se pensi che questo articolo sia interessante condividilo con i tuoi amici, oppure

Contattami ora!