Da alcuni anni il termine mobile-first é entrato di prepotenza nel vocabolario di chiunque si occupi della gestione di siti internet, o comunque della gestione dei contenuti in rete.

In principio fu il Mobilegeddon

Fu di solo quattro anni fa, esattamente il 21 aprile 2015, il temibile momento passato poi alla storia come “Mobilegeddon”. Ovvero il momento in cui Google aggiornò parte dei suoi algoritmi di valutazione dei siti internet (ranking in gergo, ndr), dichiarando di dare precedenza ai siti internet ottimizzati per il mobile.

Tale scelta fu chiaramente presa alla luce dei dati che dimostravano come la tendenza di navigazione di siti internet e applicazione fosse principalmente da mobile piuttosto che da desktop.

Tale periodo venne vissuto con una certa ansia da parte dei proprietari dei siti web e, come riportato da un articolo del Sole 24 Ore pubblicato il giorno dell’Armageddon, il 65% circa delle aziende del Ftse Mib, non avevano un sito internet ottimizzato per il mobile. Ragion per cui l’algoritmo mobile-first venne mantenuto come uno degli oltre duecento utilizzati da Google e non il principale.

Oggi, invece, a distanza di meno di cinquanta mesi, la stessa azienda di Mountain View rende noto che a partire dal prossimo 1 luglio, tutti i siti saranno scansionati di default sulle versioni mobili.

Mobile-First di default

Si tratta di un tecnicismo per utenti SEO avanzati, ma per rendere semplice il concetto a chiunque, occorre sapere che tutti i motori di ricerca scansionano giornalmente il web con dei software chiamati webbot, bot o crawler. Bing, il motore sviluppato in casa Microsoft per esempio, ha chiamato il proprio crawler bingbot.

Questi software scansionano i siti, raccolgono le informazioni contenute nel loro interno per poi indicizzare e posizionare i contenuti in base ad algoritmi specifici.

Google, dal prossimo mese, utilizzerà di default il mobile-googlebot quando scansionerà nuovi siti internet o pagine mai scansionate in precedenza dal motore.

Questa decisione, dichiara BigG, viene presa con cognizione di causa in virtù del fatto che in base alle loro analisi i nuovi siti internet sono generalmente pronti per questo metodo di scansione.