Panda Update, atto secondo

Il tanto temuto Panda Update ha iniziato da qualche giorno ad allargarsi: a partire dall’11 Aprile interessa infatti tutte le query anglofone, e non solo quelle targate USA.

Amit Singhal afferma inoltre che il Panda considera ora i segnali di feedback degli utenti (Personal Blocklist?), e che l’impatto dei nuovi fattori ha inciso esclusivamente sul 2% delle query USA (rispetto a quasi il 12% della prima modifica).

Vincitori e Vinti

L’atto secondo del Panda Update ha in realtà colpito duramente una gran quantità di siti, che si erano “salvati” dalla prima botta di fine febbraio.

Fra questi, quello che mi ha maggiormente impressionato è stato eHow:

eHow colpito dal Panda Update

Secondo uno studio di SearchMetrics, eHow.com – property che fa parte di Demand Media, di recente quotata al New York Stock Exchange – ha perso il 53,46% e eHow.co.uk addirittura il 72,30%. Il caso di eHow è assai strano, perché lo stesso Rand Fishkin, intervistato alcuni giorni fa da Robin Good, ha affermato:

“La Panda / Farmer update è un provvedimento specificamente rivolto alle cosiddette content farm, siti come HubPages, Suite101, Ezine articles, ecc.
Ti consiglio vivamente di controllare tali siti e di analizzare cos’hanno rispetto ad altri che non sono stati svalutati, come ad esempio Facebook, Scribd, LinkedIn – ma anche eHow.com che ha fatto meglio in questa transizione di tante altre società.
Confronta queste due tipologie di siti web e noterai che c’è qualcosa di cui ti accorgi subito – qualcosa che avverti, ma che non ti saprei descrivere bene – ma che ti permette di classificare un sito come content farm ed è questo ciò che li ha fregati.”

Evidentemente anche i guru possono sbagliarsi 🙂

Fra gli altri “illustri vinti” ci sono siti di comparazione prezzi/recensioni degli utenti (come ciao.co.uk: -93,83% o dooyoo.co.uk: -94,82%), aggregatori di notizie (come wikio.co.uk: -90,75% e wikio.com: -95,79%) e ovviamente anche siti considerati da molti come content farm (come hubpages.com: -85,72%, suite101.com: -95,39% e ezinearticles.com: -93,69%).

Fra i vincitori, ci sono invece storici quotidiani online (come telegraph.co.uk: +16.98% e ft.com: +16.17%), noti blog (come techcrunch.com: +40,72% e mashable.com: +22.61%) e siti di video (come youtube.com: +18.93% e vimeo.com: +18.85%).

Tutta colpa del Bounce Rate?

Secondo quanto detto da Marcus Tober (CTO e Co-Founder di SearchMetrics) a WebProNews, “sembra che tutti i siti “perdenti” sono quelli con un bounce rate alto e un basso tempo di permanenza sul sito. I siti di comparazione prezzi non sono altro che motori di ricerca di prodotti: clicchi su un prodotto e vai sul sito del merchant. Pertanto, se arrivi a ciao.co.uk da Google e clicchi subito su un prodotto interessante con un buon prezzo, lasci immediatamente quella pagina. Sui “voucher site” è lo stesso. E sulle content farm come eHow, leggi l’articolo e spesso torni indietro su Google o clicchi su un annuncio AdSense.
I “vincitori” sono fonti con maggior trust, dove gli utenti sfogliano e leggono più informazioni, dove il tempo speso sul sito e le pagine visualizzate per visita sono alte.
L’ambizione di Google è offrire all’utente la miglior “search experience” possibile. Ecco perché prediligono pagine ad alto trust, buoni contenuti e siti che hanno dimostrato nel tempo che sono amati dagli utenti.
Questo è un percorso di update che Google ha iniziato da circa 6 mesi.”

Il futuro

Google continua dunque nel suo percorso per far emergere i contenuti di qualità dalle sue SERP.

Scott Huffman ha affermato che, nel solo 2010, Google ha testato più 6.000 modifiche al motore di ricerca, e 500 di queste sono divenute modifiche permanenti.

E nel 2011? Oltre al Panda Update non dimentichiamo Google +1, per il quale Google ha espressamente detto di guardare come ad “uno dei tanti segnali che utilizziamo per determinare la rilevanza e il ranking di una pagina, inclusi i fattori sociali di altri servizi. Per +1, come per tutti i nuovi fattori che regolano il posizionamento, partiremo con cautela per capire come questo fattore può influenzare la qualità delle ricerche nel corso del tempo.”

Condividi su facebook
Facebook
Condividi su google
Google+
Condividi su twitter
Twitter
Condividi su linkedin
LinkedIn
Condividi su pinterest
Pinterest

48 Comments

  • Ok, allora preparo il javascript, appena l’utente prova ad abbandonare il sito, gli parte un loop infinito di alert di conferma 😀

    A parte gli scherzi, ritengo plausibile che Google consideri non proprio il bounce rate, ma qualcosa del genere.

    PS: Robin Good ha caricato l’intervista su youtube il 19 marzo.

  • Condivido quanto dice Mik, Google non considera esattamente il bounce rate (il dato di GA per intenderci), ma il dato riguardante la percentuale di utenti che cliccano sul risultato di una serp, entrano nel sito, tornano subito indietro e nella serp scelgono un altro sito

  • Un sito sui cui non si sfogliano molte pagine non è detto che sia spazzatura, magari riesce a darti l’informazione che cerchi in poco tempo come i siti di comparazione che non trovo inutili, anzi.

    Buona giornata a tutti

  • Il bounce Rate preso da solo, come evidenziato nell’articolo, non significa nulla.
    Se io vado su ciao in maniera consapevole sapendo che trovo una comparazione di prezzi di quel prodotto che cerco,
    trovo quello che voglio
    clicco subito e vado fuori da Ciao.
    Ma ho raggiunto lo scopo della mia ricerca, e quindi sono soddisfatto.

    Questo non può essere il solo fattore per penalizzarmi quindi.

    Molto più probabile invece che venga considerato negativamente il ritorno sulla Serp per scegliere un altro sito.

  • Ma per migliorare la search experience non sarebbe il caso di modificare la tipologia dei risultati?
    Se non erro avevi scritto già un post diverso tempo fa a riguardo, dove siti più temizzati in alcuni casi sono migliori di google, vedi ciao.it o tripadvisor .. google in quel caso è molto dispersivo, ed i problemi non sono legati alle content farm!

  • Anche Marcus Tandler al Be Wizard tiro’ in ballo CTR e tempo di permanenza come elementi strategici per aiutare Google nel posizionamento. Della serie se tu entri su una pagina e scappi via… alla fine quel sito non è poi cosi meritevole.
    Capisco l’obiezione di Luca, penso che questi 2 dati non siano considerati da soli. Se l’utente che fa molto shopping conosce ciao.it entra, guarda il prezzo ed esce, magari pero’ è un utente che torna spesso (e questo google lo vede). Se invece alla fine questi siti sono diventati luoghi di raduno di info più o meno spazzatura… ecco che Google li penalizza.
    chissa se arriva in Italia, chi colpisce…

  • Pure io non credo che il solo bounce possa essere la causa di queste “penalizzazioni”, e se devo dirla tutta mi sembra un po’ superficiale l’affermazione di Marcus Tober (sempre che non sia stata estratta da un contesto più ampio… i giornalisti sono maestri in queste cose 😉 ).

    Piuttosto sono interessato a capire come siti che non avrei mai detto finissero decapitati dal Panda Update, hanno invece fatto un brutta fine: Robin Good mi accennava che il suo MasterNewMedia in lingua inglese ha preso una sonora mazzata, e a questo punto non riesco davvero a trovare un filo che unisca content farm, price compare e aggregatori a cose come MasterNewMedia.org (dove l’originalità dei contenuti non è discutibile): che il motivo sia la colonna centrale nella quale sono “rilanciati” feed di terze parte (e quindi pezzi di contenuti duplicati, presi da altri noti siti)?

  • Ma secondo voi quali sono i parametri limite di bounce e permanenza per non essere colpiti dal Panda?

    Qualcuno conosce i dati dei siti colpiti e non colpiti?

    Possiamo ipotizzare che per essere colpiti devi avere un bounce oltre il 70% e come permanenza meno di 90 secondi?

    Davide tu che ne pensi? Per esempio tagliaerbe che valori ha?

    Inoltre penso che l’algoritmo prenda anche in considerazione se un sito sta su Google News, non vorrei dire una stupidaggine ma sembra che nessuno dei penalizzati era incluso.

    Probabilmente si fidano del controllo manuale che c’e dietro da parte di Gnews per essere inseriti e forse anche questo qualcosa conta.

    Che ne pensate anche di questo?

  • @Angelo: non credo sia corretto “uniformare” il bounce a tipologie diverse di siti.

    Se, per esempio (è il mio caso 🙂 ), parliamo di un blog che pubblica un post al giorno, magari con tanti utenti fidelizzati, è quasi ovvio avere un numero di pagine/visita basso e un tempo medio sul sito basso, unito ad una frequenza di rimbalzo alta.

    Motivo? l’utente fidelizzato entra, legge un articolo, e quindi se ne va… semplicemente perché il giorno prima ha fatto lo stesso, e quindi si legge tutti i giorni l’unico post che pubblico.

    Interessante il punto su Google News: credo anche io che i requisiti qualitativi per essere presenti in Google News “preservino” il sito dall’essere penalizzato dal Panda Update… viceversa sarebbe come se Google ammettesse che fra le sue preziose fonti di contenuti di qualità ci sono delle content farm 🙂

  • @nelli @ Tagliaerbe
    Marcus Tandler affermava proprio quello che dicevo io,
    se sono una directory il cui scopo è rimandare ad altri siti, il fatto di cliccare sul link di uscita è il raggiungimento di un obiettivo, non va considerato bounce rate.

    E la pensano allo stesso modo Avinash Kaushik e altre autorità del settore.

    Questo non va considerato come unico fattore quindi per il Panda Update.

    Le ipotesi che si trovano in giro per il web sono tante. Ne sapremo di più nei prossimi tempi.

  • Aggiungo che lo stesso Robin Good mi ha appena detto sta studiando approfonditamente la cosa, e avrà a breve “prove più tangibili” 😉

  • Sono curioso di vedere cosa succede a Liquida. Il progetto è buono ma il conflitto con quest’ultimo update è evidente.

    L’insostenibile leggerezza del web… 😉 Puoi pianificare, investire ed impegnarti ma c’è sempre qualcuno che può toglierti il terreno da sotto i piedi da un momento all’altro.

  • @Michele @Luca Bove
    per “qualcosa del genere al bounce rate”, intendevo proprio quello quello che dite, solo in maniera ancora più complessa, per proteggersi da click spam.

    E’ da anni che lo sostengo, passavo quasi per pazzo, ora sono in buona e numerosa compagnia.

    Forse con il Panda Update lo sta usando in maniera massiccia, perché ha ormai raccolto una mole di dati enorme, con i quali può aver classificato con certezza complessi pattern comportamentali sulle SERP.

    Comunque il legame con il Panda Update rimane per me solo una ipotesi.

    Concordo che il bounce rate invece, pur essendo simile darebbe informazioni completamente fuorvianti, inoltre non è accessibile a Google per tutti i siti.

  • Comunque, secondo me, sta colpendo pesantemente anche in Italia… nelle serp generaliste vedo “sfracelli”.
    Secondo me lo stanno introducendo pian pianino, pensano che faccia meno male così!!! 🙂

  • i dati di alexa (per quanto inattendibili) sul rapporto pagine visitate / visitatore, freq di rimbalzo, tempo di permanenza etc per masternewmedia sono particolarmente sconfortanti…
    poi, visto uno degli interventi, non lo dico per provocare ma sono pronto a scommettere tutti i blog sullo stile isayblog verranno massacrati da panda. se c’è un esempio di content farm all’italiana (che attenzione non vuole dire solo contenuti copiati, ma di scarsa qualità), non saprei trovarne uno migliore.

  • Quindi potremmo dire che Google ai dati in suo possesso quali frequenza di rimbalzo tempo medio di permanenza sul sito potrebbe aggiungere le info derivanti personal block list ed altri indicatori di qualità.

  • Io mi chiedo se abbia un qualche ruolo in questo senso la presenza in un sito di molti link in uscita…
    E’ un dubbio più generale, se a volte un miglior servizio all’utente non significhi un peggior posizionamento sui motori.
    Chiarisco con un esempio.
    Io curo un sito che tratta di audio, e in ogni articolo della sezione notizie inserisco un link alla pagina del produttore; questo mescolato al fatto che:
    – le notizie sono un numero rilevante in termini di quantità (tipo 10-15 articoli a settimana)
    – in genere si tratta di articoli brevi, che tendono a dare le informazioni essenziali (faccio presente che si tratta di contenuti comunque assolutamente originali, a differenza delle tante traduzioni più o meno automatiche che si vedono in certi siti di notizie)

    ha la conseguenza di avere nel sito una discreta parte dei contenuti fatta di articoli brevi, e tanti link verso l’esterno.

    Ora, secondo me per l’utente, avere un link verso la pagina del prodotto è un valore aggiunto, in quanto chi vuole approfondire può farlo in un attimo, senza dover perdere tempo a cercarsi la pagina stessa.
    Nel tempo però mi sono convinto che se omettessi il link, avrei risultati migliori sui motori.

  • indipendentemente dalla questione che non credo molto, anzi x nulla, alla trasparenza di Google e a quello che dichiara, ci sono x G, e x tutti quelli che fanno searching alcuni parametri molto difficili, se non impossibili oggi, da valutare tramite algoritmi. Due di questi sono toccati in qs bel post di Davide e nei suoi commenti: 1. la qualità dei contenuti. diciamo più esattamente qual’è l’originalità del contenuto, e quale è il contributo del sito per diffonderlo. Al di là di tutta l’algoritmica G ha sicuramente delle mappe ‘compilate a mano’ che definiscono pesature rispetto al valore che G vuole dare nel retrieval degli utenti alla voce 1. Non che lo definiscono in maniera assoluta, ovvio, ma che cmq il contributo moltiplicativo di qs pesatura non sia la statistica, o il Page rank, a deciderlo ma il Page larry, specialm nei primi 1000 domini di ranking mondiale, e guarda caso i siti qui citati sono tutti attorno ai primi cento. 2. Per i siti di tipo aggregatori commerciali, come i ‘trovaprezzi’, la questione è un po’ diversa e riguarda molto diciamo il beneficio generale che puo’ avere il web, e quindi le google-query, rispetto ai price comparison. In effetti c’era nei mesi scorsi un trend pessimo, in cui qualsiasi risorsa merceologica si digitasse, apparivano nella serp di google, ai primi 10 posti almeno 8 trovaprezzi. Un risultato credo x molti, e sicuramente x me, irritante dato che poi rimandavano sempre agli stessi merchant, senza offrire nessuno o ben poco valore aggiunto, tranne quello delle community/sentiment analysis del servizio (e di pochi di questi siti con caratteristiche originali) . A me sembra che qui G operi un filtro opportuno x decellerare almeno questa tendenza alla moltiplicazione di ‘trovaprezzi’, una tendenza che per altro trovo anche molto poco democratica dato che il potere nel mondo dei trovaprezzi è oggi pochissimo legato all’algoritmica, e quindi all’abilità intellettuale, e moltissimo alla forza delle società di affiliazione che ci sono dietro.

  • Questa storia della qualità delle serp non si può più sentire.

    1) Google è una macchina (o meglio, software), ergo – per definizione – *non* può competere con la fantasia dell’uomo. Quindi, ad ogni nuovo aggiornamento di Google, gli spammer adotteranno la *corrispondente* contromisura.
    2) Quando gli spammer adottano le corrispondenti contromisure, i produttori di contenuti “buoni” sono penalizzati, perché i “furbi” stanno in cima alle serp e i “fessi fornitori di qualità” diventano invisibili.
    3) Quando i fornitori di qualità diventano invisibili, dopo un po’ si stufano e cominciano a prendere lezioni dagli spammer…
    4) Alla fine tutti sono spammer e Google è costretto a passare alla successiva “update”.

    Il “core” dell’algoritmo di ranking di Google però, alla fine è sempre quello. Questa roba accade ormai da 10 anni. Il mito “content is king” è un falso mito, perché se non sei visibile, potrai scrivere i contenuti di qualità che ti pare, ma nessuno li leggerà mai. Si tratta di un circolo vizioso creato proprio da Google. Purtroppo per noi, gli altri due motori (Yahoo e Bing) sono ancora peggio.

    A proposito di contenuti di qualità: Google è diventata la succursale di Wikipedia? No, perché se provi a digitare una qualsiasi query composta da una parola, ti appare sempre Wikipedia al primo posto. Ci avete fatto caso? Io vorrei qualcosa di più da un motore di ricerca, non parlo di intelligenza artificiale o di ricerca semantica, ma di semplici e genuini risultati che non siano la classica voce di wikipedia. Ormai sono costretto ad usare tutti gli operatori possibili e immaginabili per riuscire a trovare quello che cerco. Cosa riuscirà a trovare mai, l’utente medio?

  • Liquida “cita” diverse fonti ma raramente approfondisce la notizia. Pochi testi e tanti link. E’ un aggregatore seppure di qualità.

    Per me è un sito a rischio…

    Che poi con gli accessi diretti e i link dai social riesca a vivere quello è un altro discorso.

  • “A proposito di contenuti di qualità: Google è diventata la succursale di Wikipedia? No, perché se provi a digitare una qualsiasi query composta da una parola, ti appare sempre Wikipedia al primo posto.”

    Wikipedia è prima proprio perché il contenuto è importante. Wiki è prima ovunque per due motivi:

    1) Ha citazione esterne, link esterni e in cambio linka esternamente in modalità nofollow.

    2) Distribuisce in maniera gerarchica il pagerank al proprio interno con link dofollow e tutti i contenuti sono organizzati in maniera gerarchica, sfruttando l’accostamento “topico” e “semantico”, con anchor text sensibili.

  • Quando ho letto la frase ” sulle content farm come eHow, leggi l’articolo e spesso torni indietro su Google o clicchi su un annuncio AdSense “, la prima cosa che ho pensato è stata… fà che vogliono penalizzare chi butta l’adsense in prima linea ? Poi dopo ho letto che masternewmedia è stato penalizzato e il mio pensiero è diventato più concreto…

    Fondamentalmente, inserire l’adsense sotto il titolo, diciamo stile cazzotto in faccia, non è il massimo… però a sto punto il caro google se vuole premiare i siti con tante pagine viste, dovrebbe pensare ad un sistema di pagamento diverso da PPC…

    Facciamo un esempio, sul tagliablog ( so che non metteresti mai adsense ) chi cliccherebbe mai ?

    Ma io penso quasi nessuno… tutti conoscono il layout, sono utenti abituali… se invece le visite arrivano quasi tutte dai motori di ricerca, li è diverso…

    un saluto a tutti

  • mi sembra comunque che ad essere colpiti siano soprattutto siti generalisti…

  • Ciao Taglia,

    quando pensi arriverà anche in Italia il Panda update?

  • Un amico mi ha detto che ha già colpito alcuni siti in lingua italiana con server negli USA (ma personalmente non ho avuto modo di riscontrare la cosa).
    Bisognerebbe capire quanto è “difficile” per l’algoritmo adattarsi alle singole sfumature delle singole lingue… comunque non credo ci vorrà molto per lo sbarco in Italia, anche se da noi le content farm non sono così diffuse e non impattano in modo significativo nelle SERP come invece succede negli USA.

  • Ciao Taglia,

    grazie della pronta risposta.

    un caro saluto
    Michele

  • C’è un grande equivoco su questa cosa delle ‘content farm’, in realtà il panda update va a colpire TUTTE le tipologie di siti di bassa qualità secondo google. In questo senso le serp italiane sono MOLTO più piene di spazzatura rispetto a quelle USA o inglesi, quindi io mi aspetto un impatto ancora maggiore in Italia.

  • Ciao Luca,

    secondo te quando arriverà in Italia?

  • credo che ci sia da attendere ancora qualche settimana, ma non esiste nessuna notizia certa a riguardo.
    vorrei far notare anche questo aspetto che non viene mai preso in considerazione, ovvero il fatto che l’update dell’algoritmo prima sia stato lanciato negli usa, poi negli altri paesi di lingua inglese ed infine sarà esteso al resto del mondo. mi sembra di possa desumere che il panda, nato per valuare la ‘qualità’, abbia elementi specifici nell’algoritmo che valutano appunto anche la qualità di un testo dal punto di vista grammaticale etc, quindi specifici per ogni lingua

  • Google Panda arriverà tra fine Maggio e i primi di Giugno in Italia.
    In Europa i problemi più grandi (dopo l’UK) li avranno in ordine:
    Germania
    Italia
    Francia
    Spagna

  • @Luca: di sicuro con Google non c’è niente, ma la fonte è attendibilissima 😉

  • @Angelo di Veroli: Ti conviene iniziare a vendere i blog del network “I Say Blog”…
    Finalmente tutte le content farm verranno spazzate via dal web!!

  • @Francesco: Grazie del consiglio, in effetti avevamo già pensato di investire i 20mila euro del valore del network in idroponica, che dicono che sia il lavoro del futuro. Ci serve un consulente, tu hai da fare o sei sicuro che il tuo business è a prova di qualsiasi scossone?

  • Stupendi i commenti anonimi.
    Ne riparleremo comunque, e lo dico con cognizione di causa 🙂

  • @Francesco: Onestamente non penso che il network isayblog possa venire penalizzato… E sicuramente un lavoro ben fatto e aggiornato costantemente. I siti che verranno penalizzati saranno sicuramente gli aggregatori, sono curioso di vedere l’evolversi di Liquida, che è un pò differente dai classici aggreggatori in giro per il web.

    Staremo a vedere : )

  • @Angelo Di Veroli e Daviv Di Tivoli: sono laureato in medicina e non oso commentare gli articoli che vengono scritti nel blog riguardante questo settore.

    Provo solo vergogna per la presenza di notizie del genere in italia.

    Saluti,
    Francesco.

  • x Francesco: penso che, in Italia, il problema della bassa qualità dei contenuti vada ben oltre la rete internet… servirebbe un panda update anche a livello di televisione e in primis sui nostri politici 🙂

  • @Francesco: capisco, d’altronde come sai non è facile scrivere sul web, basta osservare come hai scritto il mio nome 🙂

    Comunque niente male un laureato in medicina (magari non medico) anonimo che segue i commenti del Tagliablog! Non male anche il veleno in bocca, o forse ti sei mitridatizzato?

    Comunque, la prossima volta, invece di sparare a vanvera, firmati con nome e cognome (magari con presenza sul web, se ce l’hai), e portaci degli esempi.

    Per il resto, siamo tutti in ansia per Panda update, vediamo cosa succede. Fortunatamente nel tempo la nostra attività si è differenziata parecchio, quindi siamo relativamente tranquilli.

  • io penso che anche liquida verrà colpito dal panda update. in fondo non si scosta molto dagli altri aggregatori.

  • @David Di Tivoli: bravo David! 😀 Intanto non vedo l’ora che arrivi Panda Update… Mah, credo che non avrete problemi data l’elevata qualità dei vostri contenuti no?

    Buon weekend a tutti,
    Francesco.

  • @Francesco: Avremo problemi probabilmente, come tanti, e cercheremo di adeguarci. Come dicevo, fortunatamente IsayBlog! differenzia molto, quindi si, siamo in pensiero, ma tranquilli per il nostro business.
    Grazie per il pensiero.

  • @Francesco: certo che sei curioso…rimani anonimo, dici di essere un laureato in medicina e fai critiche generiche senza portare esempi o riferimenti in maniera costruttiva.

    Ma che ci fai quindi su un blog tecnico, a leggere e commentare (più volte) un articolo riguardante google panda?

    Se sei veramente un medico invece di stare qui sopra a perdere tempo e a gufare sui business degli altri pensa a te stesso e al giuramento che hai fatto (sempre se è vero e se l’hai fatto). Potresti impiegare il tuo tempo in qualche pronto soccorso a dare il tuo contributo. Non sarebbe molto meglio e civilmente utile?

    Perdonami ma il tuo commento puzza proprio di troll…..

    Buona domenica 😉

  • Se non ho capito male è in questi giorni che il Panda Update verrà introdotto in Italia? Qualcuno ha già notato delle differenze sostanziali nelle SERP?

  • Secondo una recente dichiarazione di Matt Cutts, il Panda verrà esteso a livello internazionale “probably not in the next couple weeks. Maybe in the next couple months”.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Max Valle

Max Valle

Da oltre 20 anni, fornisco consulenze per aziende e professionisti, che vogliono sviluppare il loro business, 
aumentando i clienti, utilizzando le ultime tecnologie e nel pieno rispetto delle normative vigenti in materia.

Seguimi sui social

Iscriviti alla Newsletter

Main sponsor

Scroll to Top

Utilizziamo i cookie per personalizzare contenuti ed annunci, per fornire funzionalità dei social media e per analizzare il nostro traffico. Condividiamo inoltre informazioni sul modo in cui utilizza il nostro sito con i nostri partner che si occupano di analisi dei dati web, pubblicità e social media, i quali potrebbero combinarle con altre informazioni che ha fornito loro o che hanno raccolto dal suo utilizzo dei loro servizi. Acconsenta ai nostri cookie se continua ad utilizzare il nostro sito web. Per maggiori informazioni visualizza la Privacy & Cookie policy