lunedì 24 gennaio 2011

Aggregatori,contenuti duplicati, content Farm: provvedimento da parte di Google?

Oggi leggendo sempre dal blog del Tagliaerbe, non ho potuto soffermarmi sul post "Google dichiara guerra alle Content Farm!", dove poi nascono riflessioni lecite su siti aggregatori e contenuti di bassa qualità prodotti dalle content Farm in base agli argomenti più ricercati su internet.

Bhe che dire, argomento delicato e dalle mille riflessioni, dove per chi naviga su internet e lavora in questo settore vede ogni giorno di tutto e di più e se ci si
sofferma appunto su siti aggregatori, siti con una marea di contenuti ma comunque di bassa qualità o di comunicati stampa e chi ne ha piu' ne metta...potremo stare all'infinito qua a discutere se sono utili o meno, dannosi per chi produce ogni giorno contenuti originali ogni giorno con tanta fatica...

Ognuno di noi ha esperienze diverse e punti di vista diversi...

Non mi staro' a dilungare con l'introduzione, ma voglio condividere alcuni miei punti di vista sull'argomento:

  1. per quanto riguarda gli aggregatori, sinceramente io dividerei aggregatori e aggregatori, dove alcuni li ritengo ben fatti e soprattutto non ti prendono i tuoi feed rss senza il consenso del proprietario, mentre ce ne sono alcuni davvero fatti senza criterio e che ti prendono i tuoi rss senza chiederti niente... I secondi tipi di aggregatori, sinceramente si possono anche penalizzare, mentre i primi che danno un servizio "utile" e che comunque sono fatti con un criterio possono rimanere, a patto che nelle Serp in qualche modo la spunti il contenuto originale...anche se mi rendo conto che il compito e' veramente arduo soprattutto se la fonte originale e' appena creata e ha poco valore e per di piu' non ottimizzata in termini di struttura HTML, velocita', ottimizzazione SEO e tanto altro....Per mia esperienza personale, l'ho sempre spuntata sugli aggregatori anche se mi prendono i miei feed rss...
  2. Content Farm: distinguere un contenuto di valore e un contenuto scritto per i motori di ricerca. Secondo me si sta gia' lavorando da tempo su questo, con brevetti e algoritmi semantici e gestendo tanti siti di vari argomenti, con contenuti inediti e originali (che si traduce in tanta fatica e pazienza prima di ottenere i risultati, dove per vederli ci ho messo mesi scrivendo tutti i giorni...), vedo che questo lavoro a mio avviso lo fa bene se abbinato a una buona logica di struttura del sito, url, link interni, etc...
    Ovviamente mi metto nei panni di un utente normale....e purtroppo a volte possono fare cose in buona fede che possono penalizzarli....
  3. Siti comunicati Stampa: anche qui ci sono siti di comunicati stampa fatti con un minimo di criterio e curati che secondo me meritano di rimanere, anche perche' comunque con il dovuto controllo si possono offrire sempre contenuti freschi della giornata e ci sta che una notizia sia ripubblicata su piu' siti con utenti fidelizzati...che non appariranno forse tutte nell'organico per il filtro di duplicazione di Google, ma per i lettori fedeli del sito che oltre a comunicati stampa "dovrebbe produrre anche contenuti originali", questi possono essere utili. Qui penso che pero' se un sito di comunicati stampa abbia un'alta percentuale di contenuti duplicati di altri siti di comunicati stampa e pochi originali suoi...questo a livello di algoritmo potrebbe penalizzare! Qui potrei dilungarmi davvero tanto, avendo un'esperienza diretta tutti i giorni!
  4. Directory: stesso discorso....
Altre riflessioni che mi vengono in mente non saprei (o forse si...) e anzi se qualcuno mi sta leggendo invito voi a scrivere come la pensate sull'argomenti o tirarne fuori altri inerenti....

Concludendo l'unica cosa certa che posso dire e' che se potete create sempre contenuti originali e inediti se volete durare nel tempo per non avere brute sorprese dopo! (possibilmente sotto la consulenza di qualcuno che ne sa qualcosa...ehehehe!)