Boeiend, net nu het IAB met een gedragscode komt over zoekmachine spam is er op SearchEngineWatch een discussie gaande over wie er nu de schuldige is aan zoekmachine spam: When are pages “spam”?.
Het gaat er in feite om of de SEO, zoekmachine optimalisatie, dat is gedaan op de pagina’s of website de regels overtreedt, of dat de zoekmachine niet in staat is om deze pagina’s te filteren. Wie is dan de schuldige?
Zolang de juiste informatie wordt getoond, is degene die aan het zoeken is blij (ook al worden er schimmige technieken toegepast): hij vindt tenslotte wat hij zocht. Is het dan verkeerd dat deze SEO’er schimmige technieken toe heeft gepast? Volgens de gedragscode wel, maar voor degene die aan het zoeken is niet. Het probleem ligt niet bij de SEO’er, maar bij het onvermogen van de zoekmachine om een algorithme te ontwikkelen die schimmige technieken eruit kan filteren.
Aaron Wall van SEOBook vat het uitstekend samen:
“Search Engine Spam:
Spam is unsolicited marketing.
When people get bad search results they are making a request…the results are not unsolicited.
When the results are wonderful and search engines sell a ton of ads that is great. When the results suck that problem is not mine or yours, it is the search engines problem.
Broken Algorithms
Search engine spam should be reframed as “broken algorithms.”
Often SEOs fight over defining what search engine spam is and sometimes even a random moral or ethical guideline is pulled into the arguement.
Search engine spam is not the problem of the SEO. If we want to reframe the issue to put the blame where it belongs that is cool, but there is no reason for us to waste time and effort fighting over trying to arbitrarily define “what search engine spam is.” “