Category Archives: SEO

SEO en SEA gaan hand in hand

Search Engine Optimization (SEO) en Search Engine Advertising (SEA) zijn verschillende disciplines in online marketing. Veel mensen zien het als ‘het één of het ander’. Wanneer deze twee disciplines echter perfect op elkaar zijn afgestemd dan kunnen ze elkaar enorm versterken. Hoe precies? Dat vertel ik jullie graag!

Zoekwoordenonderzoek

Het grootste raakvlak tussen SEO en SEA is het zoekwoordenonderzoek. Beide disciplines vertrekken vaak vanuit deze stap. Wanneer je weet met welke zoekwoorden de doelgroep naar jouw producten of diensten zoekt, dan kun je als zoekmachinespecialist daarop inspelen.

Door relevante en kwalitatieve zoekwoorden te combineren in de advertentietekst en de bestemmingspagina, zal de kwaliteitsscore van de advertenties groeien en de vindbaarheid van je website hoger liggen.

Hoe beter je SEO, hoe goedkoper je SEA

Wanneer je SEO en SEA goed op elkaar zijn afgestemd dan zal dit leiden tot lagere advertentiekosten en algemeen betere resultaten. Dit heeft vooral te maken met de kwaliteitsscore van je Google AdWords campagne. De kwaliteitsscore geeft de adverteerder een algemene indruk van de kwaliteit van een advertentie – waarbij een score wordt gegeven tussen 1 en 10. Hoe hoger je kwaliteitsscore, hoe lager je kosten per klik.

De kwaliteitsscore van een advertentie wordt vastgesteld door drie factoren: de verwachte klikfrequentie, de advertentierelevantie, en de ervaring op de bestemmingspagina.
Door ervoor te zorgen dat je Google AdWords campagne goed is opgesteld met relevante zoekwoorden en je bestemmingspagina geoptimaliseerd is, verhoog je de kwaliteitsscore. Google bekijkt namelijk of jouw zoekwoord en advertentie aansluiten bij de inhoud van de bestemmingspagina. Relevante content leidt tot goede organische zoekresultaten (SEO) en een hogere kwaliteitsscore in Google AdWords (SEA).

Kwaliteitsscore

Kwaliteitsscore van klant die zowel investeert in SEO als SEA

Het mes snijdt aan twee kanten

Het opzetten en optimaliseren van de Google AdWords campagnes is net zo belangrijk als de teksten op de website waar de bezoeker op terechtkomt. Je bestemmingspagina’s moeten SEO geoptimaliseerd worden. Wanneer de bestemmingspagina geoptimaliseerd is dan zal dit ook een positief effect hebben op de kwaliteitsscore en de kosten per klik. De geoptimaliseerde bestemmingspagina’s gaan ook organisch veel beter ranken. Het mes snijdt dus aan twee kanten.

SEO en SEA bij Seodvize?

Geïnteresseerd in onze SEO en SEA services? Neem contact op voor een vrijblijvend gesprek of offerte.

Seodvize is Google Partner.

Partner Badge

SEO, een druk op de knop?

SEO procesAls u denkt dat u bovenaan de zoekmachines kunt geraken mits een druk op een knop, dan bent u er aan voor de moeite. Het optimaliseren van een website opdat deze topposities gaat bekleden binnen de zoekresultaten is een iteratief proces dat veel tijd en moeite vergt.

Bovenaan staan = betalen?

Versta ons niet verkeerd, u kunt wel degelijk bovenaan de zoekresultaten staan mits een druk op de knop. We hebben het dan niet meer over SEO, maar wel over SEA, wat staat voor Search Engine Advertising. Bij deze vorm van zoekmachinemarketing gaat u gesponsorde plekken kopen binnen de zoekresultaten. Bij zowel Google als Bing verschijnt uw site dan helemaal bovenaan en uiterst rechts onder de vermelding ‘gesponsorde links’.

SEO is dus een duurzame investering die u bovenaan in de natuurlijke, niet betaalde zoekresultaten brengt. En eens u hier staat, hoeft u de zoekmachines helemaal niets te betalen. En zeg nu zelf, een website die bovenaan staat in Google vertrouwt u toch ook meer dan een site op pagina 6? Uw naambekendheid en het imago van uw bedrijf krijgen ongetwijfeld een flinke boost als u bovenaan de zoekresultaten verschijnt.

Waarom bekomt men SEO niet met een druk op de knop?

Wel, het antwoord is eigenlijk vrij simpel. Mocht het zo eenvoudig zijn om uw site binnen de kortste keren gratis bovenaan te plaatsen, dan zou iedereen dit toch doen? Dus ook ‘spammers’ die hun sites volproppen met reclame en virussen… Om dit tegen te gaan, ontwikkelden de verschillende zoekmachineproviders ingewikkelde en geheime zoekalgoritmes. Deze algoritmes bepalen de plaats van een website binnen de zoekresultaten op basis van meer dan honderd verschillende factoren. Het feit dat deze algoritmes geheim zijn, is ook hier om spammers en andere kwaadwillige personen die de zoekresultaten ‘vervuilen’ tegen te gaan.

Maar hoe zit het dan met kwalitatieve sites die het wel verdienen om goed te scoren binnen de zoekresultaten? Wat als de zoekmachines uw site niet vinden? Wel, natuurlijk is het een goede zaak dat webmasters hun sites optimaliseren opdat deze makkelijker toegankelijk worden voor de zoekmachinespiders. Vanuit deze visie ontwikkelde Google een gratis handleiding voor beginnende SEO’ers die ondertussen in maar liefst veertig talen beschikbaar is. Deze gids telt tweeëntwintig pagina’s en bestaat hoofdzakelijk uit technische best practices waaraan een site moet voldoen om vlotter geïndexeerd te worden en beter te scoren. Echter, ook het toepassen van deze tips zal uw site niet op miraculeuze wijze naar boven stuwen. Dit citaat uit de handleiding toont aan dat u zich dergelijke illusies best bespaart:

“Hoewel er (helaas) geen geheimen in deze handleiding staan die uw site automatisch de eerste positie geven bij zoekopdrachten in Google, wordt het voor zoekmachines wel gemakkelijker om uw inhoud te crawlen en te indexeren als u de onderstaande praktische tips volgt.”

Maar er is nog meer! Om de meest optimale zoekresultaten te bekomen, gaan zoekmachines hun algoritmes constant aanpassen en verbeteren. De technieken en strategieën om hoger te scoren in de zoekmachine veranderen dan logischerwijze mee. Matt Cutts, hoofd van Google’s Webspam team, verwoordt het als volgt op zijn blog:

“Hundreds of engineers pay attention to our search quality in ways big and small. (…) Some people think that Google changes a few things every few months. At least in search quality, it’s more like a few things every week.”

Het constant aanpassen en verbeteren van de zoekalgoritmes zorgt ervoor dat na enige tijd bepaalde technieken niet meer functioneren. Zo waren keyword metatags, een klein onderdeel in de html-code van een website, vroeger hét summum voor de SEO-specialist. Goede en relevante keyword metatags betekenden toen een gegarandeerde toppositie. Google merkte dat hiervan misbruik werd gemaakt en veranderde prompt zijn zoekalgoritme. Keyword metatags zijn anno 2010 daarom verwaarloosbaar geworden. Een site optimaliseren met technieken uit 2008 betekent niet dat deze in 2011 nog een toppositie in de zoekresultaten zal bekleden. Bijgevolg is het noodzakelijk om op de hoogte te blijven van de nieuwigheden binnen de SEO- en zoekmachinewereld. Indien er zich grote wijzigingen voordoen, dient men deze in acht te nemen. Het constant inspelen op deze veranderingen is de enige manier om een toppositie te behouden.

En toen ontstond de SEO-community…

Kort na het ontstaan van de zoekmachines ontstond ook een heuse SEO-community. Verschillende webmasters gingen uitvoerig verschillende technieken uittesten op en rond hun sites om zo beter te scoren. Door hun ervaringen met elkaar te delen, verkregen zij inzicht in de verschillende zoekalgoritmes. Wenst u ook een hoge positie te bekleden binnen de zoekresultaten, dan dient u vanzelfsprekend een SEO-specialist of zoekmachine-expert te raadplegen die het zoekalgoritme door en door kent. De grootste online SEO-community is ongetwijfeld Moz. De SEO-specialist gaat vervolgens technieken op en rond uw site toepassen opdat deze beter gaat scoren bij de verschillende zoekmachineproviders (Google, Bing, Yahoo, …). Bij Seodvize hebben we deze technieken op basis van eigen ervaringen gebundeld in een drieluik. Meer over deze technieken vindt u op deze pagina: Het SEO-drieluik.

Hoe lang duurt het dan om bovenaan te staan?

Wel, ook dit hangt af van verschillende factoren: de leeftijd van uw site, het aantal backlinks dat u reeds heeft, de concurrentie binnen uw sector… Binnen SEO-middens gaat men ervan uit dat de gemiddelde richttijd om een bestaande website te optimaliseren ongeveer zes maanden bedraagt. Zo lang duurt het gemiddeld eer zoekmachines uw site ‘vertrouwen’ en hem bijgevolg ook een goede ranking toekennen. Een goede SEO-specialist zal uw site op voorhand doorlichten om u vervolgens te informeren wat de haalbaarheid betreft om goed te scoren.

SEO in een notendop

Indien u van plan bent om uw site te optimaliseren, hou dan zeker rekening met volgende zaken:

  • Bovenaan staan en goed scoren bekomt u niet met één druk op de knop.
  • SEO is een iteratief proces dat veel tijd en moeite vergt.
  • De gemiddelde richttijd voor het optimaliseren bedraagt 6 tot 12 maand.
  • SEO is een drieluik. Pas elk luik toe om een zo optimaal mogelijk resultaat te behalen.

Geen tijd? Seodvize is gespecialiseerd in SEO en neemt het volledige proces voor u in handen.

Het Seodvize SEO Model

Zoekalgoritmes veranderen constant. Technieken die vroeger werkten, zijn geen garantie op succes vandaag. Omdat het SEO proces de laatste jaren zo is veranderd, heb ik mijn ervaring met het SEO-proces in een volgend model gegoten.

Het Seodvize SEO Model

SEO anno 2014, dat is ervoor zorgen dat je de basics eerst goed krijgt. Met andere woorden, ervoor zorgen dat je site voldoet aan een aantal Core Metrics die voor Google en andere zoekmotoren van cruciaal belang zit. Zit de basis fout? Vergeet het dan maar om goed te gaan scoren. Pas als je aan deze vereisten voldoet, kan je echt je concurrentie het nakijken geven door de “Leverage Metrics” in jouw voordeel te benutten.

SEO model

1. Core Metrics

Dit zijn de drie belangrijkste aspecten binnen het SEO proces. Als het bij een van deze drie fout gaat, dan is dit al voldoende om de volledige performantie van je site binnen de zoekresultaten aan te tasten. Dit moet dus goed zitten!

1.1 On Page Optimization

Hoewel Google onlangs de Hummingbird update lanceerde, geloof ik nog steevast in een goed zoekwoordonderzoek. Het blijft essentieel om eerst voor jezelf uit te maken op welke zoekwoorden je gevonden wil worden. Met deze input kan je beginnen met het definiëren van je sitestructuur en de content die je nodig hebt. Vermijd het excessief voorkomen van duplicate en thin content op je site, want dit heeft wel degelijk een grote impact op je rankings. En ga vervolgens ook na of je site voldoet aan Google’s richtlijnen voor webmasters.

1.2 User Experience

User Experience is een steeds groter wordend onderdeel van het zoekalgoritme. Logisch, want de andere onderdelen zijn “eenvoudiger te manipuleren”. Google beschikt over een pak data en gebruikt deze ook om te bepalen of jouw site het wel verdient om goed te scoren op een bepaalde zoekterm.

Pogosticking is iets wat Google eenvoudig kan meten. Hierbij gaan ze na of iemand die jouw site heeft bezocht, tevreden is met de gevonden resultaten en zijn zoekopdracht dus staakt. Is dit niet het geval, gaat hij terug naar de zoekresultaten en zoekt hij verder, dan is er sprake van ‘Pogosticking‘. Heeft je site vaak last van dit fenomeen, dan mag je nog links hebben en een goede onpage optimalisatie, ranken zal hij niet doen.

pogosticking

Google beschikt overigens over een pak meer data. Hoewel ze claimen geen gebruik te maken van je site z’n bouncerates en de time on site metrics van je pagina’s (via Google Analytics), ga ik toch niet helemaal mee in dat verhaal. Wellicht gebruiken ze het niet rechtstreeks, maar wel onrechtstreeks om de resultaten van de user metrics die ze wél gebruiken, te valideren. En dan heb ik het nog niet gehad over alle data die ze verzamelen als je een Chrome browser gebruikt, of Android, of als er Adsense op je site draait… Er zijn zelfs geruchten dat Google meeleest in je Gmail account. Google is everywhere!

1.3 Linkbuilding

Of je het nu leuk vindt of niet, links zijn nog steeds cruciaal. Een site zonder links zal niet scoren in de zoekresultaten. Ook hier is grondig wat veranderd, zeker na de verschillende Penguin updates. Het gaat niet meer om de links die je maakt, het gaat om de links die je niet maakt. Neem maar even deze case studies door, allemaal sites die een flinke penalty aan hun broek hebben gekregen omwille van foute linkbuildingpraktijken.

Ik krijg wekelijks mails van mensen van wie hun site gepenaliseerd is (en dus nagenoeg onzichtbaar is geworden in de zoekresultaten), omdat ze crappy linkbuilding pakketten (link directories, artikel marketing) hebben besteld bij Belgische en Nederlandse “SEO bedrijven”. Vaak gaat het in dergelijke gevallen om pure algoritmische penalties, maar die zijn ongelofelijk moeilijk te fixen.

Dus, nog meer dan ooit, ligt de focus op kwalitatieve links. Véél beter om minder (maar ultra kwalitatieve) links te hebben, dan veel low quality links die gemakkelijk te creëren zijn. En vooral ook over de nodige portie geduld te beschikken, een toppositie in Google bekom je nu eenmaal niet met een druk op de knop.

2. Leverage Metrics

Allright, is je pagina onpage geoptimaliseerd, heb je kwalitatieve links en zitten de user metrics goed? Dan kan je pas echt gaan ranken in de organische zoekresultaten, als je deze metrics naar je hand weet te zetten. Topposities gegarandeerd!

2.1 Social Signals

Google houdt van sites die goede social signals kunnen voorleggen. En dan heb ik het niet over tweets op fake Twitter accounts, Google +1’tjes en Facebook likes op je fanpagina. Ik heb het over echte, geverifieerde auteurs die je link delen op hun Google+ profiel. Ik heb het ook over verkeer dat via Facebook naar je site komt, omdat mensen jouw pagina’s sharen op hun tijdlijn. En ik heb het ten slotte ook over tweets en retweets waarin je URL voorkomt, getweet door echte Twitteraars met een legitiem volgersprofiel.

2.2 Brand Signals

We weten al langer dat Google een boontje heeft voor grote merken. Waarom zouden ze immers een spammy affiliate website beter laten scoren op een zoekterm zoals ‘autoverzekering’, in plaats van echte, betrouwbare verzekeraars waar je ook effectief een verzekering kan gaan afsluiten?

Brand signals staan nergens gedefinieerd, maar ik zie ze als volgt:

  • het aantal keer dat je merk wordt gezocht in Google
  • het aantal keer dat je URL wordt gezocht in Google (vb: zoekopdrachten naar “jouwmerk.be”)
  • actieve social media accounts
  • het aantal keer dat je merk wordt vermeld op internetpagina’s, dus zonder link, ook wel ‘co-citation’ genaamd
  • het aantal keer dat je merk wordt vermeld in emails (Gmail)
  • .

2.3 Freshness

Waarom zou Google een oude pagina uit 2005 goed laten scoren? Tijden veranderen, info veroudert snel. Sites waar regelmatig nieuwe, unieke en goede content op verschijnt, zijn zoveel interessanter dan oude, statische webpagina’s die in geen jaren up to date zijn gebracht. Google heeft reeds bevestigd dat oudere sites hun goede rankings kunnen verliezen, als er niets meer mee wordt gedaan.

Zoals je merkt, is SEO dus véél meer dan snel wat linkjes en enkele technische ingrepen. Werk aan de winkel dus! Veel succes!

Grote veranderingen binnen het SEO landschap

De laatste weken heeft Google een groot aantal wijzigingen doorgevoerd aan hun zoekalgoritme. Het naar je hand zetten van de zoekresultaten is nog nooit zo moeilijk geweest als nu. En ik moet toegeven: nooit gedacht dat veranderingen met zo’n grote impact op SEO er al zo snel zaten aan te komen. Hieronder heb ik de meest opmerkelijke wijzigingen onder de loep genomen.

SEO: vroeger en nu

Op nummer 1 geraken in Google was vroeger niet zo bijzonder moeilijk als je over de nodige SEO bagage beschikte. Je schreef een heel lang, kwalitatief artikel op je website, zorgde ervoor dat ze zoektermen waarop je wou scoren een aantal keer voorkwamen in de tekst alsook in de titel en in de alt-tags van de afbeeldingen en vervolgens ging je gaan linkbuilden. Mits enkele kwalitatieve links geraakte je vlot bovenaan in de zoekresultaten. Maar nu liggen de kaarten helemaal anders. Met enkel lange, informatieve teksten geraak je er niet meer. Bovendien is ook het creëren van backlinks geen garantie meer tot succes, integendeel: je riskeert een penalty aan je broek als je het niet voorzichtig aanpakt…

De Over Optimization Penalty

Een van de meest recente wijzigingen aan het rankingalgoritme, is de ‘Over Optimization Penaly’. Dit is een penalty die wordt toegekend aan websites die overgeoptimaliseerd werden om op bepaalde zoektermen goed te scoren. Deze wijziging heeft een bijzonder grote impact binnen de SEO industrie, zeker omdat vele SEO inspanningen die in het verleden werden gerealiseerd, nu plots in je nadeel blijken te zijn.

Er is sprake van een overoptimalisatie wanneer een bepaalde zoekterm te vaak voorkomt op je pagina, in je titel, alt-tags, url, in de ankerteksten van je links, in de h1’s… De drie belangrijkste zijn ongetwijfeld de titel tag, de URL en de ankertekst van de inkomende links. Gebruik je hier te vaak hetzelfde zoekwoord, dan is de kans groot dat dit nu resulteert in een lagere ranking. Matigen is de boodschap!

Onnatuurlijke linkbuilding en de-indexatie van blognetwerken

Nog nooit slaagde Google er zo goed in om spam te detecteren. Ze beschikken immers over een immense berg aan data en ik heb het gevoel dat ze die nu (eindelijk) op een slimme manier beginnen in te zetten. Google hoeft maar de kijken naar websites die heel erg veel uitgaande links hebben, low quality content aanbieden en nauwelijks of geen inflow en/of links via sociale kanalen verkrijgen. Een bijzonder hoge bouncerate en meteen terugklikken naar de zoekresultaten zijn eveneens belangrijke factoren om na te gaan of het nu al dan niet om spam or irrelevante sites gaat.

Een andere belangrijke algoritmewijziging betreft het controleren van links, die doorgaans heel belangrijk zijn om goed te scoren. Indien Google detecteert dat links via een onnatuurlijke weg tot stand zijn gekomen, zal je gegarandeerd een drop in je rankings genoteerd hebben. Google weet nu namelijk opzichtelijke blognetwerken te identificeren die louter worden gebruikt als methode om backlinks naar je site te krijgen. Dit niet noodzakelijk omdat Google zelf lid werd van dergelijke blognetwerken, maar door algoritmisch na te gaan wat dit type blognetwerken gemeen hebben. Bijvoorbeeld:

  • Allemaal blogposts met uitgaande links waarvoor in 95% van de gevallen een vaak gezocht zoekwoord als linktekst werd gebruikt
  • In elke blogpost staan minstens 1 link
  • Al deze blogs en artikels verkrijgen weinig tot geen bezoekers en weinig tot geen inflow via sociale media.
  • De blogs binnen één netwerk hebben steeds links naar dezelfde websites

Buildmyrank is een voorbeeld van een betalend blognetwerk waar iedereen zomaar lid van kon worden. De reviews omtrent deze service waren steeds heel lovend: menig linkbuilders raadden deze service aan aangezien het enorm goed werkte om binnen een kort termijn goed te scoren in Google. Maar kijk, mooie liedjes duren niet lang. Een paar jaar later heeft Google al de blogs binnen dit netwerk gedeïndexeerd en jij bent in een klap al deze links kwijt en dus ook je goede rankings….

Duurzaam linkbuilden

Wat linkbuilding betreft, is het nooit goed om op slechts één techniek te rekenen om goede rankings te behalen. Linkbuilding is nog steeds een belangrijke factor om goede rankings te behalen, maar je dient alvast een pak voorzichtiger te zijn dan vroeger. Links verkrijgen met als enige doel het snel stijgen binnen de zoekresultaten, wordt nu veel sneller gedetecteerd én afgestraft. Weet je dus niet zeker waar je aan begint, vraag dan zeker eerst raad aan een linkbuilding of SEO-expert. Ik heb al vele gevallen gezien waarin sites uiteindelijk een penalty kregen door een foutieve linkbuilding campagne en ze uiteindelijk lager scoorden dan waar ze hadden gestaan zonder linkbuilding. En geloof me vrij, van een penalty geraak je niet makkelijk af.

Hieronder 7 tips waar je vanaf nu zeker rekening mee dient te houden, wil je duurzaam gaan linkbuilden:

  1. Ga met een nieuwe site niet meteen van start met agressieve linkbuildingcampagnes
  2. Bouw links volgens een zo natuurlijk patroon: niet alles in een keer maar heel geleidelijk aan
  3. Verkrijg links op sites die zelf heel goed scoren in Google en vaak gedeeld worden op sociale media (!)
  4. Ga niet meer je voornaamste zoekwoord spammen in de linkteksten (!)
  5. Gebruik linkteksten zoals ‘klik hier’, ‘coole site’ etc. (!)
  6. Gebruik vaak je brand (de naam van je site en je URL) in de linkteksten. Op Search Engine Watch verwoordde men het als volgt: “Websites, especially recently, are being hit for being aggressive with their anchor text use for their backlinks. As with many things in SEO, opinions will vary, but many would tell you that you would want a minimum of 35 percent of your backlinks to be links using your domain name/URL or some other “branded” link text. In fact, you might find that many of the top performing websites contain 50-80 percent “branded” anchor text.” (!)
  7. Vermijd sitewide links – deze zijn uit den boze en worden heel snel als ‘paid links’ aanzien, wat een penalty kan veroorzaken (!)

Belangrijk is ook dat we leren uit de Buildmyrank case. Een site die maar een type links heeft (allemaal kwaliteitsvolle links van op blogs met hoge PageRank) komt heel onnatuurlijk over. Als je linkbuildingprofiel enkel bestaat uit kwalitatieve, dofollow links, dan is er iets mis. Zorg dus voor voldoende variatie in je linkbuildingtechnieken en de kwaliteit van je links. Een natuurlijk linkbuildingprofiel bestaat immers ook uit een groot deel nofollow en minder kwalitatieve (maar géén spammerige) links. Zorg ook niet alleen voor tekstlinks, maar ook voor afbeeldingen waar een link achter zit.

Verschillende linkbuildingtechnieken voor verschillende sites

Elke site is anders en vereist dus een andere linkbuilding strategie. Bij nieuwe sites dien je bijvoorbeeld veel voorzichtiger om te springen met linkbuilding dan bij sites die al een heel goede reputatie hebben opgebouwd in Google. Nieuwe sites zijn veel gevoeliger voor het verkrijgen van een Google penalty terwijl je bij oudere sites al sneller je keywords in de ankerteksten van je links mag gebruiken. Start bij nieuwe sites heel geleidelijk aan met linkbuilden en leg een goede basis met kwaliteitsvolle “branded” links die heel gestaag groeien.

Content en bezoeker centraal

Een enorm belangrijk signaal voor Google om te bepalen of een website relevant is voor een bepaalde zoekopdracht, is het klikgedrag van zijn zoekmachinegebruikers. Als het merendeel van je bezoekers doorklikt vanuit Google naar je site en dan onmiddellijk op de back button van de browser drukt om andere zoekresultaten te bekijken, dan is je site niet relevant voor die ene zoekopdracht en zal Google je een lagere positie toekennen. Optimaliseer je site daarom enkel op zoektermen waarvan je weet dat je de bezoeker een meerwaarde kan bieden.

En wat is jouw visie? Aarzel niet om je mening in een reactie te delen!

Hoe je ranking binnen zoekmachines monitoren

Wat de opvolging van SEO campagnes betreft, zijn er een heleboel goede en gratis tools voorhanden. Denk maar aan Google Analytics en het Google Hulpprogramma voor Webmasters. Maar toch had ik nog steeds het gevoel dat ik één tool me ontbrak. Een van de basisprincipes van SEO is namelijk dat je je pagina’s gaat optimaliseren rond een zoekwoord of rond een zoekwoordcombinatie. Maar hoe kan je nu eenvoudig achterhalen of je SEO inspanningen ook renderen? Met andere woorden, bestaat er een tool om je ranking binnen de zoekmachines te monitoren en dit voor de zoekwoorden van uw keuze?

Alles manueel monitoren – tijdrovend

Eerlijk toegegeven, vroeger deed ik alles manueel. Stel dat ik een pagina optimaliseerde voor de zoekterm ‘linkbuilding‘, dan ging ik een aantal keer per maand deze zoekterm invoeren in Google en manueel alle pagina’s overlopen, tot ik mijn pagina tegenkwam. Vervolgens alles in een Excel gieten en eventueel ook een grafiekje eraan koppelen. Ok, ik was wel op de hoogte van RankTracker, maar dat programma kost -indien je de volledige versie wenst- al snel 200 EUR. Lees de kleine lettertjes en dan kom je te weten dat je voor die prijs slechts 6 maanden gratis updates krijgt. Ik had dan liever de meest tijdrovende (maar wel goedkoopste) methode: alles manueel doen. Maar deze week ontdekte ik CuteRank

Wat is CuteRank

CuteRank is een eenvoudig programma waarmee je kan nagaan op welke positie je site/blog (of een specifieke pagina) staat voor een door jou ingegeven zoekterm. Zo kan je zien of je gerichte linkbuilding inspanningen al dan niet renderen, alsook hoe lang het duurt eer deze daadwerkelijk leiden tot een betere ranking. CuteRank verzorgt alles: deze software toont je evolutie aan de hand van grafiekjes en tabellen. Je kan deze informatie vervolgens exporteren in een handig pdf rapport, ideaal als je als linkbuilder opdrachten uitvoert voor klanten. CuteRank is een eenmalige kost: je koopt het programma en vervolgens hoef je je nooit meer zorgen te maken. CuteRank zorgt voor automatische updates zodra je de software start en je moet helemaal géén maandelijkse vergoeding betalen.

Hoe gaat het in z’n werk

De interface van CuteRank is heel eenvoudig. Eens opgestart, klik je op “new profile”. Vervolgens dien je enkele gegevens in te vullen:

  • De site die je wil monitoren
  • De zoektermen
  • De zoekmachine, bijvoorbeeld Google.be – Nederlands

Nu enkel nog op OK klikken en je krijgt de eerste grafiekjes en tabellen te zien. Afhankelijk van het aantal zoekwoorden kan dit wel een tijdje duren. Handig om te weten: je moet niet elke pagina afzonderlijk ingeven. Enkel het hoofddomein, bijvoorbeeld Seodvize.be + de zoektermen. CuteRank zal automatisch de onderliggende pagina’s van je site detecteren en rapporteren voor de door jou gekozen zoektermen.

Klik voor een uitvergroting

Hoeveel kost het?

Update: CuteRank kost nu $59.95. Vroeger was dit meer ($79), maar toen kreeg je er updates onbeperkt bij. Sinds kort hebben ze hun prijsbeleid gewijzigd: nu betaal je minder, maar krijg je slechts 1 jaar gratis updates. Tot mijn grote spijt hebben ze dus het businessmodel van RankTracker gekopieerd. De jaarlijkse updates kosten je $10.

Mijn conclusie: CuteRank is een super programma voor het monitoren van je positie binnen de zoekmachines. Het is eenvoudig in gebruik en het werkt efficiënt en goed. Alleen jammer van de recente wijziging in hun prijsbeleid. Nu, voor $59,95 + $10 jaarlijks zal je echt geen beter programma vinden. En doe je dat toch, aarzel dan niet om hier een reactie na te laten.

 

Nieuwe grote update Google – toekomst SEO

Google is big business. En dan bedoel ik niet enkel voor het bedrijf zelf, maar ook voor miljoenen mensen wereldwijd die Google’s producten op een slimme , soms geniepige manier gebruiken. Die laatste groep wordt steeds groter. Google kan echter niet bij de pakken blijven zitten en moet dus constant blijven innoveren en mee evolueren, willen ze webspam blijvend succesvol bestrijden. We mogen ons binnenkort aan een grote algoritme-update verwachten.

Content farms

Een van die producten die men op een geniepige manier kan inzetten, is Google Adsense. Gebruikers plaatsten een stukje code op hun website en vervolgens worden op deze plek advertenties getoond door Google. Deze advertenties zijn in de meeste gevallen gerelateerd aan de inhoud van de webpagina. Telkens iemand op een van deze advertenties klikt, krijgt de webmaster een bepaald bedrag. Dit leidde ertoe dat vele webmasters massaal content creëerden, puur uit Adsense-winstbejag. Ze onderzochten welke zoekwoorden hen veel geld zouden opbrengen, schreven een tekst van lage kwaliteit betreffende een vakgebied waarover ze niets wisten, om dan vervolgens hun site te gaan SEO’en opdat deze uiteindelijk een goede positie binnen de zoekresultaten behaalde. Gevolg: veel bezoekers, veel klikjes en veel money in the pocket. Dergelijke sites, die ook wel het label “content farm” meekregen, werden een steeds groter probleem.

Negatief voor zoekmachinegebruikers

De zoekmachinegebruiker ervaart dit uiteraard niet als positief. Wanneer hij bijvoorbeeld het zoekwoord ‘goedkoop verzekeringen lenen’ invoert en doorklikt naar de website die helemaal bovenaan in de zoekresultaten staat, wil hij daar iets bruikbaars vinden. Bij content farms is dit niet het geval. In plaats van waardevolle informatie of een antwoord op zijn vraag, krijgt hij een crappy artikel te zien dat (duidelijk) werd geschreven door iemand die niets van verzekeringen af weet. De bezoeker is hier uiteraard niets mee en moet dus terugkeren naar de zoekresultaten om wel nuttige informatie te vinden. In sommige gevallen klikt hij door op een van de Adsense advertenties die naast het crappy artikel staan, in de hoop zo wel nuttige informatie tegen te komen.

Grote Google update op komst

Kwaliteit en een positieve gebruikerservaring zijn de belangrijkste troeven van een zoekmachine. Geen enkele zoekmachine houdt ervan zijn zoekresultaten te zien vervuilen. Google houdt er dus niet van als dergelijke content farms goed scoren, gezien deze geen meerwaarde bieden voor de zoekmachinegebruiker. Om het steeds groter wordende probleem van de content farms te counteren, zijn ze genoodzaakt om mee te evolueren. En dat doen ze ook. In een recente blogpost kondigden ze aan dat de zoekmachinegebruikers binnen de VS zich aan een grote algoritmeupdate mogen verwachten, die maar liefst 10% van alle zoekresultaten zal treffen. Dat is gigantisch veel! Deze grote update zal geleidelijk aan ook gebeuren in de andere landen. In Google België en Nederland mogen we die update dus ook binnen enige tijd verwachten.

Top secret!

Het nieuwe algoritme zou veel beter in staat zijn om content farms op te sporen en deze een lagere positie toe te kennen. Welke nieuwe factoren Google hiervoor in rekening brengt, blijft top secret. Dit is logisch: mochten de spammers weten met welke factoren Google nu rekening houdt, dan zouden ze dit uiteraard weer trachten te counteren. In een recente blogpost op Seomoz werden potentiële nieuwe SEO-factoren uit de doeken gedaan. Deze heb ik hieronder aangepast en aangevuld met eigen inzichten en interpretaties:

  • Tussenkomst van de gebruiker bij het bepalen van de zoekmachinerankings
    Ik ben er vrij van overtuigd dat Google in de (nabije) toekomst ook gebruik zal maken van zijn gebruikers om de zoekresultaten te helpen verfijnen. Een van die mogelijkheden is via de SearchWiki functie. Dit houdt in dat naast ieder zoekresultaat automatisch een ster verschijnt. Dit geldt momenteel enkel indien je bent aangemeld met je Google account. Bij het klikken hierop, wordt de ster geel (zie figuur hieronder) en laat de gebruiker zo blijken dat dit resultaat hem bevalt. Bij volgende zoekopdrachten zal Google deze site automatisch hoger plaatsen binnen zijn gepersonaliseerde zoekresultaten.SearchWiki Goolge update
    Een zijn nog andere voorbeelden van tussenkomsten van de gebruiker. Zo kunnen gebruikers nu al een spamreport indienen bij Google. Via een nieuwe Google Chrome extensie, Personal Blocklist genaamd, kan Google ook mooi zien welke websites het niet goed doen bij de Chrome gebruikers die van deze extensie gebruik maken. Dat ze dit gebruiken als SEO-signaal, wordt weer volledig ontkracht op hun officiële blog, maar ergens kan ik dat maar moeilijk geloven.
  • Tussenkomst van Quality raters
    Dit is niet nieuw: menselijke tussenkomst maakt al een tijdje deel uit van het zoekalgoritme. Zelf ben ik ook aan de slag geweest als Google Quality rater. Quality raters werken op freelance basis voor Google (via een tussenpersoon) en dienen de zoekresultaten te beoordelen. Meer kan ik hierover niet kwijt wegens geheimhoudingsplicht. Een groter aantal Quality raters kan dus ook helpen om spam en onbruikbare informatie uit de zoekresultaten te laten verdwijnen.
  • Meer verzamelde data gebruiken
    Google heeft een ongelofelijke berg aan data, dankzij hun verschillende gratis programma’s. Neem bijvoorbeeld Google Analytics. Heb je een website met een heel hoog weigeringspercentage (bounce rate), dan zal er bij Google ook ergens wel een belletje rinkelen dat jouw website niet bijzonder kwalitatief is. Indien iemand een zoekopdracht ingeeft, een website aanklikt en vervolgens onmiddellijk terug op de backbutton van zijn browser klikt om opnieuw de zoekresultaten te bekijken, zal Google ook wel doorhebben dat het aangeklikte zoekresultaat niet relevant zou kunnen zijn. Tenminste, als dit op grote schaal gebeurt. En dan hebben ze nog Google Chrome, hun tracking cookies via Adsense, Gmail (ze kunnen bijvoorbeeld kijken hoeveel keer een bepaalde website wordt doorgestuurd via email om zo zijn populariteit te meten) en ga zo maar door. Allemaal data die ze kunnen, zullen of misschien al implementeren in hun immer geheime zoekalgoritme.

Kwaliteit is (en wordt nog) belangrijk(er)!

Nog meer dan ooit wordt kwaliteit doorslaggevend. Mensen moeten iets hebben aan de informatie die op uw site te lezen valt. Dus niet alleen een goede copywriting, maar ook inhoudelijk top. Teksten waarover werd nagedacht, teksten die je niet even snel in elkaar flanst. Een website die vertrouwen wekt bij de lezer (en de Google Quality raters), door niet alleen een contactformulier, maar ook adresgegevens, telefoonnummers en dergelijke toe te voegen, een Facebook fanpagina te hebben, een officiële twitter account…

Aan ons SEO’ers om steeds op de hoogte te blijven van de vele wijzigingen en er op de juiste manier mee om te gaan.

Wat is het maximum aantal links dat je op een pagina mag hebben?

Vroeger stond in de richtlijnen van Google beschreven dat het maximum aantal links op een pagina niet meer mocht zijn dan 100. Had je meer dan 100 uitgaande links, dan werden links die dit aantal overschreden, niet meer gecrawled. Maar ondertussen bleef het web evolueren en Google heeft zijn richtlijnen de afgelopen jaren herzien. Matt Cutts, hoofd van het Google Webspam team, liet dat vandaag blijken in een recent gepubliceerde video.

Het ideale aantal

Matt Cutts plakte er geen exact cijfer op. Zijn tip “zorg er gewoon voor dat het aantal uitgaande links binnen een redelijk aantal blijft, dan zit je goed”. Ook gaf hij aan dat de crawlers op vandaag veel beter in staat zijn om grote hoeveelheden content en links te crawlen, en dat het oorspronkelijke aantal van ‘maximum 100 links’ dus in principe al fors achterhaald is. Voor zij die toch een aantal wensen, dan zou ik adviseren om het aantal uitgaande links toch zeker onder de 500 à 700 per pagina te houden.

Het aantal (uitgaande) links en de SEO van je site

Google kent intern een waarde toe aan te pagina’s van je site. In z’n filmpje legt Cutts ook duidelijk uit dat die waarde verdeeld wordt over alle pagina’s op je site. Stel dat je homepagina een PageRank van 5 heeft en je hebt 5 onderliggende pagina’s, dan zullen deze onderliggende pagina’s elk 1/5 van de linkwaarde krijgen (tenzij je deze links nofollow maakt). De consequentie is dus: hoe méér links, hoe meer de waarde van jouw site verdeeld wordt en hoe minder sterk de onderliggende pagina’s van jouw site worden in de ogen van Google. Overweeg daarom dus steeds of het wel zinvol is om jouw pagina’s te voorzien van honderden links. Tracht het aantal links te beperken tot de belangrijkste pagina’s voor de bezoekers van je site!

Linkbuilding en uitgaande links

Aangezien het aantal maximum uitgaande links vroeger 100 bedroeg, was het dus niet zinvol om een linkje te verkrijgen op een site of startpagina waar al 500 andere links op stonden. Maar dit filmpje leert ons dus dat Google niets heeft tegen kwalitatieve websites waar meer dan 100 (uitgaande) links op verzameld worden. Let wel, ik leg de nadruk op kwalitatief! Kanttekening: ook hier geldt: hoe meer uitgaande links, hoe minder linkwaarde voor jouw site overblijft.

Conclusie:

  • Pagina’s met meer dan 100 links vormen geen probleem meer
  • Een ‘maximum’ aantal bestaat niet, maar hou het wel binnen de perken!
  • Hoe meer links op je pagina, hoe meer de interne waarde van je pagina’s wordt verdeeld
  • Plaats bij voorkeur enkel links naar de belangrijkste pagina’s

Het volledige filmpje kan je hier bekijken:

Wanneer sluit Google de laatste hoophole: paid advertorials?

Good job Google webspam team!

De laatste jaren heeft het web spam team van Google ongelofelijk goed werk verricht. Spammers die op korte termijn een top 3 positie wisten te bemachtigen door een site te bestoken met low quality linkbuilding technieken? Verleden tijd. Penguin 1.0 maakte komaf met verdachte linkprofielen en penaliseerde automatisch websites die gebruik maakten van manipulatieve linkbuildingtechnieken zoals blognetwerken, om hiermee op een oneerlijke wijze goed te scoren. Ok, het heeft jaren geduurd, maar inmiddels hebben ze wel een robuust systeem op poten gezet dat verdomd goed is in het onderscheiden van spam ten opzichte van echte kwalitatieve websites.

Pas na de Penguin 1.0 update (april 2012) ben ik pas echt respect beginnen krijgen voor Matt Cutts, hoofd van Google’s webspam team en tevens hét gezicht van Google voor alles wat met de kwaliteit van de zoekresultaten te maken heeft. Ik kreeg toen voor het eerst het gevoel dat Google het nu wel meent met z’n webmaster richtlijnen en sites die hieraan zondigen, actief gaat bestraffen met een penalty of deïndexatie. Tip: abonneer je op hun updates via hun officiële Youtube kanaal.

Maar wanneer sluit die laatste loophole?

Doordeweekse SEO spammers zijn nu out of business, maar de jongens met het grote kapitaal wisten doorgaans aan de algoritme-updates te ontsnappen. Het waren dan ook voornamelijk kleine webshops, bedrijven en individuele affiliate marketeers die zondigden aan de goedkope linkbuildingmethodes waarmee je uiterst snel je website naar een top 3 positie kon schieten. De grotere (affiliate) partijen en websites kochten doorgaans kwalitatieve (en bijgevolg dure!) links op kwalitatieve blogs, waarvoor zij tot op heden nog niet bestraft werden. Veel bloggers smelten als zij een briefje van 50 EUR zien, in ruil voor een blogpost met een aantal links…

Advertorials in de praktijk

Ik check heel regelmatig linkprofielen van websites die goed scoren, levert altijd interessante inzichten op. Een tool zoals Ahrefs leent zich hier uitstekend toe. En twee specifieke sites volg ik al een tijdje, omdat deze site zich op 10 maand tijd vanuit het niets konden opwerken tot een absolute autoriteit binnen hun sector. Op praktisch elke zoekterm waarrond deze sites geoptimaliseerd zijn, vind je hen terug op een top 3 positie. En wat bleek na analyse van hun backlinkprofiel: beide sites maakten op heel grote schaal gebruik van paid advertorials. Dit zijn een “gesponsorde” artikels over de site in kwestie, met daarin één of meerdere links. Hieronder een willekeurige selectie van backlinks naar een van deze sites. Ik hoef er geen tekeningetje bij te maken.

paidadvertorials

Merk op dat het voornamelijk beauty bloggers zijn. Gemakkelijke prooien, doen alles voor wat extra zakgeld en er zijn er gigantisch veel. Bovendien hebben ze vaak veel volgers, een hoge PageRank en zijn links op hun sites best wel kwalitatief te noemen. Gewoon even doorklikken naar de blog en bij een aantal zie je meteen dat het om een advertorial gaat:

advertorial

Natuurlijk pakken deze sites het slim aan. Elke maand een aantal kwalitatieve advertorials, opdat je backlinkprofiel gestaag stijgt. Dit in afwisseling met nog een aantal startpagina’s blijkt hét succesrecept om anno 2013 de zoekresultaten naar je hand te zetten. Hieronder zie je mooi hoe een van deze twee sites dit gestaag aanpakt.

backlinkpatroon

Googles standpunt tov. advertorials

Google’s standpunt is heel duidelijk. Advertorials plaatsen met als doel de PageRank van je site te beïnvloeden, is een absolute schending van hun kwaliteitsrichtlijnen. Deze methode om betaalde links te kopen, is een praktijk die al jaren verboden is. Maar gezien dit – wat mij betreft – de enige grote loophole is die Google nog niet algoritmisch kon aanpakken, maken nog vele SEO’ers die welliswaar over grote budgetten beschikken, hier gebruik van. Uiteraard is Google zich hier ten volle van bewust. Matt Cutts plaatste een aantal dagen geleden nog een videopublicatie op Youtube waarin hij het nog eens expliciet over advertorials had.

Klare taal als je het mij vraagt. Doe je aan advertorials, dan moet je duidelijk vermelden dat het om een advertorial gaat EN net zoals elke andere betaalde link moet hij het rel=”nofollow” attribuut meekrijgen om geen PageRank door te geven. En dit laatste is net hetgeen zovelen niet doen. Komt hier nog bij dat de meeste bloggers te weinig kennis hebben om te weten dat ze door dit soort praktijken (het niet “nofollowen” van betaalde links) ook hun eigen blog in gevaar kunnen brengen.

Een kwestie van tijd

Het is maar een kwestie van tijd alvorens deze loophole ook gesloten zal worden. Oorspronkelijk had ik gedacht dat dit al het geval ging zijn met de lancering van Penguin 2.0 op 22 mei, maar dit bleek niet het geval. Toch weet ik 100% zeker dat Google ook hier in staat zal zijn om de grootste overtreders algoritmisch af te straffen. Tijdens de Search University had ik het geluk om Christoffel Hiltermann (Webmaster Outreach Specialist en tevens m’n 2de Google idool na Matt Cutts) kort te spreken hierrond. Hij bevestigde me dat deze problematiek bij een van de volgende updates zeker wordt aangepakt. En kwestie van tijd dus…

Conclusie

Een verwittigd man is er twee waard. Maak jij of je agentschap gebruik van dit soort praktijken? Dan is het hoog tijd om deze links op te kuisen en te nofollowen. Het is maar een kwestie van tijd alvorens Google ook deze laatste grote loophole zal sluiten.

Google verbetert communicatie mbt. foute links

Is je site uit Google’s zoekindex verdwenen? Dan heb je ongetwijfeld een penalty aan je broek. Maar hoe weet je nu wat de precieze oorzaak hier van is? Je eerste werk: gaan kijken in je Google Webmaster Tools. Werd er een manuele actie ondernomen tegen je site, dan heeft Google jou via deze weg op de hoogte gebracht. Een dergelijk bericht kan je krijgen wanneer jij of je onbetrouwbare SEO firma op onethische wijze links heeft verworven om je rankings zo te manipuleren.

linkwaarschuwingGoogle

Het is vervolgens aan jou om al deze misleidende links te gaan opkuisen, eerst door de webmasters te contacteren en als laatste redmiddel kan je Disavow tool gaan gebruiken.

Maar hoe weet je nu in godsnaam welke links zo nefast voor je site waren? Wel, dit heeft Matt Cutts aangekaard in z’n meest recente video op Youtube. Vanaf heden gaan ze in hun communicatie via de Webmaster Tools ook voorbeelden plaatsen van links naar jouw site die je ranking negatief beïnvloeden. Deze lijst zal niet volledig zijn, maar je hebt in elk geval wel een goede basis om mee te beginnen.

Wat mij betreft een uitstekende zaak voor de SEO’s. Maar vooral niet vergeten: als je op een ethische wijze SEO toepast, zou je nooit in aanraking moeten komen met dit soort zaken!

Bekijk hieronder het volledige filmpje:

Wat moet je doen als een slechte site naar jou linkt?

Het kan je maar overkomen. Je gaat doorheen de rubriek ‘Links naar uw site’ binnen je Webmaster Tools account en daar zie je een aantal vreemde sites tussen staan. Je klikt even door en het blijkt te gaan om om spam, adult, gok of andere louche sites waarmee jij helemaal niet geassocieerd wil worden. Veel kans dat deze links een negatieve impact hebben op jouw ranking in Google! Hoe ga je hier mee om?

Officieel standpunt van Google

  1. Contacteer de webmaster en vraag hem om de links te verwijderen
  2. Krijg je geen gehoor, dan dien je de links te disavowen (“afwijzen”)

Met het diavowen van links, geef je Google te kennen dat jij en je sites niet geassocieerd willen worden met deze links en Google er dus geen rekening mee mag houden voor het bepalen van je ranking. En het handige is dat je dit ook op domeinniveau kan doen, om alle links vanop een domein in een keer af te wijzen.

Disavow tool niet langer voor zondaars

Het is dus goed om te weten dat Google deze disavow tool niet langer ziet als allerlaatste redmiddel voor een webmaster die foute links heeft gecreëerd nu schuldbekentenis aflegt door deze tool te benutten. Het feit dat het gebruik van deze tool nu best mainstream wordt, duidt nogmaals op het feit hoe complex en belangrijk linkbuilding wel is. Verkeerde links hebben wel degelijk een negatieve impact op jouw ranking, laat je dus niet verleiden tot dergelijke wanpraktijken.

Nuttige links:

Het videofragment kan je hieronder bekijken: