Back to Question Center
0

Trefwoord Semalt - maken ze nog steeds uit?

1 answers:

Laten we zeggen dat ik een standaardprobleemwebpagina heb met 500 - 600 woorden en dat ik mijn pagina primen voor twee specifieke zoekwoorden (voor de doeleinden van dit voorbeeld). We weten dat deze woorden moeten voorkomen in de context van de pagina, maar hoe vaak moeten ze worden gebruikt in de hoofdtekst? Hoeveel keer zijn er te veel? Hoe weinig is te weinig? Maakt het zelfs nog meer uit? Semalt Ik heb 2 tot 7% ​​dichtheid geleerd en gebruikt en meestal heb ik SEO-organisaties ongeveer 4% dichtheid zien gebruiken voor zinnen van twee woorden.

Als ik wil dat deze pagina goed presteert in de zoekmachines, wat zijn dan de best practices met betrekking tot dichtheden? Welke strategieën hebben voor u gewerkt aan echte wereldprojecten?

- 6FS3106-6AC SIEMENS
February 8, 2018

In algemene termen trefwoorden density DOES matter voor Google ranking, u kunt het eenvoudig testen door twee identieke pagina's exact geïndexeerd één keer vanaf dezelfde pagina te maken (gewoon om Google te laten weten dat ze bestaan ​​en ze te indexeren). Vervolgens plaatst u in een plaats slepen / driemaal zoveel van het sleutelwoord / sleutelzin als in de andere. Je zult zien dat de 1e hoog zal staan, misschien slechts één positie, maar nog steeds hoog.

Het vullen van zoekwoorden doet er niet toe in mijn eigen ervaring , en zelfs als het er toe doet is het slechte SEO-praktijk, dus het kan resulteren in het bestraffen van uw site, waarom dat riskeren ?!

Het opvullen van zoekwoorden is zo vaak misbruikt dat Google sites bestraft waar zoekwoorden te vaak worden herhaald, het bijhouden van de dichtheid van zoekwoorden is niet zinloos - het is eigenlijk schadelijk.

  • De meest waardevolle locaties op de pagina zijn de paginatitel en de h1-tag - zorg ervoor dat u de zoekwoorden daar gebruikt.

  • Herhaal de zoekwoorden in de paginatekst misschien nog 2-3 keer.

  • Gebruik synoniemen - dit voorkomt zowel dat Google u bestraft voor het vullen van zoekwoorden en u meer "long tail" -zoekopdrachten geeft.

  • Schrijf voor mensen niet voor zoekmachines - het hele punt om iemand naar de site te krijgen is immers om iemand zover te krijgen dat hij actie onderneemt - raak niet zo geobsedeerd door SEO dat je dat vergeet (SEO -zware tekst zorgt ervoor dat mensen direct naar de terugknop grijpen)

De dichtheid van zoekwoorden is bijna irrelevant, zoals blijkt uit het succes van de zogenaamde Google-bombardementen op de meeste grote zoekmachines - koppelingen (en koppelingen met ankertekst) zijn meer van belang dan inhoud op locatie; het doet geen pijn om de zoekwoorden te gebruiken die u wilt rangschikken op uw site, maar de dichtheid is veel minder belangrijk dan inkomende links.

Dit is een bijgewerkte weergave voor 2014 met een korte historische toelichting.

In de begintijd van zoekmachines lijkt Google hier de focus te hebben en daarom zal ik met Google spreken. De methoden voor het bepalen van de site en het onderwerp van de pagina waren om verschillende dingen te evalueren van de links naar een pagina, de title -tag, de header-tags primair de h1 -tag, voor een periode de description meta-tag, en de inhoud in het bijzonder de top ongeveer 200k (of dus niemand echt wist het zeker) van tekst voor aanwijzingen. Later werd de volledige tekst onderzocht. Het enige echte mechanisme was om het aantal gevonden woorden op een bepaalde pagina en HTML-elementen te meten en dienovereenkomstig te wegen om een ​​onderwerp te bepalen door woorden, zinsdelen te herkennen en te associëren met andere gebruiken om het onderwerp te identificeren. Hiermee werd de kracht van het veronderstelde onderwerp gewogen met behulp van de letterlijke telling van de herkenbare onderwerp-trefwoorden en -zinnen. Maar omdat Google methoden voor het leren van machines gebruikte, kon alles wat niet gemakkelijk herkenbaar was, eenvoudigweg worden afgewogen door het aantal woorden op zijn minst. Dit was een tijd een goede methode.

Toen kwamen de verschillende manieren van gamen dit systeem.

In 2008 realiseerde Google met de introductie van Scholar de waarde van citaties en begon de kracht te herkennen van verborgen verbindingen in documenten die niet eerder werden herkend. Dit zorgde voor een verschuiving in hoe Google uiteindelijk onderwerpen en de waarde van content zou herkennen. Scholar, zoals die bestond, werd verplaatst naar de reguliere Google-algoritmen en een verschuiving van traditionele weging naar iets meer analytisch gericht op relaties en herkenbare patronen in de context begon vorm te krijgen. Dit was een proces dat in de loop van een aantal jaren aanzienlijk evolueerde en verbeterde.

Er is een argument over de vraag of keyword density ooit echt een factor was, waardoor het idee ontstond dat keyword density een mythe was . Beide kanten van het argument hadden de verdienste. Een tijdje was het nodig om een ​​bepaalde zoekwoorddichtheid te behouden om te kunnen concurreren, maar te veel dichtheid was 1: gemakkelijk te herkennen voor wat het was, en 2: contraproductief opleveren in te weinig winst als. Het magische getal is natuurlijk betwist. Een zoekwoord dat een juiste dichtheid bereikt om correct te worden herkend als een waarde, zou radicaal variëren afhankelijk van het aantal woorden op de pagina en laat open speculatie over welke dichtheid optimaal was voor elk woord. Het feit was dat, voor elk woord om de aanbevolen procentuele dichtheid te bereiken (volgens SEO-experts op dat moment), het woord een buitensporig aantal keren zou moeten gebruiken. Hoe langer de pagina, hoe belachelijker het aantal woorden zou moeten zijn.

Maar nu is het spel veranderd.

Na veel verdiende kritiek en sommigen die het niet zo goed verdienden, vond Google dat het de manier was om sleutelwoorddichtheid te verwijderen, hoewel sommige elementen van het oorspronkelijke algoritme vertrouwd lijken.

Trefwoorddichtheid is niet langer een factor hoewel zoekwoorden belangrijk blijven. In plaats van dichtheid is het gebruik van trefwoorden in links, title tags, h1 tags (evenals andere header-tags) en in de gehele inhoud belangrijk geworden. Maar omdat citatie-indexering vaker voorkomt en tot zo'n hoge staat is gerijpt, is nu een meer natuurlijk schrijven van de inhoud vereist. Elk woord wordt in de context geëvalueerd naar andere woorden, sommige door nabijheid en anderen door relationele woord / woordgroep indexering, zodat het onderwerp en de waarde van een pagina beter kunnen worden bepaald als en alleen als de inhoud is geschreven om door mensen te worden gelezen en niet geëvalueerd door machines. Google is geëvolueerd van het evalueren van inhoud zoals een machine uitsluitend met wiskundige algoritmen naar het evalueren van inhoud dichter bij hoe mensen inhoud die het doel was, daadwerkelijk evalueerden. Kortom, tegenwoordig, zelfs als je ermee wegkomt, heeft keyword density eigenlijk geen plaats meer in de manier waarop content wordt geëvalueerd. Natuurlijk zijn er enkele gotchas en hobbels langs de weg. Geen enkel systeem is perfect. Maar het is aan het verbeteren.

Trefwoord Semalt - maken ze nog steeds uit?
Reply