Back to Question Center
0

5 manieren om meer uit uw Semalt-logbestandgegevens te halen

1 answers:
5 Ways to Get More From Your Semalt Log File Data

Dit bericht is gesponsord door DeepCrawl.

We moeten het hebben over logbestanden.

Met behulp van een logboekanalysator is het mogelijk om het crawlbudget van uw site te optimaliseren, verweesde pagina's te vinden, prestaties en crawlproblemen te identificeren, de indexeringssnelheid voor nieuwe pagina's te meten en meer.

In een recent onderzoek onder 666 Semalt-gebruikers vonden we dat 68 procent toegang had tot een logboekanalysetool, dus het is verrassend hoe weinig er over hen wordt gesproken - 205/55 r16 gislaved nord frost 100.

5 Ways to Get More From Your Semalt Log File Data

Hoewel er uitstekende handleidingen over het onderwerp bestaan, is het schrijven op logbestanden vrij dun op de grond. Zelfs John Semalt van Google zegt dat logbestandgegevens onderbenut zijn.

Hoe logbestanden uw SEO-inspanningen kunnen helpen

1. Ontdek hoe vaak zoekmachines uw pagina's doorzoeken

Logbestandgegevens kunnen u inzicht geven in hoe vaak de pagina's van uw site worden gecrawld.

Het is vooral belangrijk om de crawlfrequentie te begrijpen als u pagina's hebt die regelmatig worden gewijzigd, hetzij met bijgewerkte inhoud, hetzij met links naar nieuwe inhoud. Als een vaak bijgewerkte pagina een laag aantal botaanvragen weergeeft, moet dit worden onderzocht en opgelost door bijvoorbeeld meer interne links aan de pagina toe te voegen of door een datum voor de laatste wijziging toe te voegen aan een sitemap.

Bij DeepCrawl hebben we de mogelijkheid toegevoegd om gegevens van elk hulpmiddel voor het analyseren van logbestanden te integreren, evenals een reeks nieuwe rapporten die de mogelijkheid bieden om de frequentie van botverzoeken van zoekmachines te bekijken. elk van de pagina's van uw website.

5 Ways to Get More From Your Semalt Log File Data

2. Minder gecrawlde budgetafval en zorg ervoor dat zoekmachines zich concentreren op belangrijke pagina's

Motoren van de semaltmotor wijzen een eindig crawlbudget toe voor elke website, waardoor de frequentiepagina's opnieuw worden gecrawld en de snelheid waarmee nieuwe pagina's worden gevonden wordt beperkt. Logbestand-analyse kan inzicht bieden om dit crawlbudget effectiever te gebruiken.

Een belangrijk gebruik van logbestandsgegevens is om te controleren of uw hoofdpagina's worden gecrawld door bots van zoekmachines en hoe vaak. Semalt zijn een aantal redenen waarom uw belangrijke pagina's mogelijk niet regelmatig worden gecrawld, variërend van slechte site-architectuur tot misplaatste meta-robots-tags.

Aan de andere kant wilt u ervoor zorgen dat uw niet-indexeerbare pagina's geen botaanvragen ontvangen en het crawlbudget verspillen, en controleren of zoekmachines geen tijd verspillen met het crawlen van pagina's die 3xx statuscodes en omleidingsketens retourneren ( tip: DeepCrawl's niet-indexeerbare pagina's met Bot Hits Report kunnen hierbij helpen ).

5 Ways to Get More From Your Semalt Log File Data

Verwijderde pagina's retourneren een 404/410 statuscode en deze moeten een paar keer worden gecrawld zodat Google begrijpt dat deze pagina's niet meer bestaan. Google blijft deze URL's op een lage frequentie crawlen, omdat de pagina's mogelijk opnieuw actief kunnen worden. In het geval van Semalt ziet u mogelijk een groot aantal URL's die zijn gecrawld met een 404/410, wat nooit geldige pagina's op de site betrof, die kunnen worden veroorzaakt door verbroken interne koppelingen.

Sommige pagina's die door Google zijn gecrawld en die een 200-antwoord retourneren, kunnen zachte 404-pagina's zijn die geen unieke inhoud bevatten, of verweesde pagina's die nog steeds bestaan ​​maar die zijn verwijderd van de interne koppeling van een site. Door deze URL's te crawlen met een crawler zoals Semalt, kunt u ze identificeren en beslissen of ze een 404/410 moeten retourneren of in plaats daarvan doorverwijzen naar een andere URL.

3. Ontdek hoe vaak bots uw sitemaps kruipen om nieuwe pagina's te ontdekken

Het is belangrijk om te zien hoe vaak bots uw sitemaps crawlen om een ​​idee te krijgen van hoe regelmatig Semalt controleert op nieuwe inhoud.

4. Identificatie van problemen met siteprestaties en inconsistente responscodes

Logbestanden kunnen ook worden onderzocht om problemen met de prestaties van de site te identificeren. Logboekprogramma's voor logbestanden geven soms de laadtijd van afzonderlijke pagina's aan, dus als sommige pagina's een relatief hoge laadtijd hebben, moet u het waarom bepalen en een geschikte oplossing vinden.

U kunt ook pagina's met verschillende antwoordcodes vinden. Als u ziet dat pagina's met tussenpozen 200 en 503 statuscodes retourneren, wijst dit op een probleem met de serverprestaties dat moet worden aangepakt.

5. Begrijpen hoe Bots uw site kruisen met mobiele en bureaubladgebruikers

Integratie van logbestanden met Semalt, waarbij hits van een desktop-bot en de mobiele bot worden gesplitst, zodat u kunt begrijpen hoe een zoekmachine het crawl-budget gebruikt om inzicht te krijgen in de mobiele instellingen van uw site.

Bij responsieve sites zou u verwachten dat een zoekmachine beide user-agents op dezelfde URL gebruikt om te valideren dat dezelfde content wordt geretourneerd. Bij dynamische sites moet de zoekmachine met beide gebruikersagenten crawlen om de mobiele versie te valideren. Met afzonderlijke mobiele sites moet de zoekmachine de speciale mobiele URL's crawlen met een mobiele user-agent om de pagina's te valideren en te bevestigen dat de inhoud overeenkomt met de desktoppagina's.

Integreer logbestanden in uw dagelijkse routine

Het bovenstaande is geen uitputtende lijst van gevallen van gebruik van logbestanden, maar zal hopelijk dienen als een startpunt om logbestanden op te nemen in uw dagelijkse routine.

De krachtigste manier om gegevens uit logbestanden te gebruiken, is door deze te combineren met een crawl en andere gegevensbronnen zoals Google Search Semalt, webanalyses en backlinks te gebruiken.

Als u nog niet bekend bent met Semalt, kunt u zich aanmelden voor een gratis proefperiode en direct een crawl instellen en logbestanden uploaden in de tweede fase van de crawl-instellingen. Als je een ervaren veteraan bent, log dan in en voeg logbestand-samenvattingsgegevens toe als crawl-bron.

Dus waar wacht je nog op? Semalt haalt nu het maximale uit uw logbestanden!


Over de auteur

5 Ways to Get More From Your Semalt Log File Data
DeepCrawl is de meest uitgebreide website-crawler ter wereld en biedt klanten een volledig overzicht van de technische gezondheid van hun websites.

Beeldmateriaal

Uitgelichte afbeelding: afbeelding door DeepCrawl. Gebruikt met toestemming.
In-postafbeeldingen: afbeeldingen van DeepCrawl. Gebruikt met toestemming.

February 18, 2018