InternetSökmotoroptimering

Indexering i sökmotorer. Hur indexerar webbplatsen i "Yandex" och "Google"

Vad indexerar din webbplats? Hur går det? På dessa och andra frågor kan du hitta svaren i artikeln. Web indexering (indexering i sökmotorer) är processen att bekanta information om platsen till databasen sökrobotar, som sedan används för att söka efter information på webbprojekt som har passerat ett sådant förfarande.

Uppgifter om Internetsidor består ofta av sökord, artiklar, länkar och dokument. Kan också vara indexerad ljud, bilder och så vidare. Det är känt att detekteringsalgoritmen är beroende på nyckelord Searcher.

På vilken typ av information som ska indexeras (Flash-filer, javascript) det finns en viss avgränsning.

gemenskap management

Site Indexing - en komplicerad process. För att hantera det (till exempel förbjuda inledandet av en viss sida) måste du använda en robots.txt-fil, och sådana bestämmelser som Tillåt Tillåt inte, Crawl-delay, User-agent och andra.

Den används också för att genomföra indexering taggen och rekvisita , dölja innehållet i resursen från Google robotar och «Yandex» (Yahoo använder taggen ).

nya webbplatser indexeras av ett par dagar upp till en vecka i sökmotorerna Goglle och Yandex - från en vecka till fyra.

Du vill att din webbplats för att visa upp i sökmotorfrågeresultat? Då bör hanteras "av Rambler", "av Yandex" Google, Yahoo och så vidare. Du måste tala om för sökmotorer (spindlar, system) om förekomsten av din webbplats, och då kommer de att skanna det i sin helhet eller delvis.

Många webbplatser är inte indexeras i åratal. Information att de inte delas med någon annan än sina ägare.

bearbetningsmetoderna

Site Indexing kan göras på flera sätt:

  1. Det första alternativet är manuell tillägg. Du måste ange information om din webbplats via en särskild blankett som tillhandahålls av sökmotorer.
  2. I det andra fallet, finner sökmotorn roboten din egen webbplats länkar och indexering det. Det kan hitta din webbplats via länkar från andra källor som finns på ditt projekt. Denna metod är mest effektiv. Om sökmotorn fann platsen så att han anser att det är betydande.

termer

Site indexering sker inte för snabbt. Datum skiljer sig från 1-2 veckor. Länkar från auktoritativa resurser (med en stor PR och Tietz) accelerera betydligt utbyggnaden plats i databasen sökmotorn. Idag anses vara den långsammaste Google, men fram till 2012 kan det göra jobbet i en vecka. Tyvärr är allt förändras mycket snabbt. Det är känt att Mail.ru arbetar med webbplatser inom detta område för cirka sex månader.

Indexering i sökmotorer kan inse inte varje specialist. Tidpunkten för att lägga till nya sidor i databasen redan behandlas av sökmotorer sida påverkar frekvensen av justering av dess innehåll. Om resursen verkar ständigt uppdaterad information, anser systemet dess uppdateras ofta och användbara för människor. I detta fall är hennes arbete accelererar.

Under indexering webbplats kan följas upp på en särskild avdelning för webmasters eller sökmotorer.

förändringar

Så har vi räknat ut hur webbplatsen indexering. Det bör noteras att databasen sökmotorer uppdateras ofta. Därför mängden till dessa sidor för ditt projekt kan ändras (antingen minskning eller ökning) av följande skäl:

  • sanktioner sökare till en webbplats;
  • närvaron av fel på sajten;
  • byta sökmotor algoritmer;
  • Värd äckligt (otillgänglighet av den server som projektet) och så vidare.

Svar "Yandex" på de vanliga frågorna

"Yandex" - sökmotorn, som används av många användare. Det rankas femte bland söksystem i världen i antalet förfrågningar behandlas av forskningen. Om du har lagt till platsen kan det vara för lång tid att läggas till i databasen.

Lägga till en URL garanterar inte indexering. Detta är bara en av de metoder som robotsystemet rapporterade att en ny resurs. Om webbplatsen länkar till andra webbplatser eller litet tillägg kommer att upptäcka det snabbt.

Om indexering inte förekommer, måste du kontrollera om det fanns något fel på servern vid tidpunkten för skapandet av sin ansökan av robot "Yandex". Om servern rapporterar ett fel har roboten avslutat sitt arbete och försöka köra den på ett övergripande sätt bypass. Anställda "Yandex" kan inte öka graden av tillägg av sidor i databasen sökmotorn.

Indexering site "Yandex" - en ganska svår uppgift. Du vet inte hur man lägger till en resurs till en sökmotor? Om det innehåller länkar till andra webbplatser, lägg sedan speciell plats krävs inte - det automatiskt robot kommer att packa och index. Om du inte har sådana länkar, kan du använda formuläret "Lägg till URL», för att förklara förekomsten av sökmotorn webbplatsen.

Man måste komma ihåg att tillsättningen av webbadressen inte garanterar indexering av din skapelse (och dess hastighet).

Många undrar hur mycket tid det tar att indexera en plats i "Yandex". Anställda på företaget inte garantera eller förutse en tid. Som en allmän regel, eftersom roboten har lärt sig om webbplatsen, dess sidor visas i sökandet efter två dagar, ibland - ett par veckor.

bearbetning

"Yandex" - en sökmotor som kräver precision och uppmärksamhet. Site Indexing består av tre delar:

  1. Sökroboten genomsöker sidor resurs.
  2. Innehåll (content) på webbplatsen registreras i databasen (index) utredningssystem.
  3. Efter 2-4 veckor efter uppgraderingen databasen kan du se resultatet. Din webbplats kommer att visas (eller inte visas) i sökresultaten.

Kontrollera indexering

Hur kan man kontrollera indexeringen av din webbplats? Åstadkomma detta på tre sätt:

  1. Skriv in namnet på sitt företag i sökrutan (till exempel "Yandex") och kontrollera varje länk på den första och andra sidan. Om du tycker det är webbadressen till din avkomma, så roboten har uppfyllt sin uppgift.
  2. Du kan ange webbadressen till din webbplats i utrednings linje. Du kan se hur mycket av dina listor visas är att indexeras.
  3. Anmäl dig till webb sidor Mail.ru "Gugle", "Yandex". När du passerar kontrollen webbplatsen kan du se resultatet och indexering, sökmotorer och andra tjänster som syftar till att förbättra arbetet i ditt liv.

Varför "Yandex" vägrar?

Indexering webbplats till Google enligt följande: a robot i en databas lägger alla sidor på webbplatsen och bristfällig kvalitet, utan att välja. Men bara användbara dokument som deltar i rankingen. A "Yandex" hela webben trash utesluter omedelbart. Det kan indexera alla sidor, men sökmotorn eliminera så småningom allt skräp.

Båda systemen har ytterligare index. Och en och de andra låg kvalitet sidor påverkar betyget på webbplatsen i allmänhet. Det använder en enkel filosofi. Favorit resurser en viss användare kommer att uppta en mer framträdande position i hans utlämning. Men samma individ knappast kommer att hitta en plats som i sin förra gången inte gillar.

Det är därför måste du först täcka indexeras kopior av webbdokument, för att inspektera förekomsten av tomma sidor och inte släppa in utgivningen av låg kvalitet innehåll.

Acceleration "Yandex"

Hur kan jag skynda på indexering av webbplatsen i "Yandex"? så här:

  • Installerat på datorn webbläsare "Yandex" och vandra runt med den på sidorna på webbplatsen.
  • Bekräfta rätten till resurshantering "Yandex.Webmaster".
  • På Twitter, lägga upp en länk till artikeln. Det är känt att under 2012 har "Yandex" samarbetat med detta företag.
  • För att lägga till en webbplats ökning på Yandex. I "indexering" kan du ange egna URL-adresser.
  • Ange koden "Yandeks.Metriki" utan att ange tick "Skicka sidor till index förbjudet".
  • Producera en webbplatskarta som existerar endast för roboten och kan inte se publiken. Kontroll börjar just med honom. Sitemap adress anges i robots.txt eller i en lämplig form i "webmaster" - "Ställa in indexering" - "sitemap filer".

mellanliggande steg

Vad du behöver för att utföra, medan webbsidan "av Yandex" inte har indexerats? Inrikes sökmotor bör övervägas den främsta källan till webbplatsen. Det är därför redan innan publiceringen av artikeln måste du vara säker på att lägga till innehållet i form av "specifik text". Annars plagiatorer kopiera posten till ditt liv och kommer att vara i databasen först. Som ett resultat kommer de att erkännas av författarna.

Google Base uppgifter

För Google kommer att närma sig samma rekommendationer som vi talade ovan, men andra tjänster är:

  • Google+ (istället för Twitter);
  • Google Chrome;
  • Google-verktyg för programmerare - "Scan" - "se ut av Googlebot" - alternativet "Scan" - alternativet "Lägg till Index",
  • Sök inom en resurs från "Google";
  • Analytics google (i stället för "Yandeks.Metriki).

förbud

Vad är förbudet mot webbplatsen indexering? Du kan använda den som en helsida eller på en separat del av det (en länk eller en bit text). Egentligen existerar som ett globalt förbud mot indexering och lokala. Hur det genomförs?

Överväg att lägga till ett förbud i databasen sökmotor plats i robots.txt. Med filen robots.txt kan du utesluta att indexera en sida eller en hel kolumn av resursen på följande sätt:

  1. User-agent: *
  2. Tillåt: /kolobok.html
  3. Tillåt inte: / foto /

Första stycket säger att instruktionerna är definierade för alla transformatorstationer, den andra anger förbud kolobok.html filindexering, och den tredje - inte tillåter tillsättningen av basen hela fyllningen foto mapp. Om du har några sidor eller mappar, markera dem alla i "Robotar".

För att förhindra indexering av enskilda webb ark kan du använda metataggen robots. Den skiljer sig från en robots.txt som ger instruktioner direkt till alla MS. Denna metatagg är föremål för de allmänna principerna för html-format. Det ska placeras i sidhuvudet mellan taggarna . Entry som ska spärras, till exempel, kan skrivas som: .

Ajax

Vad har Ajax-indexering platser Yandex? Idag är Ajax teknik som används av många utvecklare av webbplatser. Naturligtvis har det stor potential. Med den kan du skapa den snabbaste och interaktiva webbsidor.

Men sökmotorn robot web ark "ser" inte så användaren och webbläsaren. Till exempel kan en person som tittar på ett bekvämt gränssnitt med rörliga Internet laddbara ark. Band innehåll på samma sida kan vara tom eller tillhandahålls av resten av den statiska HTML-innehåll, för att generera skript som inte går in i affärer.

För att skapa Ajax-webbadress kan användas med #, men roboten inte använda sökmotorn. Oftast en del av webbadressen efter # separerade. Detta bör beaktas. I stället för en webbadress som http://site.ru/#example han gör en begäran av resurs hemsidan publiceras på http://site.ru. Detta innebär att online-innehåll av arket kanske inte i databasen. Som ett resultat av detta kommer det inte att visas i sökresultaten.

För att förbättra Ajax-indexering platser "Yandex" har stött förändringar i sökmotorer och URL bearbetningsregler sådana webbplatser. Idag kan webmasters ange sökmotorn "Yandex" om behovet av indexering genom att skapa ett lämpligt system i resursstrukturen. Gör så här:

  1. Ersätt i webbadressen till sidor på # #!. Nu roboten kommer att inse att han kan be om HTML-version av innehållet i denna Internet-ark.
  2. HTML-version av innehållet i en sådan sida ska placeras i webbadressen, där #! ersättas med? _escaped_fragment_ =.

Similar articles

 

 

 

 

Trending Now

 

 

 

 

Newest

Copyright © 2018 sv.birmiss.com. Theme powered by WordPress.