Vi använder en webbplatskarta på Stack Overflow, men jag känner blandade känslor för det.

Webbsökare upptäcker vanligtvis sidor från länkar på webbplatsen och från andra webbplatser. Webbplatskartor kompletterar denna information så att sökrobotar som stöder webbplatskartor kan plocka upp alla webbadresser i webbplatskartan och lära sig om dessa webbadresser med tillhörande metadata. Användning av Sitemap-protokollet garanterar inte att webbsidor ingår i sökmotorerna, men ger tips för webbsökare att göra ett bättre jobb med att genomsöka din webbplats.

Baserat på våra två års erfarenhet av webbplatskartor finns det något fundamentalt paradoxalt om webbplatskartan:

  1. Webbplatskartor är avsedda för webbplatser som är svåra att genomsöka ordentligt.
  2. Om Google inte lyckas genomsöka din webbplats för att hitta en länk, men kan hitta den i webbplatskartan det ger webbplatskartlänken ingen vikt och indexerar den inte!

Det är paradoxen för webbplatskartan - om din webbplats inte genomsöks ordentligt (av någon anledning) kommer det inte att hjälpa dig att använda en webbplatskarta!

Google går ur deras sätt att göra några webbplatskartgarantier:

"Vi kan inte göra några förutsägelser eller garantier om när eller om dina webbadresser kommer att genomsökas eller läggas till i vårt index"

"Vi garanterar inte att vi genomsöker eller indexerar alla dina webbadresser. Till exempel genomsöker eller indexerar vi inte webbadresser för bilder som finns i din webbplatskarta." citat

"Att skicka en webbplatskarta garanterar inte att alla sidor på din webbplats kommer att genomsökas eller inkluderas i våra sökresultat"

Med tanke på att länkar som finns i webbplatskartor bara är rekommendationermedan länkar som finns på din egen webbplats anses vara kanoniska ... verkar det enda logiska att göra är undvika ha en webbplatskarta och se till att Google och andra sökmotorer kan spindla din webbplats ordentligt med de vanliga gamla webbsidorna som alla andra ser.

När du har gjort det den där, och blir spindlade snyggt och grundligt så att Google kan se att din egen webbplats länkar till dessa sidor och skulle vara villiga att genomsöka länkarna - öh, varför behöver vi en webbplatskarta igen? Webbplatskartan kan vara aktivt skadlig eftersom den distraherar dig från att se till att sökmotorspindlar lyckas genomsöka hela din webbplats. "Åh, det spelar ingen roll om sökroboten kan se det, vi slår bara länkarna i webbplatskartan!" Verkligheten är tvärtom i vår erfarenhet.

Det verkar mer än lite ironiskt med tanke på att webbplatskartor var avsedd för webbplatser som har en mycket djup samling av länkar eller komplexa användargränssnitt som kan vara svåra att spindla. Enligt vår erfarenhet hjälper webbplatskartan inte, för om Google inte hittar länken på din webbplats korrekt kommer den inte att indexera den från webbplatskartan ändå. Vi har sett detta bevisat gång på gång med Stack Overflow-frågor.

Har jag fel? Gör webbplatskartor meningsfullt och använder vi dem på något sätt felaktigt?

  • Jag trodde att webbplatskartor mer var ett enklare verktyg för en enklare ålder ... Jag tänkte att den enda anledningen att tillhandahålla en webbplatskarta idag var för mänsklig hjälp med att navigera på webbplatsen, om än tekniskt benägna människor. Jag ser inte ett problem med "om din webbplats inte genomsöks ordentligt (av någon anledning) kommer det inte att hjälpa dig att använda en webbplatskarta!" men det kan bara vara jag.
  • 3 Medan jag vet att Google genererar huvuddelen av din trafik. Jag tycker att det är viktigt att förstå hur andra spindlar verkar använda webbplatskartan.
  • 23 @mikej google är inte "huvuddelen" av vår trafik, det är 99,6% av all söktrafik och 87% av den totala trafiken
  • 2 Jeff, älskar alltid dina inlägg ... Jag använder bara XML-webbplatskartor för sidor som google annars kanske inte hittar. Men jag har verkligen varit besviken på dem och Googles verktyg för webbansvariga. Jag tror ärligt talat att Google gör tillräckligt bra för att indexera tillgängligt innehåll på en webbplats. Ingen poäng för en webbplatskarta. Nu är en webbplatskarta för användarnavigering en smart idé. Jag gillar Web2.0 Footer Site Maps och försöker integrera dem i nästan vilken design de passar för ...
  • 1 @Jeff Atwood: John Mueller sa "vi hämtar och indexerar annars länkade webbadresser" - löser detta paradoxen?

Ansvarsfriskrivning: Jag arbetar tillsammans med Sitemaps-teamet på Google, så jag är lite partisk :-).

Förutom att använda webbplatskartor i stor utsträckning för "icke-webbindex" -innehåll (bilder, videor, nyheter etc.) använder vi information från webbadresser som ingår i webbplatskartfiler för dessa huvudsyfte:

  • Upptäcka nytt och uppdaterat innehåll (jag antar att det här är det självklara, och ja, vi hämtar och indexerar annars olänkade webbadresser därifrån också)
  • Känner igen föredragna webbadresser för kanonisering (det finns andra sätt att hantera kanonisering också)
  • Ange ett användbart indexerat webbadressantal i Googles verktyg för webbansvariga (ungefärliga approximationer från webbplats: frågor kan inte användas som ett mått)
  • Att tillhandahålla en grund för användbara genomsökningsfel (om en webbadress som ingår i en webbplatskartfil har ett genomsökningsfel, är det vanligtvis ett större problem och visas separat i Verktyg för webbansvariga)

På webmaster-sidan har jag också hittat Sitemaps-filer extremt användbara:

  • Om du använder en sökrobot för att skapa Sitemaps-filen kan du enkelt kontrollera att din webbplats kan genomsökas och se förstahands vilken typ av webbadresser som finns. Finns sökroboten dina webbadresser som du föredrar, eller är något felaktigt konfigurerat? Fastnar sökroboten någonstans i oändliga utrymmen (t.ex. oändliga kalenderskript)? Kan din server hantera belastningen?
  • Hur många sidor har din webbplats verkligen? Om din webbplatskarta är "ren" (inga dubbletter osv.), Är det enkelt att kontrollera.
  • Är din webbplats verkligen genomsökbar utan att stöta på duplicerat innehåll? Jämför serverloggarna som lämnats av Googlebot med din webbplatskarta-fil - om Googlebot genomsöker webbadresser som inte finns i din webbplatskarta-fil kanske du vill kontrollera din interna länkning.
  • Har din server problem med dina föredragna webbadresser? Det kan vara ganska användbart att korskontrollera din serverfellogg med webbplatskartor för webbplatskartor.
  • Hur många av dina sidor är verkligen indexerade? Som nämnts ovan är detta antal synligt i verktyg för webbansvariga.

Beviljas, för riktigt små, statiska, enkelt att genomsöka webbplatser, kan det vara onödigt att använda webbplatskartor från Googles synvinkel när webbplatsen har genomsökts och indexerats. För något annat skulle jag verkligen rekommendera att du använder dem.

FWIW Det finns några missuppfattningar som jag också vill täcka:

  • Sitemap-filen är inte avsedd att "åtgärda" problem med genomsökning. Om din webbplats inte kan genomsökas, åtgärda det först.
  • Vi använder inte webbplatskartfiler för rankning.
  • Att använda en webbplatskartfil minskar inte vår normala genomsökning av din webbplats. Det är ytterligare information, inte en ersättning för genomsökning. Att inte ha en webbadress i en webbplatskartfil betyder inte att den inte kommer att indexeras.
  • Krångla inte över metadata. Om du inte kan ge användbara värden (t.ex. för prioritet), lämna dem bort och oroa dig inte för det.
  • Du använder verkligen webbplatskartor för "självrankning", eller hur? Jag menar att rangordna innehållet över en webbplats. Annars varför priority fält?
  • 7 Elementet "prioritet" är en ganska liten signal för oss, som vi kan använda om vi är mycket begränsade med genomsökning på din webbplats (vi använder den inte för rankningsändamål). För de flesta webbplatser kommer det inte att vara ett problem, så det är bra om du enkelt kan ge användbara värden, men inte något att tappa sömn om du inte kan. Om du inte kan ge användbara värden för detta och andra metadataelement, lämna bara elementen helt (använd inte "standardvärden").
  • Tack för detta mycket informativa svar. Jag ska sluta uppdatera min webbplatskarta och bara använda RSS-flödet som en webbplatskarta från och med nu.
  • 1 Är information 100 nivåer djupt en "fråga om genomsökbarhet"? Till exempel om jag har en webbutik och det finns en lång lista med produkter i en kategori (säg 3000 produkter). Listan är sida och har 200 sidor. Naturligtvis kommer jag inte att visa alla länkarna. Mer som 1 2 3 ... 22 **23** 24 ... 198 199 200. Så för att hitta en produkt på sidan 100 måste du gå igenom cirka 100 länkar. Eller använd sökfältet. Skulle googlebot genomsöka det, eller skulle det ge upp efter cirka 20 nivåer? Skulle en webbplatskarta vara den rätta lösningen här?
  • @ Vilx-: Om du arbetar via get och en nästa / föregående knapp kommer de att hittas. Dessutom finns det föregående / nästa metataggar för din rubrik som kan visa bots var du hittar nästa / föregående sida, samt berätta för dem "next är samma sida, bara de närmaste punkterna, så var försiktig med duplikat "

Om du vet att du har bra webbplatsarkitektur och Google skulle hitta dina sidor naturligtvis är den enda fördelen jag känner till är snabbare indexering, om din webbplats indexeras tillräckligt snabbt för dig behöver du inte.

Här är en artikel från 2009 där en herrar testade hur snabbt Google genomsökte sin webbplats med en webbplatskarta och utan. http://www.seomoz.org/blog/do-sitemaps-effect-crawlers

Min tumregel är att om du lanserar något nytt och otestat vill du se hur Google genomsöker din webbplats för att se till att det inte finns något som behöver fixas så skicka inte in det, men om du gör ändringar och vill Google för att se dem snabbare, skicka in dem, eller om du har annan tidskänslig information, till exempel nyheter, skicka sedan in eftersom du vill göra vad du kan för att se till att du är den första som Google ser, annars är det en fråga om preferenser.

  • Skulle inte ett RSS-flöde åstadkomma samma sak?
  • Det finns verkligen många saker du kan göra med RSS-flöden för att förbättra indexeringen, men informationen i artikeln jag länkade ovan skulle föreslå att en webbplatskarta är mer effektiv än bara ett RSS-flöde.

Jag misstänker: för Google är webbplatskartor nödvändiga för att hålla reda på uppdateringar så snabbt som möjligt. Låt oss till exempel säga att du har lagt till ett nytt innehåll på någon djup plats på din webbplats, vilket tar mer än 10-20 klick att nå från din hemsida. För Google att nå denna nya sida skulle det vara mindre troligt på kort tid - så istället, tills en väg till den här sidan är helt bestämd, existens av det tillkännages. När allt kommer omkring beräknas inte PageRank omedelbart, det tar tid att utvärdera användarnas beteende och sådant - så tills dess, varför skulle inte motorn genomsöka och indexera en sida med nytt innehåll?

  • 4 Webbplatser som stackoverflow genomsöks så ofta att jag är villig att satsa på att det är snabbare sedan använda en webbplatskarta.
  • 3 @ john fortfarande, det här är den enda rationella förklaringen jag kan tänka mig vad en webbplatskarta faktiskt kan göra för dig. "Det kan inte skada" är ett vanligt refrain men bara existens av en webbplatskarta är skadlig (ytterligare komplexitet osv.) så om den inte hjälper är den fortfarande en netto-negativ och den måste gå.
  • @Jeff Jag var inte oense. Jag sa bara att SÅ passade inte den formen.
  • 2 detta är typ av bekräftat genom länken som Joshak tillhandahöll: seomoz.org/blog/do-sitemaps-effect-crawlers
  • @Jeff Atwood "@John fortfarande, ..." det är den punkt som jag försökte göra. Det var fördelaktigt först, men nu behöver du inte det. Så varför fortsätter du att försöka få det?

Sitemaps är oerhört värdefulla om du använder dem korrekt.

För det första är det faktum att Google säger att de är ledtrådar bara där för att a) se till att webbansvariga inte har det falska intrycket att webbplatskarta = indexering och b) ger Google möjlighet att ignorera vissa webbplatskartor om de anser att de är opålitliga ( aka lastmod är det aktuella datumet för alla webbadresser varje dag de nås.)

Google brukar dock gilla och konsumera webbplatskartor (de hittar faktiskt ibland sina egna och lägger till dem i Googles verktyg för webbansvariga). Varför? Det ökar effektiviteten som de kan krypa med.

I stället för att börja på en utsäde och genomsöka webben kan de fördela en lämplig mängd av sin genomsökningsbudget till en webbplats baserat på de inlämnade webbplatskartorna. De kan också bygga upp en stor historik på din webbplats med tillhörande feldata (500, 404 etc.)

Från Google:

"Googlebot genomsöker webben genom att följa länkar från en sida till en annan, så om din webbplats inte är väl länkad kan det vara svårt för oss att upptäcka den."

Vad de inte säger är att genomsöka webben är tidskrävande och de föredrar att ha ett fuskark (aka sitemap).

Visst, din webbplats kan vara bra från ett genomsökningsperspektiv, men om du vill introducera nytt innehåll är det ett snabbare sätt att bli genomsökt och indexerat att släppa det innehållet i en webbplatskarta med hög prioritet.

Och detta fungerar också för Google, eftersom de vill hitta, genomsöka och indexera nytt innehåll - snabbt. Nu, även om du inte tror att Google föredrar den misshandlade banan jämfört med macheten i djungeln, finns det en annan anledning till att webbplatskartor är värdefulla - spårning.

När du använder ett webbplatskartaindex (http://sitemaps.org/protocol.php#index) kan du särskilt dela upp din webbplats i sektioner - webbplatskarta efter webbplatskarta. Genom att göra det kan du sedan titta på indexeringsgraden för din webbplats sektion för sektion.

En sektion eller innehållstyp kan ha en indexeringsgrad på 87% medan en annan kan ha en indexeringsgrad på 46%. Det är då ditt jobb att ta reda på varför.

För att få full användning av webbplatskartor vill du spåra Googlebot (och Bingbot) genomsökning på din webbplats (via webbloggar), matcha dem till dina webbplatskartor och följ sedan allt igenom till trafik.

Sov inte på webbplatskartor - investera i dem.

  • 2 Jag håller inte med, webbplatskartor hade en gång ett syfte och nu är de föråldrade enligt min ärliga åsikt. Om din webbplats kan genomsökas kommer den att hitta dessa länkar, med hjälp av RSS är sociala medier bra sätt för Google att hitta och indexera sidor ännu snabbare.

Med Googles ord: "I de flesta fall kommer webbansvariga att dra nytta av inlämning av webbplatskarta, och under inga omständigheter kommer du att straffas för det."

Men jag håller med om att det bästa du kan göra om du vill att dina webbsidor ska visas i sökmotorerna är att se till att de kan genomsökas från webbplatsen.

  • 5 finns det fortfarande en mental kostnad, som i upplevd "säkerhet" för att ha länkar som garanteras indexeras oavsett webbplatsens genomsökningsstatus .. vilket inte är sant enligt vår erfarenhet.

Jag tror att sökmotorer använder webbplatskartan inte så mycket för att hitta sidor utan för att optimera hur ofta de söker efter uppdateringar. De tittar på och . Google spindlar förmodligen hela webbplatsen mycket ofta (kolla dina loggar!), Men inte alla sökmotorer har resurser att göra det (Har någon provat Blekko?). I vilket fall som helst eftersom det inte finns något straff för att använda dem och de kan skapas automatiskt och enkelt skulle jag fortsätta göra det.

  • 4 Jag tror att fältet är ganska viktigt för att låta dem veta vilka sidor som är viktigast. Till exempel på Stack Overflow har du hundratals taggar och användarsidor som är bra, men inte i närheten lika viktiga som själva frågorna. Om webbplatskartan sätter frågan till 1 och allt annat lägre, är det mer troligt att frågorna indexeras över andra sidor.

om du bryr dig om detta ämne, vänligen läs det här fantastiska Google-papperet http://googlewebmastercentral.blogspot.com/2009/04/research-study-of-sitemaps.html (april 2009) - läs hela uppsatsen, inte bara blogginlägget .

från tidningen

  • ok, i grund och botten kämpade google med samma fråga.
  • de avslöjar inte hur de bestämmer värdet i webbplatskartan, men de nämner konceptet med en virtuell länk från startsidan till webbplatskartan.
  • massor av andra intressanta saker

men ja, webbplatskartan används mest för upptäckt (processen att google upptäcka dina saker), inte för att bestämma värdet. Om du kämpar med upptäckten, använd en webbplatskarta. upptäckt är en förutsättning för att krypa, men berör inte bestämning av värde.

från min erfarenhet

  • det finns en massa webbplatser som bara använder HTML- och XML-webbplatskartor för sammanlänkning av sina sidor
  • och av dessa genomsöks XML-webbplatskartan mycket mycket bättre än HTML-webbplatskarta. (jag tittade riktigt bra på några riktigt stora)
  • det finns till och med mycket framgångsrika webbplatser som bara använder XML-webbplatskarta.

när jag implementerar en SEO-strategi för en webbplats med mer än en halv miljon sidor går jag till

  • landningssidor
  • sitemap.xml
  • startsida

allt annat är bara "balast" - ja, andra saker kan ha positivt SEO-värde, men har definitivt ett negativt värde: det gör webbplatsen svårare att hantera. (p.s .: för värdebestämning kopplar jag samman landningssidorna på ett sensemaking sätt (stor påverkan), men det är redan det andra steget).

om din fråga: snälla förvirra inte upptäckt, genomsökning, indexering och rangordning. du kan spåra dem alla separat, och du kan optimera dem alla separat. och du kan förbättra förbättringen av upptäckten och genomsökningen på ett stort sätt med en fantastisk webbplatskarta (dvs. realtid).

Webbplatskartor kan rädda dig.

På en av mina webbplatser har jag ett stort antal länkar som jag hindrar sökmotorer från att spida. Lång historia kort, Google tolkade JS felaktigt i mitt forum och utlöste många 500 och 403 svarkoder, vilket jag trodde påverkade webbplatsens position. Jag arbetade kring detta genom att utesluta de problematiska webbadresserna via robots.txt.

En dag trasslade jag och gjorde något som hindrade Google från att genomsöka några sidor på den webbplatsen som jag verkligen ville indexeras. På grund av forumuteslutningarna hade felavsnittet för webbansvariga för "Begränsat av robots.txt" över 4000 sidor, så jag skulle inte ha plockat upp det här felet förrän det var alldeles för sent.

Lyckligtvis, eftersom alla "viktiga" sidor på min webbplats finns i webbplatskartor, kunde jag snabbt upptäcka detta problem i den speciella felkategori som Webmaster Tools har för problem med sidor i webbplatskartor.

Som en åtminstone får jag också mycket nytta av att använda ett webbplatskartaindex för att bestämma indexeringskvaliteten på olika delar av mina webbplatser, som nämnts av @AJ Kohn.

Jag har inte stött på det här själv, men majoriteten av mina projekt är applikationer eller webbplatser som annars kräver användarkonton så indexering av sökmotorer är inte ett fokus.

Som sagt, jag har hört tidigare att SEO i princip har gjort webbplatskartor värdelösa. Om du tittar på protokollet är det ett slags "hederssystem" för att berätta hur ofta en sida ändras och vilken relativ prioritet varje sida har. Det är självklart att dime-a-dozen SEO-företag missbrukar fälten - varje sida har högsta prioritet! varje sida ändras varje timme! - och renderade webbplatskartor effektivt värdelösa.

Den här artikeln från 2008 säger i princip det och verkar komma till samma slutsats som du gör: webbplatskartan är ganska bra värdelös och du skulle bättre kunna optimera innehållet som ska indexeras och döma webbplatskartan.

Låt det krypa.

Jag gör följande:

  1. gör webbplatsen genomsökbar på det gamla sättet.
  2. se till att jag har en robots.txt med en webbplatskartaindikering.
  3. skapa en XML-webbplatskarta, men skicka inte in den. Låt sökroboten upptäcka och använda den efter behov, som en del av dess upptäckts- och indexeringsprocess.

Jag genererar en utökad XML-fil som fungerar som bas för många saker:

  • Generera HTML-webbplatskarta
  • Hjälp 404-sidan (hittades inte)
  • Hjälp med andra små uppgifter, som att göra brödsmulor, eller få några metadata i mitt fasadmönster för en sida.

Därför har jag allt detta, varför inte också servera en XML-webbplatskarta och låta sökroboten göra vad den vill göra, om den skulle vilja göra det?

Jeff, jag har ingen aning om Stackoverflow eftersom jag aldrig har haft möjlighet i mitt liv att vara webbansvarig för en så stor och så ofta uppdaterad webbplats.

För små webbplatser som inte ändras ofta tycker jag att webbplatskartan är ganska användbar (säger inte att webbplatskarta är det viktigaste, men ganska användbart ja) av två skäl:

  1. Webbplatsen genomsöks snabbt (samma anledning förklaras av Joshaks svar ovan) och i min lilla erfarenhet märkte jag detta många gånger med små webbplatser (upp till 30/50 sidor)

  2. Efter några veckor skickade jag in en webbplatskarta, jag tittade i "Googles verktyg för webbansvariga - webbplatskartor" och jag kan se antalet webbadresser som skickas i webbplatskarta VS antalet webbadresser i webbindex. Om jag ser att de är desamma, då bra. Annars kan jag kontrollera omedelbart på mina webbplatser vilka sidor som inte indexeras och varför.

Detta skrevs (först?) Om av Randfish på SEOmoz redan under det goda gamla året 2007. Första gången kom han till samma typer av slutsatser, men då gjorde tiden det ... och gick.

Han har sedan (jan 2009) lagt till ett efterskrift till artikeln om att eventuella nackdelar helt enkelt uppvägs av de övergripande positiva resultaten av att skapa, verifiera och skicka webbplatskartor.

Uppdatera 5 januari 2009 - Jag har faktiskt ändrat mig avsevärt om detta råd. Ja, webbplatskartor kan fortfarande förvirra arkitektoniska problem, men med tanke på den erfarenhet jag har haft de senaste 1,5 åren rekommenderar jag nu till alla våra kunder (och nästan alla andra som frågar) att webbplatskartor skickas in. Det positiva när det gäller genomsökning, indexering och trafik uppväger helt enkelt nackdelarna.

Jag tror att SiteMaps endast tjänar två syften idag:

  • De låter dig minska frekvensen av spidering för att lindra serverbelastningen. Detta borde egentligen inte vara ett problem för de flesta webbplatser.
  • De kan hjälpa till att förstärka vad sökmotorn redan vet om dig. Listning av sidnamnen, och uppenbarligen lägger till lämplig viktning på varje sida, hjälper sökmotorn att validera sina egna mätvärden för att rangordna din webbplatsarkitektur.

ANVÄND INTE SITEMAPS

Webbplatskartor är främst för webbplatser som inte tidsstämplar index och noder .... SE gör båda för sitt kärninnehåll, så att ha en webbplatskarta saktar ner sökroboten ... Ja, det stämmer, det kommer att sakta ner, eftersom webbplatskartan saknar de metadata som kärnindexen har. På baksidan har jag ingen riktig aning om hur google bygger sina bots, bara vet om jag skulle bota SE, skulle jag INTE använda webbplatskartan. Dessutom märker vissa webbplatser inte ens att deras webbplatskartor alla är%! @ $ - och om du har byggt en profil på en webbplatskarta som plötsligt inte fungerar, och du måste skapa en ny profil från riktig webbplats.

Så du har rätt - ANVÄND INTE SITEMAPS!

DRICKS: En sak som du bör göra är dock att hålla semantiken för taggarna samma över tiden så mycket som möjligt, vilket betyder om "Asked One Hour Ago" har en metadata inbäddad som:

title='2010-11-02 00:07:15Z' class='relativetime' 

ändra aldrig strängnamnet relativetime, såvida inte innebörden av uppgifterna i title har förändrats. ALDRIG ... :-)

Jag har nyligen omstrukturerat en webbplats som jag fortfarande arbetar med. Eftersom det inte fanns något bra sätt att länka 500 000 sidor för att hjälpa användare, bestämde jag mig för att använda en XML-webbplatskarta och skicka den till Google och istället använda sökning på webbplatsen. Google hade inga problem med att indexera min webbplats tidigare, men eftersom Google har lagt till webbplatskartan är den mycket aggressiv när det gäller att spida min webbplats och indexera sidorna extremt snabbt. Google har använt webbplatskartan för att hitta nya sidor (cirka 3300 per vecka) och se över uppdaterade sidor. Det har varit en riktig vinst i min bok. Jag vill fortfarande ta reda på ett nytt sätt att länka mina sidor och använda AJAX för uppslag, men det är ett projekt för en annan dag. Än så länge är allt bra! Det har varit en bra lösning för mig. Allt och allt har jag vunnit och inte förlorat. Vilket är intressant eftersom jag alltid har känt att webbplatskartor faktiskt kan vara mer användbara men begränsade av dess design.

Jag hörde att webbplatskartor sätter dina sidor i tilläggsindex snabbare. Men jag har inte ens hört det tilläggsindex som nämnts i åldrar, så de kanske inte använder det längre.

P.S. om mitt uttalande inte är tillräckligt tydligt, är (eller var) en dålig sak att vara i det kompletterande indexet ... därför är (eller var) en webbplatskarta DÅLIG.

Vi använder webbplatskartor (skickas inte till sökmotorer, men länkade in robots.txt) främst för att se till att hemsidan har högst . Jag är inte säker på om de har mycket annan användning.

Jag håller inte med om att Google inte kommer att indexera länkar som endast är webbplatskartade. Jag har många webbplatser som endast kan nås via webbplatskartor och google indexerar dem utan problem. Jag kan ge många exempel på detta.

  • är dessa sidor också länkade utanför din sida?

En välkonstruerad webbplats behöver inte en webbplatskarta, även om den kan hjälpa till med vår täckning och rankning och lägger till lite extra värde som prioritet, uppdateringsfrekvens etc. Du kan berätta för en sökmotor hej ... Jag har uppdaterat den här sidan någonstans mitt på min webbplats utan att kräva en fullständig genomsökning. Jag har aldrig tittat på genomsökningsmönstren men man skulle hoppas att det hjälpte.

Med detta sagt är det verkliga plus för mig webbansvariga verktyg och den insikt det ger dig i din webbplats synlighet och dina användare.

fungerat för dig: Charles Robertson | Vill du kontakta oss?