چگونه بودجه خزش یا Crawl Budget را بهینه کنیم؟

بهترین راه بهینه سازی بودجه خزش

فهرست مطلب (کلیک کنید )

آیا گوگل تمام صفحاتی که در وب سایت شما تولید و منتشر می‌شود ایندکس کرده رتبه بندی می‌کند؟ خب، لزوما خیر! در واقع، داده‌ها نشان می‌دهند که گوگل حدود نیمی از صفحات وب سایت‌های بزرگ را کراول نمی‌کند. برای اینکه یک صفحه در نتایج جستجو نشان داده شود و سایت شما ترافیک به دست آورد، ابتدا گوگل باید در آن صفحه بخزد. به قول خود گوگل، "خزیدن (کراول کردن) نقطه ورود سایت‌ها به نتایج جستجوی گوگل است." از آنجایی که گوگل زمان و منابع نامحدودی برای خزیدن دائمی هر صفحه در وب ندارد، همه صفحات کراول نمی‌شوند و این همان چیزی است که سئوکاران از آن با عنوان بودجه خزش (Crawl Budget) یاد می‌کنند.

در این مقاله قصد داریم درباره اهمیت و نحوه بهینه کردن بودجه خزش صحبت کنیم؛ موضوعی که می‌تواند تاثیر به سزایی در رشد وب سایت و در نهایت کسب و کار اینترنتی شما داشته باشد.

بودجه خزش (Crawl Budget) چیست؟

بودجه خزش (Crawl Budget) چیست؟

بودجه خزش (Crawl Budget) حداکثر تعداد صفحاتی است که یک موتور جستجو می‌تواند و می‌خواهد در یک وب‌سایت مشخص بخزد یا به عبارتی کراول کند. گوگل بودجه خزش را با احتساب محدودیت نرخ خزش و تقاضای خزش تعیین می‌کند.

  • محدودیت نرخ خزش: سرعت صفحات شما، خطاهای خزیدن، و محدودیت خزیدن که در کنسول جستجوی گوگل تعیین می‌شوند (صاحبان وب سایت‌ها می‌توانند خزیدن بات های گوگل را در سایت خود کاهش دهند) همگی می‌توانند بر محدودیت سرعت خزش تأثیر بگذارند.
  • تقاضای خزش: محبوبیت صفحات شما و همچنین تازگی یا قدیمی بودن آن‌ها می‌تواند بر تقاضای خزش تأثیر بگذارد.

تاریخچه بودجه خزش

در سال 2009، گوگل اذعان کرد که تنها درصدی از محتوای آنلاین را می‌تواند پیدا کند و مدیران وب‌سایت‌ها را تشویق کرد تا بودجه خزش خود را بهینه‌سازی کنند.

طبق گفته گوگل، «اینترنت فضای بزرگی است. محتوای جدید پیوسته در حال تولید است. گوگل تعداد منابع محدودی دارد، بنابراین وقتی با حجم تقریباً بی پایان محتوای آنلاین قابل دسترس مواجه می‌شویم، بات‌های گوگل (Googlebot) فقط می‌توانند درصدی از آن محتواها را پیدا کنند و در آن‌ها بخزند. و بعد، از محتوایی که کراول شده‌اند، فقط می‌توانیم بخشی از آن‌ها را فهرست کنیم.»

این موضوع یه یکی از دغدغه‌های سئوکارها و وب مسترها تبدیل شد و صحبت در مورد بودجه خزش آنقدر بالا گرفت که باعث شد گوگل در سال 2017 پستی را منتشر کند که «بودجه خزش برای Googlebot به چه معناست». در این پست گوگل توضیح می‌دهد که چگونه در مورد بودجه خزش فکر می‌کند و چگونه آن را محاسبه می‌نماید.

آیا باید نگران بودجه خزش باشیم؟

اگر وب سایت‌ کوچکی دارید احتمالا بودجه خزش نباید باعث نگرانی شما باشد. به گفته گوگل، «بودجه خزش چیزی نیست که اکثر ناشران نگران آن باشند. اگر سایتی کم‌تر از چند هزار URL داشته باشد، در بیشتر مواقع به طور موثر کراول می‌شود.»

با این حال، اگر روی وب‌سایت‌های بزرگ کار می‌کنید، به‌ویژه آن‌هایی که به طور خودکار صفحات را بر اساس پارامترهای URL تولید می‌کنند، ممکن است بخواهید فعالیت‌هایی را اولویت‌بندی کنید که به گوگل کمک می‌کند تا بفهمد چه چیزی را و چه زمانی باید کراول کند.

چگونه بودجه خزش خود را بررسی کنیم؟

چه صاحب یک وب سایت کوچک هستید و چه روی سایتی کار می‌کنید که هزاران صفحه و URL دارد، به جای اینکه به حرف‌های گوگل توجه کنید، بهتر است خودتان بررسی کنید و ببینید که آیا مشکل بودجه خزش دارید یا خیر. بهترین راه برای بررسی بودجه خزش و کشف اینکه آیا گوگل همه صفحات شما را کراول کرده یا برخی را از قلم انداخته است این است که تعداد کل صفحات در معماری سایت خود را با تعداد صفحات خزیده شده توسط Googlebot مقایسه کنید.

این کار به یک خزنده (کراولر) سایت و همچنین یک تحلیلگر فایل گزارش یا Log File نیاز دارد.

استفاده از تحلیل لاگ با تقسیم بندی URLها

از فایل‌های گزارش خود می‌توانید دریابید که گوگل در هر ماه چه تعداد از URL های سایت شما را کراول کرده است. این همان بودجه خزش گوگل شما است.

فایل‌های گزارش خود را با خزش کامل سایت ترکیب کنید تا بفهمید بودجه خزش شما چگونه خرج می‌شود. این داده ها را بر اساس نوع صفحات تقسیم بندی کنید تا مشخص شود کدام بخش از سایت شما توسط موتورهای جستجو و با چه فرکانسی کراول می‌شود.

همچنین، متوجه خواهید شد که مهم‌ترین بخش‌های سایت شما چگونه کراول می‌شوند.

استفاده از نمودار Crawls Venn

یکی از بهترین راه‌ها برای اینکه نسبت صفحات کراول شده را در مقابل صفحاتی که بات گوگل آن‌ها را کراول نکرده است بفهمیم، استفاده از نمودار Crawls Venn است.

استفاده از نمودار Crawls Venn

دو دایره‌ای که در این نمودار ون می‌بینید یکی صفحاتی در معماری سایت شما است (فقط توسط Botify کراول شده)، و دیگری صفحات خارج از معماری سایت شما است (فقط توسط Google کراول شده، و با عنوان "صفحات یتیم" نیز شناخته می‌شود) و نقطه مشترک آن‌ها صفحاتی را نشان می‌دهد که هم توسط Google و هم Botify کراول شده‌اند.

صفحاتی که توسط Google کراول می‌شوند، تنها زمانی که نوبت به بودجه خزش شما می‌رسد، فضای ممکن برای بهبود را نشان می‌دهند. اگر این صفحات به هیچ جایی از وب سایت شما پیوند داده نشده‌اند، اما گوگل همچنان آن‌ها را پیدا کرده و در آن‌ها می‌خزد، به این معنی است که احتمالا بخشی از بودجه خزش شما در حال هدر رفتن است.

نسبت خزش در سایت‌های مختلف به طور چشمگیری متفاوت است. در صنایع و حوزه‌های مختلف، برای سایت‌های بهینه نشده، به طور متوسط تنها 40 درصد از URL های استراتژیک هر ماه توسط گوگل کراول می‌شوند. 60٪ باقیمانده همان صفحات یک وب سایت هستند که به طور منظم کراول نمی‌شوند، در نتیجه به طور بالقوه ایندکس نیز نشده یا در صفحات نتایج جستجو (SERPs) به جستجوگران نشان داده نمی‌شوند.

این مطلب پیشنهاد می شود :  مهمترین تفاوت دیجیتال مارکتینگ و برندسازی چیست؟

با همین روش می‌توانید بودجه خزش خود را اندازه گیری و بهینه سازی کنید.

بهینه سازی بودجه خزش چیست؟

بهینه سازی بودجه خزش فرآیندی است که به Googlebot و سایر موتورهای جستجو کمک می‌کند تا محتوای مهم شما را کراول و فهرست‌بندی کنند.

برای بهینه سازی بودجه خزش سه راه اصلی وجود دارد:

  • دور نگه داشتن گوگل و سایر موتورهای جستجو از صفحاتی که نمی‌خواهید ایندکس شوند.
  • به گوگل و سایر موتورهای جستجو کمک کنید مطالب مهم شما را سریع‌تر پیدا کنند.
  • محبوبیت و تازگی صفحات مهم وب سایت خود را افزایش دهید.

اجازه دهید ببینیم که در عمل این رویه دقیقا به چه صورت انجام می‌شود.

چگونه بودجه خزش خود را بهینه کنیم؟

بهینه سازی بودجه خزش می‌تواند به همان اندازه که به افزایش بودجه خزیدن شما مربوط می‌شود (یعنی وادار کردن گوگل به صرف زمان بیشتری در سایت شما)، همان اندازه نیز باعث شود که گوگل مدت زمانی را که قبلاً به خزیدن در سایت شما اختصاص می‌داده است، حالا عاقلانه‌تر و بهینه‌تر صرف کند.

این بهینه سازی می‌تواند شامل موارد زیر شود:

  • جلوگیری از خزیدن گوگل در URL های غیر متعارف (non-canonical URLs) وب سایت شما
  • بهبود زمان بارگذاری صفحه با بهینه سازی جاوا اسکریپت
  • به حداقل رساندن خطاهای خزیدن و کد وضعیت non-200
  • بررسی محدودیت نرخ خزیدن در Google Search Console
  • افزایش محبوبیت صفحات
  • تازه کردن و به روز رسانی مطالب قدیمی و بدون بازدید

در ادامه این موارد را تک به تک بررسی می‌کنیم.

1- جلوگیری از خزیدن گوگل در URL های غیر متعارف (non-canonical URLs) وب سایت شما

تگ‌های کنونیکال (canonical) یا متعارف به گوگل می‌گویند که کدام نسخه از یک صفحه، نسخه اصلی و ترجیحی شما است.

به عنوان مثال، فرض کنید یک صفحه دسته بندی محصول برای «شلوار جین زنانه» دارید که در /clothing/women/jeans قرار دارد، و آن صفحه به بازدیدکنندگان اجازه می‌دهد تا بر اساس قیمت محصولات مختلف را مرتب کنند: از قیمت پایین به بالا (یعنی پیمایش وجهی).

با تغییر قیمت ممکن است این URL به /clothing/women/jeans?sortBy=PriceLow تغییر کند. تغییر یک فیلتر برای نمایش محصولات به ترتیب قیمت باعث تغییر در محتوای این صفحه نمی‌شود. بنابراین قطعا نمی‌خواهید /clothing/women/jeans?sortBy=PriceLow و /clothing/women/jeans هر دو ایندکس شوند.

در این موارد، اصولا یک برچسب متعارف (تگ کنونیکال) به /clothing/women/jeans?sortBy=PriceLow اضافه می‌کنید تا نشان دهد /clothing/women/jeans نسخه اصلی آن صفحه است و نسخه دیگر تکراری است. همین مورد در خصوص پارامترهای URL که به عنوان شناسه بخش اضافه شده‌اند نیز صادق است.

شما به راحتی می‌توانید تشخیص دهید که گوگل چه زمانی را صرف خزیدن صفحات غیر متعارف (non-canonical) با نشانگر غیرقابل ایندکس می‌کند. در بسیاری از سایت‌های فروشگاهی صفحات غیرمتعارفی که قابل خزیدن برای گوگل هستند وجود دارد. این صفحات بودجه خزش را به کلی هدر می‌دهند.

یکی دیگر از نتایج احتمالی حذف انبوهی از URLهای غیر متعارف و ممانعت از خزش بات‌های گوگل در آن‌ها این است که صفحات بیشتری را می‌توان به دفعات بیشتر کراول کرد. صفحاتی که بیشتر کراول می‌شوند، ترافیک بیشتری نیز دریافت می‌کنند.

گوگل این مشکل هدر رفتن بودجه خزش را سال‌ها پیش گوشزد کرد، اما همچنان این معضل بزرگ برای سئو وجود دارد.

راه حل این معضل چیست؟

از فایل robots.txt خود استفاده کنید تا به موتورهای جستجو بگویید چه چیزهایی را کراول نکنند. هدر دادن منابع سرور در این نوع صفحات باعث می‌شود خزیدن بات‌ها در صفحاتی که واقعاً دارای ارزش هستند کم‌تر شود و این امر ممکن است مانع کشف محتوای عالی شما توسط گوکل شود یا خزیدن بات‌ها را به تاخیر بیاندازد.

با استفاده از فایل robots.txt سایت خود می توانید به بات‌های موتور جستجو بگویید که چه چیزی را کراول کنند و چه چیزی را نادیده بگیرند. فایل‌ robots.txt در ریشه وب‌سایت‌ها قرار دارد و محتوای آن چیزی مثل شکل زیر است:

فایل robots.text

برای اطلاعات بیشتر در مورد ایجاد فایل‌های robots.txt می‌توانید اسناد گوگل را ببینید.

اما چگونه این فایل به حفظ بودجه خزش شما کمک می‌کند؟ در مورد مثالی که درباره "شلوار جین زنانه" و نرتب کردن صفحه محصولات بر حسب قیمت زدیم، شما می‌توانید از robots.txt خود استفاده کنید تا موتورهای جستجو را از خزیدن در صفحات تکراری منع کنید. قطعا نمی‌خواهید موتورهای جستجو وقت خود را برای آن‌ها تلف کنند زیرا به هر حال نمی‌خواهید این صفحات در فهرست گوگل قرار بگیرند.

وب سایت‌های بزرگ با کاهش صفحات قابل ایندکس خود بودجه خزش را بهینه می‌کنند و ترافیک صفحات ارزشمند را افزایش می‌دهند. فایل robots.txt شما می‌تواند گام مهمی برای هدایت موتورهای جستجو از محتوای بی اهمیت به سمت محتوای مهم شما باشد.

البته باید به این نکته نیز توجه داشته باشید که اجازه ندادن به موتورهای جستجو برای کراول کردن برخی بخش‌ها یا صفحات خاص تضمین نمی‌کند که موتورهای جستجو آن صفحات را ایندکس نکنند. اگر پیوندهایی به آن صفحات در جای دیگری وجود داشته باشد، مانند محتوا یا نقشه سایت، موتورهای جستجو ممکن است باز هم آن‌ها را پیدا و فهرست کنند. در بخش‌های بعدی بیشتر در این مورد صحبت خواهیم کرد.

2- بهبود زمان بارگذاری صفحه با بهینه سازی جاوا اسکریپت

اگر وب سایت شما زیاد از جاوا اسکریپت استفاده می‌کند، ممکن است بودجه خزش برای فایل‌های جاوا اسکریپت و فراخوانی API هدر برود.

به این مثال دقت کنید. یک مشتری که صاحب یک وب سایت سازمانی بزرگ بود، رندر سمت مشتری را به رندر سمت سرور (SSR) تغییر داد. تقریباً بلافاصله، از تجزیه و تحلیل فایل لاگ دریافتیم که گوگل زمان بیشتری را صرف محتوای حیاتی وب‌سایت می‌کند. از آنجایی که گوگل صفحه کاملا بارگذاری شده را از سرور دریافت می‌کرد، نیازی به صرف زمان برای فایل‌های جاوا اسکریپت و فراخوانی API نبود.

این مطلب پیشنهاد می شود :  بازاریابی محتوا چیست و استراتژی آن چگونه تدوین می‌شود؟

با اینکه جاوا اسکریپت تنها چیزی نیست که می‌تواند به کاهش زمان بارگذاری صفحه منجر شود، اما اغلب چند ثانیه زمان بارگذاری صفحه را افزایش می‌دهد. از آنجایی که "سرعت یا کندی بارگذاری صفحات" معیاری است که گوگل در بودجه خزش از آن استفاده می‌کند (و از نظر سئویی نیز بسیار مهم است)، استفاده زیاد از جاوا اسکریپت می‌تواند عامل مهمی باشد تا گوگل محتوای مهم و ارزشمند شما را نادیده بگیرد.

راه حل این معضل چیست؟

بار رندر جاوا اسکریپت را از موتورهای جستجو بردارید. تغییر رندر به سمت سرور (SSR) یا یک راه حل رندر پویا مانند SpeedWorkers می‌تواند بات‌های موتور جستجو را آزاد کند تا زمان بیشتری را در صفحات مهم شما بگذرانند زیرا آن‌ها دیگر مجبور نیستند، زمانی که از صفحات شما بازدید می‌کنند، وقت خود را صرف رندر جاوا اسکریپت کنند.

سرعت صفحه یکی از مولفه‌های تجربه کاربری و یک عامل مهم در رتبه‌بندی گوگل است، اما به یاد داشته باشید، سرعت صفحه یک عامل بودجه خزش نیز هست. اگر روی سایت بزرگی کار می‌کنید که از جاوا اسکریپت استفاده می‌کند، به خصوص اگر محتوا مرتباً تغییر می‌کند، ممکن است لازم باشد محتوای خود را از پیش برای بات‌های موتور جستجو رندر کنید.

3- به حداقل رساندن خطاهای خزیدن و کد وضعیت non-200

یکی از معیارهایی که به گوگل کمک می‌کند تا تعیین کند چقدر زمان در سایت شما صرف کند این است که "آیا خزنده با خطا مواجه شده است یا نه؟"

اگر Googlebot هنگام خزیدن سایت شما با خطاهای زیادی مانند خطای سرور 500 مواجه شود، ممکن است محدودیت نرخ خزیدن شما و در نتیجه بودجه خزش شما را کاهش دهد. اگر متوجه حجم بالایی از خطاهای 5xx شدید، شاید لازم باشد که به دنبال بهبود قابلیت‌های سرور خود بروید.

اما کدهای وضعیت non-200 نیز می‌توانند به سادگی تلفات ایجاد کنند. چرا وقت گوگل را برای خزیدن در صفحاتی که حذف یا ریدایرکت کرده‌اید تلف می‌کنید، در حالی که می‌توانید همین زمان را فقط به URLهای زنده و موجود خود اختصاص دهید؟

موردی داشتیم که یک وب سایت کوچک (که کم‌تر 100 هزار صفحه منتشرشده داشت) هنگام خزش بات‌ها در سایتش، سهم نسبتا بالایی در کدهای واکنشی non-200 داشت (میانگین 40 درصد). اما یک روز، باگی در آن به وجود آمد که باعث می‌شد URLهای ناقصی که قبلا دیده نمی‌شدند کراول شوند. این URLهای خراب در نهایت 90 درصد از بودجه خزش را مصرف کردند.

الگوی URLهای ناقص شناسایی شد و با استفاده از تقسیم‌بندی URL به‌عنوان «خطا» به رنگ زرد، آن‌ها را برچسب‌گذاری کردند. با این کار توانستند تاثیر این URLهای خراب را بر سایر قسمت‌های سایت درک کنند. در واقع، گوگل تمام وقت خود را صرف URLهای خطا می‌کرد و صفحات واقعی و ارزشمند این سایت را از قلم می‌انداخت.

راه حل این معضل چیست؟

پیوندهای داخلی خود را تمیز کنید و مطمئن شوید نقشه سایت XML شما به روز است. علاوه بر مسدود کردن بات‌های گوگل از خزیدن در URL‌های بد، همچنین فکر خوبی است که از پیوند دادن به صفحاتی با کد وضعیت non-200 خودداری کنید.

برای جلوگیری از هدر دادن بودجه خزش، حتما از بخش‌های مختلف وب سایت و محتواهای خود به صفحاتی پیوند دهید که URL فعال و ارجح شما هستند. به عنوان یک قاعده کلی، اگر یک URL مقصد نهایی محتوای شما نیست، باید از لینک دادن به آن‌ خودداری کنید.

برای مثال، باید از پیوند دادن به موارد زیر اجتناب کنید:

  • URLهای ریدایرکت شده
  • نسخه غیرمتعارف (non-canonical) یک صفحه
  • URLهایی که کد وضعیت 404 دارند.

بودجه خزش خود را با ارسال بات‌های گوگل از طریق چند واسطه (که به زنجیره‌ها و حلقه‌ها معروف است) برای یافتن محتوای خود هدر ندهید. در عوض، به مقصد نهایی پیوند دهید.

همچنین، از اشتباهات رایج نقشه سایت XML بپرهزید، مانند:

  • فهرست کردن صفحات غیرقابل ایندکس مانند صفحات non-200، صفحات غیر متعارف، صفحات no-HTML و URLهای no-indexed
  • فراموش کردن به روز رسانی نقشه سایت پس از تغییر URLها در حین انتقال سایت
  • حذف صفحات مهم و موارد دیگر.

بسیار مهم است که در نقشه سایت خود فقط URLهای زنده و ارجح را قرار دهید و مراقب باشید که صفحات مهم و کلیدی خود را که می‌خواهید در گوگل ایندکس شوند اشتباها از قلم نیندازید. آیا صفحات محصول قدیمی و بی‌استفاده دارید؟ حتما آن‌ها را از نقشه سایت خود حذف کنید.

4- بررسی محدودیت نرخ خزیدن در Google Search Console

گوگل به شما این امکان را می‌دهد که نرخ خزیدن Googlebot را در سایت خود تغییر دهید. این ابزار می‌تواند بر محدودیت نرخ خزیدن شما تأثیر بگذارد که بخشی از نحوه تعیین بودجه خزش سایت شما توسط گوگل است، بنابراین درک آن بسیار مهم است.

اگرچه مجبور نیستید از این تابع استفاده کنید، اما اگر بخواهید مطابق با الگوریتم های گوگل نرخ خزش سایت خود را تعیین کنید، می‌توانید با گوگل سرچ کنسول این کار را انجام دهید. اگر نرخ خزش خیلی زیاد باشد، خزیدن Googlebot ممکن است فشار زیادی به سرور شما وارد کند، به همین دلیل است که گوگل به مدیران وب‌سایت‌ها امکان تعیین نرخ خزش محدود را می‌دهد. با این حال، این کار ممکن است باعث شود گوگل محتوای مهم شما را کم‌تر پیدا کند، بنابراین باید با احتیاط از آن استفاده کنید.

این مطلب پیشنهاد می شود :  تفاوت دیجیتال مارکتینگ و تجارت الکترونیک

راه حل این موضوع چیست؟

نرخ خزش خود را در GSC (گوگل سرچ کنسول) تنظیم کنید. برای تنظیم نرخ خزش، به صفحه تنظیمات نرخ خزش و ویژگی مورد نظر خود بروید. دو گزینه را مشاهده خواهید کرد: «Let Google optimize» (به گوگل اجازه بهینه سازی بده) و «Limit Google’s maximum crawl rate» (حداکثر نرخ خرش گوگل را محدود کن). اگر می‌خواهید نرخ خزش سایت خود را افزایش دهید، بهتر است بررسی کنید و ببینید که آیا «Limit Google’s maximum crawl rate» به طور تصادفی انتخاب شده است یا خیر.

5- افزایش محبوبیت صفحات

Urlها‌یی که در اینترنت محبوبیت بیشتری دارند، بیشتر هم توسط گوگل کراول می‌شوند. یکی از راه‌هایی که گوگل ممکن است محبوبیت یا حداقل اهمیت نسبی یک صفحه را قضاوت کند، مشاهده عمق آن صفحه است. عمق صفحه (یا "عمق کلیک") تعداد کلیک‌هایی است که برای رسیدن به یک صفحه از صفحه اصلی لازم است. هر چه تعداد این کلیک‌ها بیشتر باشد (یعنی عمق صفحه بیشتر باشد)، خزش بات‌های گوگل در آن‌ها کم‌تر می‌شود.

یکی دیگر از نشانه‌های محبوبیت یک صفحه در یک سایت لینک سازی داخلی است. اگر به یک صفحه چندین بار پیوند داده شود، به این معنی است که آن صفحه محبوب است. به عبارت دیگر، صفحاتی که لینک بیشتری دریافت کریده‌اند، بیشتر کراول می‌شوند.

راه حل این موضوع چیست؟

عمق صفحات را کاهش و لینک‌های داخلی به صفحات مهم را افزایش دهید. برای اینکه به گوگل کمک کنید تا درک بهتری از اهمیت و محبوبیت صفحات شما داشته باشد، ایده خوبی است که صفحات مهم خود را به صفحه اصلی نزدیک‌تر کنید و همچنین بیشتر به آن‌ها لینک دهید.

اگرچه نمی‌توانید از صفحه اصلی سایت خود به هر صفحه‌ای پیوند دهید، در مورد پیوندهای داخلی و معماری سایت خود با استراتژی عمل کنید. اگر صفحه‌ای دارید که در سایت شما دفن شده است یا زیاد به آن پیوند نمی‌دهید، این احتمال وجود دارد که گوگل آن را کم اهمیت‌تر تلقی کند و کم‌تر در آن بخزد.

6- تازه کردن و به روز رسانی مطالب قدیمی و بدون بازدید

ممکن است گوگل دیگر یک صفحه را کراول نکند فقط به این دلیل که محتوای آن کهنه و منقضی شده است. اگر گوگل چند بار در سایت شما بخزد و تغییری در یک صفحه مشاهده نکند ممکن است دیگر آن را کراول نکند. گوگل می‌خواهد از کهنه شدن صفحات در فهرست خود جلوگیری کند.

یکی از راه‌های تشخیص اینکه آیا محتوای قدیمی در سایت خود دارید یا خیر، جداسازی پست‌هایی است که قبل از تاریخ خاصی منتشر شده‌اند. برای مثال، اگر سرعت انتشار بسیار تهاجمی دارید (یعنی چندین پست در هر روز)، ممکن است بخواهید پست‌های قدیمی‌تر از سه ماه را فیلتر کرده و مشاهده کنید. برای سایت‌هایی که کم‌تر محتوا منتشر می‌کنند، شاید این فرآیند برای پست‌های قدیمی‌تر از سه سال کفایت کند. این فقط به معیار شما بستگی دارد.

علاوه بر این، می‌توانید این فیلتر را با فیلتر «فعال/غیر فعال» جفت کنید. این کار به شما امکان می‌دهد تا تمام پست‌های قدیمی را که ترافیک جستجوی ارگانیک دریافت نمی‌کنند مشاهده کنید.

راه حل این معضل چیست؟

محتوای قدیمی خود را به روز رسانی کنید. راه های زیادی وجود دارد که می‌توانید محتوای قدیمی خود را به روز کنید، مثلا:

  • هرگونه اطلاعات قدیمی را اصلاح کنید.
  • اشتباهات املایی و دستور زبانی را بیابید و برطرف کنید.
  • هر پیوند داخلی را که به منابع قدیمی ارجاع می‌دهد به روز کنید و در صورت لزوم پیوندهای جدید اضافه کنید.
  • ببینید که یک صفحه برای چه پرس و جوهایی رتبه بندی می‌شود، بعد تحقیق کنید که با چه عبارات دیگری می‌توانید رتبه آن صفحه را در SERP ارتقا دهید و بر اساس آن محتوای خود را به روز رسانی‌ کنید.

مثالی از بهینه سازی بودجه خزش

یک وب سایت بزرگ فعال در بازار خودرو با یک مشکل بزرگ مواجه می‌شود و به گروه Botify مراجعه می‌کند - 99٪ از صفحات سایت آن‌ها برای گوگل نامرئی بودند. قطعا این سایت به بهینه سازی بودجه خزش نیاز دارد!

تیم Botify با انجام دقیق مراحل زیر توانست بودجه خزش آن‌ها را 19 برابر افزایش دهد:

  1. تمام صفحات موجود در ساختار این سایت را با بات‌های Botify کراول کردند.
  2. فایل‌های گزارش (Log Files) را ایمپورت کردند تا متوجه شوند گوگل کدام یک از آن صفحات را کراول نمی‌کند.
  3. تمام صفحات غیر قابل ایندکس در ساختار سایت را شناسایی کردند.
  4. فایل robots.txt را به روز رسانی کردند تا پس از انجام مرحله 2 از تلفات خزیدن جلوگیری کنند.
  5. پیوندهای داخلی را اصلاح کردند، عمق صفحات را کاهش دادند و ساختار خرده نان (breadcrumb structure) سایت را بازسازی کردند.
  6. نقشه سایت را طوری به‌روزرسانی کردند که فقط URLهای قابل ایندکس را شامل شود.
بهبود خزش می‌تواند درآمد شما را بهبود ببخشد

بهبود خزش می‌تواند درآمد شما را بهبود ببخشد

استفاده از روش‌های بهینه‌سازی‌ بودجه خزش که در این مقاله ذکر شد، حتی در سایتی که میلیون‌ها صفحه دارد، می‌تواند فرصت‌های فراوانی ایجاد کند - هم برای بودجه خزش، هم برای افزایش ترافیک سایت و هم برای افزایش درآمد شما از وب سایت‌تان!

قواعد قیف سئو نشان می‌دهد که بهبود مرحله خزش برای سطوح پایین دستی مثل مراحل رتبه بندی، ترافیک و درآمد نیز مزیت ایجاد می‌کند. بودجه خزش فقط یک چیز فنی و تکنیکال نیست، بلکه روی درآمد شما تاثیر می‌گذارد. بنابراین سعی کنید بات‌ها و بازدیدکنندگان را فقط به سمت چیزهای خوب هدایت کنید!

اگر نیاز به مشاوره و راهنمایی بیشتری دارید، کارشناسان ما در آژانس دیجیتال مارکتینگ منتاپلاس در خدمت شما هستند.

منبع: https://www.botify.com/

اشتراک گذاری :

مشاوره تلفنی

مشاوره

در صورت نیاز به مشاوره می توانید فرم را تکمیل نمایید و یا با ما در ارتباط باشید.

مشاوره تلفنی

09231012812

در صورت نیاز به مشاوره می‌توانید فرم را تکمیل نمایید و با ما در ارتباط باشید.