آزمایش فایل‌های robots.txt ساده تر شد

آزمایش فایل‌های robots.txt ساده تر شد

تاریخ انتشار: 20 تیر 1394

تعداد بازدید: 0 نفر

خوانده شدن یا خوانده نشد، مساله برای robots.txt این است!
ایجاد و حفظ فایل‌های صحیح robots.txt میتواند در برخی‌ موقع دشوار باشد. در حالی‌ که بیشتر سایت‌ها این کار را ساده می‌دانند (نکته: بیشتر این سایت‌ها اغلب به فایل‌های robots.txt نیزی ندارند) قرار داشتن دستورات درون فایل‌های پر حجم robot.txt که میتواند URL‌های مجزا را بلاک کند ممکن است دارای ریسک باشد. به منظور آنکه این امر ساده تر شود، ما تمایل داریم تا ابزار وبمستر جدید خود با عنوان  robots.txt testing toolرا به شما معرفی‌ نمائیم. شما میتوانید ابزار تست گیری آپدیت شده را در  Webmaster Toolsو در بخش Crawl مشاهده نمائید:
در اینجا شما میتوانید فایل‌های موجود robots.txt را مشاهده نمائید و URL‌های جدید را مورد بررسی قرار دهید که آیا قابل خوانده شدن هستند یا خیر. به منظور آنکه راه شما در میان دستورات پیچیده مشخص شود، این ابزار به شما نکته اصلی‌ را به موجب به وجود آمدن موضوع شده است را نشان میدهد. شما میتوانید در فایل‌ها تغییراتی را اعمال کرده و آن‌ها را نیز مورد آزمایش قرار دهید. تنها کاری که پس از آن لازم است انجام دهید این است که فایل اصلاح شده را پس از انجام آزمایش‌های خود در سرور سایت آپلود نمائید تا تغییرت لازم در صفحه‌های شما ایجاد شود
به علاوه شما قادر هستید تا مروری بر نسخه‌های قدیمی‌ فایل‌های robots.txt قدیمی‌ خود داشته باشید و مشاهده نمائید که در چه زمانی‌ عدم دسترسی‌ برای روبات‌های ما وجود داشته است. برای مثال در صورتی‌ که googlebot ۵۰۰ مورد خطای سرور برای یک فایل robots.txt مشاهده کند، به طور اتوماتیک بررسی بیشتر برای آن سایت را متوقف خواهد کرد

اشتراک گذاری:
021-41658