مدیریت ترافیک رباتها از این جهت اهمیت دارد که سرور میزبان وبسایت شما برای پردازش و بارگذاری صفحات برای رباتها مشغول نشود. از طرف دیگر، اکثر سرورها یا میزبانهای وبسایت از نظر پنهای مجله خبری سئو باند و ترافیک محدودیت دارند؛ به همین دلیل مصرف ترافیک برای رباتها مقرون به صرفه نیست. نمی خواهید که موتورهای جستجو صفحات مربوط به تگ ها و نویسنده ها در وب سایت شما بخزند.
- در بخش بعد توضیح میدهیم که چطور یک فایل Robots.txt بسازیم، آن را در جای درستش قرار دهیم و تست کنیم تا رباتهای گوگل به آن دسترسی داشته باشند.
- همچنین برخی از دستورات انحصاری رباتهای خاص هم برای بسیاری از رباتها، ناشناخته و غیر قابل درک است و به همین خاطر ممکن است برخی رباتها از این دستورات پیروی کنند و برخی دیگر به آنها توجهی نکنند.
- برای مثال می توانید به ربات های گوگل بگویید که کدام صفحات سایت شما را ایندکس کنند و در نتایج گوگل نمایش دهند و کدام صفحات را در نتایج گوگل نمایش ندهند و ایندکس نکنند.
- اگر یک سئو کار حرفه ای نیستید، به هیچ عنوان سمت استفاده از این روش نروید؛ این تکنیک یکی از تکنیک های سئوی کلاه سیاه به حساب می آید و حتما باید توسط افراد حرفه ای و متخصص انجام شود.
آژانس دیجیتال مارکتینگ و طراحی سایت eBgroup از دهه 90 بعنوان یکی از آژانسهای موفق در زمینه سئو، طراحی سایت، تولید محتوا و تبلیغات کلیکی در غرب تهران مشغول به فعالیت بوده است. مسئله شما ارتباطی به فایل robots نداره و باید اگر از وردپرس استفاده می کنید در تنظیمات افزونه Yoast جلوی ایندکس شدن این صفحات رو بگیرید. با استفاده از کد allow اجازه مشاهده یک فایل در فولدری که قبلا Disallowed شده را می دهید. جدول زیر شامل نمونههایی از آدرسهای اینترنتی robots.txt و مسیرهای URL است که برای آنها معتبر هستند. ستون یک شامل URL یک فایل robots.txt است و ستون دو شامل دامنههایی است که آن فایل robots.txt برای آنها اعمال میشود و نمیخواهد. اجازه دسترسی به همه خرنده ها به جز یک خزنده خاص را صادر کنیدUnnecessarybot ممکن است در سایت خزیده نشوند، همه ربات های دیگر ممکن است.
استراتژی محتوا
در غیر این صورت آنها به رفتار طبیعی خود یعنی بررسی و ایندکس کردن تمام بخشهای سایت ادامه خواهند داد. علاوه بر این یک فایل robots.txt به موتورهای جستجو بیان می کند که نقشه سایت XML در کجا واقع شده است. پس از درک مفهوم فایل robots.txt به تاثیر این فایل در سئو و بهینه سازی سایت می پردازیم. قطعاً استفاده از Robots.txt برای سایت یک سری مزایایی را به همراه خواهد داشت، برای مثال یکی از این مزایا عبارت است از بهینهسازی بودجه خزش یا همان Crawl Budget. با استفاده از فایل Robots.txt همانطور که گفته شد، شما میتوانید به خزندههای موتورهای جستجو دستوراتی را بدهید تا با پیروی از آن درک صحیحتری از سایت شما داشته باشند. یکی از مشکلاتی که برای سایتها پیش میآید و عملاً جز ماموریتهای یک متخصص سئو میباشد، این است که نهایت استفاده از بودجه خزش را بکند، از این رو با مسدود کردن برخی از پیشفرضهای صفحات سایت میتواند این امر را محقق کند.
فایل ربات robots.txt حاوی دستورالعملهایی است که برای موتورهای جستجو مشخص میکند اجازه دسترسی به کدام بخشهای وبسایت را دارند و دسترسی به کدام بخشها برای آنها مجاز نیست. اغلب موتورهای جستجوی شناختهشده نظیر گوگل، بینگ و یاهو از فایل ربات پشتیبانی میکنند و محتویات موجود در آن را بررسی میکنند. مطالعه این راهنما به شما در مورد فایل robots.txt سایت و نحوه ساخت فایل ربات سایت و اهمیت آن در سئو اطلاعات زیادی خواهد داد. با مطالعه این مقاله شما میتوانید فایل robots.txt سایت خود را ایجاد و بررسی کنید و مطابق با ساختار سایتتان اصلاح کنید. فایل Robots.txt یا فایل ربات ساز یکی از موارد مهم در چک لیست سئو تکنیکال است که فعالیت رباتهای جستجوگر جهت ایندکس صفحات مختلف یک وب سایت را کنترل و مدیریت میکند.
اضافه کردن sitemap به فایل
Google در حال حاضر محدودیت اندازه فایل robots.txt را 500 کیلوبایت اعمال می کند. میتوانید با ادغام دستورالعملهایی که منجر به ایجاد یک فایل robots.txt بزرگتر میشود، اندازه فایل robots.txt را کاهش دهید. به عنوان مثال، مطالب حذف شده را در یک فهرست جداگانه قرار دهید.
سئوی سایت به دو نوع آف پیج و آن پیج تقسیم می شود، این مقاله درباره سئوی آن پیج است