بخش Vip سئو نود

بهترین فرصت برای یادگیری در قسمت Vip سئو نود هم اکنون برای دانشجوبان عزیز فراهم شده است

جزئیات بیشتر
آموزش یکبار برای همیشه
بمناسبت عید بزرگ فطر ، 25% تخفیف ویژه با کد : EidFetr

لیست کامل دستورات Disallow برای ووکامرس

مقالات وردپرس

در فایل robots.txt چه آدرس هایی را باید توسط دستور Disallow از دسترس خزنده‌ها دور کنیم ؟ لیست کامل 20 آدرس که درصورت استفاده از ووکامرس باید داخل فایل robots قرار دهید !

0 29
لیست کامل دستورات Disallow برای ووکامرس

دوستانی که در زمینه سئو و بهینه سازی سایت فعالیت دارند با کلمه Disallow نیز آشنایی دارند . اگر به این حوزه علاقمند باشید لازم است بدانید که در مجموع پروسه سئو و بررسی آدرس‌های سایت توسط خزنده‌های موتورهای جستجو ، این خزنده‌ها آدرس‌های مختلف سایت شما را بررسی می‌کنند که از طریق نقشه سایت و همچنین آدرس‌هایی است که مخاطبان و کاربران شما از آنها بازدید می‌کنند ، نسبت به امتیازدهی به سایت و صفحات شما اقدام می‌نمایند .

در پروسه سئو ، صفحاتی هستند که باید محتوای مناسب و قابل قبولی داخل آنها قرار داده شود تا هم برای کاربران مفید باشد و هم برای خزنده‌ها ، در این بین صفحاتی هستند که نمی‌توان عملا محتوای خوبی برای آنها نوشت ، مثلا صفحه ورود و ثبت نام کاربران دخل سایت ! خب در داخل صفحه ورود به سایت ، نهایتا یک فرم ورود داریم و چند آیکون یا عکس ، لذا نمی‌توان در این صفحه ارزش محتوایی ایجاد کرد . اینگونه صفحات را بهتر است از دید خزنده‌ها پنهان کنیم تا زمانی که قصد داشتند این صفحات را بررسی کنند ، از همان ابتدای راه ، برگشت کنند و به سراغ صفحات دیگری بروند . در قوانین سئو روشی وجود دارد که بتوانیم یک صفحه یا مجموعه‌ای از صفحات را از دسترس خزنده ها خارج کنیم که اصطلاحا آن را Disallow کردن می‌نامیم .

دقت داشته باشید که این عبارت را با Disavow اشتباه نگیرید . اگر درمورد Disavow  اطلاعات لازم را ندارید می‌توانید از لینک زیر استفاده کنید :

Disallow کردن از طریق یک فایل بنام فایل robots.txt انجام خواهد شد . این فایل در ریشه اصلی سایت و داخل پوشه Public html قرار دارد لذا اگر آدرس سایت خودتان را وارد کرده و به دنبال آن نام فایل robots.txt را وارد کنید ، شاهد محتوای فایل روبوتس خواهید بود ، دقیقا مانند مثال زیر در سایت خود ما :

https://seo90.ir/robots.txt

در این آدرس لیستی از آدرس‌های مشخص قرار گرفته است که این فایل توسط خزنده‌ها در ابتدا بررسی می‌شود و اگر هنگام خریدن بین صفحات ، به هریک از صفحات با این آدرس‌ها برخورد کنند ، از خزش در داخل آنها اجتناب خواهند کرد . تصمیم گیری درباره اینکه کدام صفحات از سایت خودتان را داخل لیست فایل روبوتس قرار دهید مربوط به خودتان است چراکه ممکن است تصمیم داشته باشید تا آدرس های خاصی را از دسترس خارج کنید اما در برخی موارد و افزونه‌های شناخته شده ، می‌توان در سایت‌های وردپرسی به روش یکسانی عمل کرد .

چه آدرس هایی از ووکامرس باید در لیست Disallow باشند ؟

در فروشگاه های اینتزنتی که خطاب ما در اینجا ووکامرس و وفروشگاه ساز وردپرس است ، برخی صفحات وجود دارند که خزنده ها با بازدید از آنها ، مسبب ساخت خطاهایی در سرچ کنسول گوگل خواهند شد و این صفحات ارزشی را برای سایت ایجاد نمی‌کنند و و صرفا آدرس‌هایی هستند که توسط رفتار کاربر ایجاد می‌شوند !

منظور از اینکه توسط رفتار کاربر ایجاد می‌شوند چیست ؟؟؟!!! مثلا قسمت فیلتر کردن محصولات براساس حداقل قیمت را درنظر بگیرید :

...../shop/?orderby=price

در این آدرس قسمتی که با ….. مشخص شده است منظور اسم دامنه شما است . در این آدرس همان محصولات فروشگاه که در صفحه Shop نمایش داده می‌شوند ، بصورت فیلتر براساس ارزان‌ترین قیمت لیست خواهند شد . این صفحه از سایت عملا یک محتوای تکراری از سایت است و ارزش خاصی را منتقل نمی‌کند اما به این دلیل که توسط کاربران سایت و بخش فیلترینگ ایجاد می‌شود ، یک آدرس جدید در سایت شما محسوب می‌شود . اکنون تصور کنید که کاربر محصولات را براساس ارزانترین محصولات مرتب کرده و در صفحه 3 از این فیلتر است ، آدرس به شکل زیر تغییر خواهد کرد :

...../shop/page/3/?orderby=price

این نیز یک آدرس جدید داخل سایت شما محسوب می‌شود که این آدرس‌ها نیز ارزش خاصی از سایت را منتقل نمی‌کنند پس باید این آدرس و آدرس های بخش فیلتر و مرتب سازی را در قسمت Disallow داخل فایل robots.txt قرار داد .

همچنین قسمت‌هایی همچون جستجو در سایت نیز ازجمله این صفحات هستند که توسط جستجو و رفتار کاربر ایجاد خواهند شد چراکه ممکن است کاربر هرمحتوا و کلمه‌ای را جستجو کند و درصورت وجود محتوای مرتبط با عبارت جستجوی کاربر ، هر محتوایی به او نمایش داده شود که در سایت های وردپرس معمولا بصورت /?s یا /search/ هستند .

اگر قسمت‌های rss یا همان خبرخوان در سایت شما فعال نباشد ، می‌توانید این بخش را نیز از دسترس خزنده‌ها دور کنید . صفحاتی در فروشگاه همچون my-account و cart و checkout نیز صفحاتی هستند که مربوط به سبد خرید و حساب کاربری مشتریان و همچنین تسویه حساب است و این صفحات نیز باید داخل Disallow قرار گیرند . یک لیست کامل و دقیق که می‌توانید با خیال راحت در داخل فایل robots.txt استفاده کنید به شکل زیر است :

User-agent: *
Disallow: /wp-admin/
Disallow: /wp-login.php
Disallow: /wp-content/plugins/
Disallow: */feed/
Disallow: /rss
Disallow: /search/
Disallow: /*?s=*
Disallow: /?s=
Disallow: /page/*/?s=
Disallow: /my-account/
Disallow: /cart/
Disallow: /*?add-to-cart=*
Disallow: /checkout/*
Disallow: /*?add_to_wishlist=*
Disallow: /wishlist
Disallow: /compare
Disallow: /*?per_page=*
Disallow: /*?orderby=
Disallow: /*?orderby=price-desc
Disallow: /*?orderby=popularity
Disallow: /*?orderby=rating
Disallow: /*?orderby=price
Disallow: /*?orderby=date
Disallow: /*?filter_brand

در این لیست دقت کنید آدرس‌هایی که در قبل و بعد آنها علامت * وجود دارد ، یعنی قبل و بعد از این آدرس‌ها نیز هر کلمه و آدرس دیگری نیز وجود داشت هم شامل Disallow می‌شود . این لیست با دقت کامل و بررسی تمامی آدرس‌هایی که پس از نصب فروشگاه‌ساز ووکامرس ایجاد خواهد شد تهیه شده است . بخش‌هایی همچون /search/ و /feed/ به ووکامرس ارتباطی ندارند و در تمامی سایت های وردپرس موجود هستند اما بهتر است برای بهبود نرخ خزیدن در داخل سایت خودتان ، اگر ووکامرس نیز ندارید ، لیست زیر را داخل فایل روبوتس خودتان ایجاد کنید . البته ممکن است برخی آدرس‌ها نیز از قبل داخل فایل robots.txt شما وجود داشته باشد .

User-agent: *
Disallow: /wp-admin/
Disallow: /wp-login.php
Disallow: /wp-content/plugins/
Disallow: */feed/
Disallow: /rss
Disallow: /search/
Disallow: /*?s=*
Disallow: /?s=
Disallow: /page/*/?s=

در این لیست شما آیتم‌های ووکامرس مثل مرتب سازی و … را ندارید و لذا به نوعی این موارد برای حالت عمومی یک سایت وردپرسی صحیح است . فایل robots.txt ممکن است بسته به بخش‌های محتوایی موجود داخل سایت ، تعدد محصولات ، محتوای ویدیویی و … شامل لیست زیادی از Url ها باشد و شاید بسته به سیاست‌های سئو ، این موارد متفاوت باشند . اما درهرصورت مواردی همچون آدرس های جستجو ( Search ) ، قسمت های feed و … که عموما در تمامی سایت‌های وردپرسی وجود دارند ، بهتر است داخل فایل robots.txt مسدود شوند !

آیا با Disallow کردن ، صفحات noindex می‌شوند ؟

سئوالی که درمورد روش Disallow و قراردان متاتگ noindex در صفحات وجود دارد اینجاست که این دو در اصل چه تفاوتی با یکدیگر دارند ؟ توجه داشته باشید که وقتی شما یک آدرس یا مجموعه آدرس‌هایی را داخل فایل روبوتس وارد می‌کنید ، به هیچ عنوان متاتگ noindex داخل این آدرس‌ها قرار نخواهد گرفت ، بلکه این آدرس‌ها تماما از دسترس خزنده‌ها خارج خواهند شد و اصلا از آنها بازدیدی صورت نخواهد گرفت . درحالت Disallow شما می‌توانید مجموعه بزرگی از آدرس‌های سایت را از دسترس خارج کنید اما در حالتی که قصد دارید تا noindex انجام دهبد ، باید تک به تک داخل صفحات وارد شده و از متاتگ noindex داخل آنها استفاده کنید . در مورد تفاوت‌های دقیق noindex و Disallow در یک مقاله کامل صحبت خواهیم کرد . امیدواریم این محتوا برای شما مفید بوده باشد .

 

امید قدیمی

امید قدیمی هستم ، 8 سال است که در زمینه طراحی و برنامه نویسی وب سایت فعالیت می کنم . توسعه دهنده فرانت اند ، طراح و برنامه نویس انواع وب سایت های وردپرسی ، فعال در زمینه تولید محتوا و سئو وب سایت

نقشه راه فرانت

اگر قصد دارید تا یک طراح ماهر باشید ، ما درست ترین مسیر را برای شما فراهم کردیم و فقط کافیست همراه ما باشید

شاید این مطالب نیز برای شما جالب باشد

خطای 503 ممکن است شما را اذیت کند ! میتوانید با بررسی 3 مورد اصلی در سایت خودتان ( خصوصا سایت های وردپرسی ) این مشکل را از میان بردارید .

2 71

وردپرس برای چه سایت هایی مناسب است ؟ وردپرس برای چه سایت هایی مناسب است ؟؟؟ شاید برای شما هم این سوال پیش آمده باشد که وردپرس برای چه وب سایت هایی مناسب است ؟ و اصلا چه وب سایت هایی را می توان با وردپرس بالا آورد بدون اینکه مشکلی در آن احساس شود […]

2 713
دیدگاه ها و نظرات
توجه کامنت های انگلیسی تایید نخواهند شد در صورت داشتن مشکل ، قبل از ارسال دیدگاه نظرات سایر دوستان را نیز مطالعه فرمائید برای مشاهده پاسخ دیدگاه ها بر روی علامت " " کلیک کنید
اشتراک دیدگاه
captcha
تکمیل تمامی فیلد ها الزامی است

آموزش های رایگان بیشتر در آپارات و یوتیوب سئو نود
کانال آپارات سئو نود چنل یوتیوب سئو نود