لیست کامل دستورات Disallow برای ووکامرس
مقالات وردپرسدر فایل robots.txt چه آدرس هایی را باید توسط دستور Disallow از دسترس خزندهها دور کنیم ؟ لیست کامل 20 آدرس که درصورت استفاده از ووکامرس باید داخل فایل robots قرار دهید !

دوستانی که در زمینه سئو و بهینه سازی سایت فعالیت دارند با کلمه Disallow نیز آشنایی دارند . اگر به این حوزه علاقمند باشید لازم است بدانید که در مجموع پروسه سئو و بررسی آدرسهای سایت توسط خزندههای موتورهای جستجو ، این خزندهها آدرسهای مختلف سایت شما را بررسی میکنند که از طریق نقشه سایت و همچنین آدرسهایی است که مخاطبان و کاربران شما از آنها بازدید میکنند ، نسبت به امتیازدهی به سایت و صفحات شما اقدام مینمایند .
در پروسه سئو ، صفحاتی هستند که باید محتوای مناسب و قابل قبولی داخل آنها قرار داده شود تا هم برای کاربران مفید باشد و هم برای خزندهها ، در این بین صفحاتی هستند که نمیتوان عملا محتوای خوبی برای آنها نوشت ، مثلا صفحه ورود و ثبت نام کاربران دخل سایت ! خب در داخل صفحه ورود به سایت ، نهایتا یک فرم ورود داریم و چند آیکون یا عکس ، لذا نمیتوان در این صفحه ارزش محتوایی ایجاد کرد . اینگونه صفحات را بهتر است از دید خزندهها پنهان کنیم تا زمانی که قصد داشتند این صفحات را بررسی کنند ، از همان ابتدای راه ، برگشت کنند و به سراغ صفحات دیگری بروند . در قوانین سئو روشی وجود دارد که بتوانیم یک صفحه یا مجموعهای از صفحات را از دسترس خزنده ها خارج کنیم که اصطلاحا آن را Disallow کردن مینامیم .
دقت داشته باشید که این عبارت را با Disavow اشتباه نگیرید . اگر درمورد Disavow اطلاعات لازم را ندارید میتوانید از لینک زیر استفاده کنید :
Disallow کردن از طریق یک فایل بنام فایل robots.txt انجام خواهد شد . این فایل در ریشه اصلی سایت و داخل پوشه Public html قرار دارد لذا اگر آدرس سایت خودتان را وارد کرده و به دنبال آن نام فایل robots.txt را وارد کنید ، شاهد محتوای فایل روبوتس خواهید بود ، دقیقا مانند مثال زیر در سایت خود ما :
https://seo90.ir/robots.txt
در این آدرس لیستی از آدرسهای مشخص قرار گرفته است که این فایل توسط خزندهها در ابتدا بررسی میشود و اگر هنگام خریدن بین صفحات ، به هریک از صفحات با این آدرسها برخورد کنند ، از خزش در داخل آنها اجتناب خواهند کرد . تصمیم گیری درباره اینکه کدام صفحات از سایت خودتان را داخل لیست فایل روبوتس قرار دهید مربوط به خودتان است چراکه ممکن است تصمیم داشته باشید تا آدرس های خاصی را از دسترس خارج کنید اما در برخی موارد و افزونههای شناخته شده ، میتوان در سایتهای وردپرسی به روش یکسانی عمل کرد .
چه آدرس هایی از ووکامرس باید در لیست Disallow باشند ؟
در فروشگاه های اینتزنتی که خطاب ما در اینجا ووکامرس و وفروشگاه ساز وردپرس است ، برخی صفحات وجود دارند که خزنده ها با بازدید از آنها ، مسبب ساخت خطاهایی در سرچ کنسول گوگل خواهند شد و این صفحات ارزشی را برای سایت ایجاد نمیکنند و و صرفا آدرسهایی هستند که توسط رفتار کاربر ایجاد میشوند !
منظور از اینکه توسط رفتار کاربر ایجاد میشوند چیست ؟؟؟!!! مثلا قسمت فیلتر کردن محصولات براساس حداقل قیمت را درنظر بگیرید :
...../shop/?orderby=price
در این آدرس قسمتی که با ….. مشخص شده است منظور اسم دامنه شما است . در این آدرس همان محصولات فروشگاه که در صفحه Shop نمایش داده میشوند ، بصورت فیلتر براساس ارزانترین قیمت لیست خواهند شد . این صفحه از سایت عملا یک محتوای تکراری از سایت است و ارزش خاصی را منتقل نمیکند اما به این دلیل که توسط کاربران سایت و بخش فیلترینگ ایجاد میشود ، یک آدرس جدید در سایت شما محسوب میشود . اکنون تصور کنید که کاربر محصولات را براساس ارزانترین محصولات مرتب کرده و در صفحه 3 از این فیلتر است ، آدرس به شکل زیر تغییر خواهد کرد :
...../shop/page/3/?orderby=price
این نیز یک آدرس جدید داخل سایت شما محسوب میشود که این آدرسها نیز ارزش خاصی از سایت را منتقل نمیکنند پس باید این آدرس و آدرس های بخش فیلتر و مرتب سازی را در قسمت Disallow داخل فایل robots.txt قرار داد .
همچنین قسمتهایی همچون جستجو در سایت نیز ازجمله این صفحات هستند که توسط جستجو و رفتار کاربر ایجاد خواهند شد چراکه ممکن است کاربر هرمحتوا و کلمهای را جستجو کند و درصورت وجود محتوای مرتبط با عبارت جستجوی کاربر ، هر محتوایی به او نمایش داده شود که در سایت های وردپرس معمولا بصورت /?s یا /search/ هستند .
اگر قسمتهای rss یا همان خبرخوان در سایت شما فعال نباشد ، میتوانید این بخش را نیز از دسترس خزندهها دور کنید . صفحاتی در فروشگاه همچون my-account و cart و checkout نیز صفحاتی هستند که مربوط به سبد خرید و حساب کاربری مشتریان و همچنین تسویه حساب است و این صفحات نیز باید داخل Disallow قرار گیرند . یک لیست کامل و دقیق که میتوانید با خیال راحت در داخل فایل robots.txt استفاده کنید به شکل زیر است :
User-agent: *
Disallow: /wp-admin/
Disallow: /wp-login.php
Disallow: /wp-content/plugins/
Disallow: /wp-content/uploads/wc-logs/
Disallow: /wp-content/uploads/woocommerce_transient_files/
Disallow: /wp-content/uploads/woocommerce_uploads/
Disallow: */feed/
Disallow: /rss
Disallow: /search/
Disallow: /*?s=*
Disallow: /?s=
Disallow: /page/*/?s=
Disallow: /my-account/
Disallow: /cart/
Disallow: /*?add-to-cart=*
Disallow: /checkout/*
Disallow: /*?add_to_wishlist=*
Disallow: /wishlist
Disallow: /compare
Disallow: /*?per_page=*
Disallow: /*?orderby=
Disallow: /*?orderby=price-desc
Disallow: /*?orderby=popularity
Disallow: /*?orderby=rating
Disallow: /*?orderby=price
Disallow: /*?orderby=date
Disallow: /*?filter_brand
در این لیست دقت کنید آدرسهایی که در قبل و بعد آنها علامت * وجود دارد ، یعنی قبل و بعد از این آدرسها نیز هر کلمه و آدرس دیگری نیز وجود داشت هم شامل Disallow میشود . این لیست با دقت کامل و بررسی تمامی آدرسهایی که پس از نصب فروشگاهساز ووکامرس ایجاد خواهد شد تهیه شده است . بخشهایی همچون /search/ و /feed/ به ووکامرس ارتباطی ندارند و در تمامی سایت های وردپرس موجود هستند اما بهتر است برای بهبود نرخ خزیدن در داخل سایت خودتان ، اگر ووکامرس نیز ندارید ، لیست زیر را داخل فایل روبوتس خودتان ایجاد کنید . البته ممکن است برخی آدرسها نیز از قبل داخل فایل robots.txt شما وجود داشته باشد .
User-agent: *
Disallow: /wp-admin/
Disallow: /wp-login.php
Disallow: /wp-content/plugins/
Disallow: */feed/
Disallow: /rss
Disallow: /search/
Disallow: /*?s=*
Disallow: /?s=
Disallow: /page/*/?s=
در این لیست شما آیتمهای ووکامرس مثل مرتب سازی و … را ندارید و لذا به نوعی این موارد برای حالت عمومی یک سایت وردپرسی صحیح است . فایل robots.txt ممکن است بسته به بخشهای محتوایی موجود داخل سایت ، تعدد محصولات ، محتوای ویدیویی و … شامل لیست زیادی از Url ها باشد و شاید بسته به سیاستهای سئو ، این موارد متفاوت باشند . اما درهرصورت مواردی همچون آدرس های جستجو ( Search ) ، قسمت های feed و … که عموما در تمامی سایتهای وردپرسی وجود دارند ، بهتر است داخل فایل robots.txt مسدود شوند !
آیا با Disallow کردن ، صفحات noindex میشوند ؟
سئوالی که درمورد روش Disallow و قراردان متاتگ noindex در صفحات وجود دارد اینجاست که این دو در اصل چه تفاوتی با یکدیگر دارند ؟ توجه داشته باشید که وقتی شما یک آدرس یا مجموعه آدرسهایی را داخل فایل روبوتس وارد میکنید ، به هیچ عنوان متاتگ noindex داخل این آدرسها قرار نخواهد گرفت ، بلکه این آدرسها تماما از دسترس خزندهها خارج خواهند شد و اصلا از آنها بازدیدی صورت نخواهد گرفت . درحالت Disallow شما میتوانید مجموعه بزرگی از آدرسهای سایت را از دسترس خارج کنید اما در حالتی که قصد دارید تا noindex انجام دهبد ، باید تک به تک داخل صفحات وارد شده و از متاتگ noindex داخل آنها استفاده کنید . در مورد تفاوتهای دقیق noindex و Disallow در یک مقاله کامل صحبت خواهیم کرد . امیدواریم این محتوا برای شما مفید بوده باشد .
سلام نه نیازی نیست گوکل به فایل ربوتس شما دسترسی کامل داره