فایل Robots.txt چیست

فایل robots.txt که به آن نقشه راه ربات‌ها هم می‌گویند، حکم یک تابلوی راهنما را برای موتورهای جستجو دارد. در دنیای وب ربات‌های موتور جستجو بی‌وقفه در حال گشت‌وگذار در تار و پود صفحات وب هستند تا اطلاعات را گردآوری و در فهرست خود ذخیره کنند. اما در این میان، شما به عنوان صاحب وب‌سایت این اختیار را دارید که تعیین کنید ربات های موتور جستجو کدام بخش‌ها را می‌توانند ببینند و کدامیک را باید از نظر دور نگه دارند. دقیقا اینجاست که باید بدانید فایل robots.txt چیست و چگونه می تواند به کمک شما بیاید.

اگر در حال آموزش سئو هستید و قصد دارید این تخصص را به طور حرفه ای یاد بگیرید، لازم است به خوبی نحوه استفاده از فایل robots.txt را بلد باشید. ما در این مقاله از وبلاگ سئو یوز وب قصد داریم در مورد کاربرد و آموزش ساخت فایل robots.txt سایت، نحوه‌ی عملکرد آن، دستورات مهم و نکات کلیدی برای تنظیم و بهینه سازی صحیح این فایل صحبت کنیم. پس تا انتهای این مطلب جذاب و کاربردی با ما همراه باشید تا تسلط خود را بر دنیای سئو به سطحی بالاتر ارتقاء دهید!

فایل robots.txt چیست؟

فایل robots.txt مجموعه ای از دستورالعمل ها برای ربات ها است که به آن‌ها می‌گوید به کدام صفحات وب می‌توانند یا نمی‌توانند دسترسی داشته باشند. این فایل در اکثر وب سایت ها وجود دارد و بیشتر برای مدیریت فعالیت‌ ربات‌ها مانند خزنده‌های گوگل در نظر گرفته شده‌اند.

بیایید با ذکر یک مثال توضیح دهیم. فایل robots را درست مانند علامت های اختصاری که برای رعایت قوانین یک باشگاه ورزشی یا مکان های عمومی بر روی دیوارها نصب شده است تصور کنید. این علامت ها به خودی خود قدرتی برای اجرای قوانین ذکر شده ندارند، اما معمولا اکثر افراد با دیدن آنها این قوانین را رعایت خواهند کرد، در حالی که ممکن است بعضی دیگر احتمالا آنها را زیر پا گذاشته و توجهی به این قوانین نداشته باشند.

فایل robots.txt سایت

ربات یک برنامه کامپیوتری خودکار است که با وب سایت ها و برنامه های مختلف تعامل دارد. در این بین ما هم ربات های خوب داریم و هم ربات بد! به طور مثال یک نوع ربات خوب، ربات خزنده وب نامیده می شود. این ربات‌ها صفحات وب را خزش (Crawl) کرده و محتوا را فهرست‌بندی (Index) می‌کنند تا بتواند در نتایج موتورهای جستجو نمایش داده شوند.

یک نمونه فایل robots.txt

در این فایل نمونه:

فایل robots.txt کجاست؟

حال که با این فایل مهم آشنا شدید، شاید از خودتان سوال کنید محل فایل robots.txt کجاست و چطور باید آن را پیدا کنم تا امکان مدیریت یا ویرایش آن را داشته باشم؟ ما در ادامه به طور کامل شما را در این زمینه راهنمایی خواهیم کرد.

محل فایل robots.txt سایت (Front-end)

خزنده های گوگل همیشه فایل robots را در ریشه وب سایت شما جستجو می کنند، به عنوان مثال آدرس آن چیزی شبیه لینک زیر خواهد بود:

در واقع کافیست آدرس دامنه خود را به طور کامل در مرورگر وارد کرده و سپس فقط “robots.txt/” را به انتهای آن اضافه کنید. اگر چیزی بالا نیامد، وب سایت شما هنوز فایل robots ندارد. اما نگران نباشید، ما در ادامه این مقاله آموزش نحوه ساخت فایل robots.txt را هم به شما توضیح خواهیم داد.

محل فایل robots.txt سمت سرور (Back-end)

اگر از یک سیستم مدیریت محتوا (CMS) مانند وردپرس، پرستاشاپ یا مجنتو استفاده می کنید، می توانید این فایل را در درون این CMSها به راحتی پیدا کرده و مدیریت کنید. در ادامه در این زمینه بیشتر به شما توضیح خواهیم داد.

فایل robots.txt در وردپرس (WordPress)

در وردپرس به طور پیش فرض، فایل robotsدر همان مسیری که فایل های اصلی آن مانند wp-config.php قرار دارند، پیدا می شود. با این حال روش های متعددی وجود دارد تا بتوانید این فایل را در وردپرس پیدا کنید:

  1. می توانید با استفاده از یک ابزار FTP یا File Manager در هاست خود به این پوشه دسترسی پیدا کنید. نام فایل robots.txt است و با یک پسوند متنی (txt.) نمایش داده می شود. با یک جستجوی ساده در کنترل پنل سی پنل (Cpanel) یا دایرکت ادمین (DirectAdmin) هاست خود می توانید این فایل را به راحتی پیدا کنید.
  2. روش دوم استفاده از افزونه های وردپرس است. افزونه های متعددی برای وردپرس وجود دارند که به شما امکان می دهند فایل robots را ویرایش و مدیریت کنید. برخی از این افزونه های محبوب: افزونه رنک مث (RankMath)، افزونه یواست (Yoast) و افزونه All in One SEO Pack هستندکه به شما امکان ویرایش فایل robots را می دهند.
  3. در نهایت روش سوم استفاده از ابزارهای آنلاین است. چندین ابزار آنلاین وجود دارند که به شما امکان می دهند فایل robots وب سایت خود را مشاهده، تست یا ایجاد کنید. به عنوان مثال: technicalseo.com یا smallseotools.com از این دست هستند.

فایل robots.txt در پرستاشاپ (Perstashop)

در پرستاشاپ هم همانند وردپرس، فایل robots.txt به طور پیش فرض در ریشه وب‌سایت شما، در همان مسیری که فایل‌های اصلی وب‌سایت مانند index.php قرار دارند، پیدا می‌شود. می‌توانید با استفاده از یک ابزار FTP یا فایل منیجر هاست خود به این فایل دسترسی پیدا کنید. مسیر دقیق فایل robots در پرستاشاپ به شرح زیر است:

همچنین امکان استفاده از پنل مدیریت پرستاشاپ نیز وجود دارد. برخی از ماژول‌های سئو در پرستاشاپ وجود دارند که به شما امکان می‌دهند فایل robots را از طریق پنل مدیریت ویرایش کنید. برای استفاده از این روش، باید ماژول سئو را نصب و فعال کرده باشید.

فایل robots.txt در مجنتو (Magento)

فایل robots.txt در ریشه اصلی وب سایت مجنتو شما قرار دارد. به طور دقیق تر، می توانید آن را در مسیر public_html/robots.txt پیدا کنید. همچنین از طریق پنل کاربری مجنتو می توانید به این فایل دسترسی پیدا کنید. برای این منظور به به پنل مدیریت مجنتو خود وارد شوید. سپس به مسیر Stores > Settings > Configuration > General > SEO بروید و در بخش File Robots.txt می توانید محتوای این فایل را مشاهده و ویرایش کنید.

محتوای فایل robots.txt شامل چه چیزهایی است؟

همانطور که قبلا هم توضیح دادیم، این فایل به ربات‌های موتورهای جستجو مانند گوگل می‌گوید که به کدام بخش‌های سایت شما اجازه ورود دارند و به کدام بخش‌ها نه. به عنوان مثال صفحاتی که حاوی اطلاعات حساسی مانند پنل مدیریت (مثل /wp-admin/) یا نسخه وردپرس شما (مثل /readme.html/) هستند را می توانید پنهان کنید. یا پوشه‌هایی که برای ربات‌ها بی‌فایده هستند، مانند پوشه افزونه‌ها (/plugins/) را مخفی کنید.

علاوه بر این لیست ممنوعه، می‌توانید به ربات‌ها آدرس نقشه سایت خود را هم بدهید تا راحت‌تر در سایت شما بچرخند و همه صفحات را پیدا کنند. این‌ مواردی که گفتیم فقط ملاحظات اولیه هستند. شما می‌توانید هر صفحه‌ای را که می‌خواهید در لیست ممنوعه قرار دهید یا این که دسترسی به صفحات ضروری را آزاد کنید. تصمیم با شماست!

آموزش ساخت فایل robots.txt به 3 روش مختلف

به طور کلی شما به 3 روش مختلف می توانید نسبت به ساخت فایل robots.txt اقدام کنید:

روش دستی

  1. انتخاب ویرایشگر: برای ساخت فایل robots.txt می‌توانید از هر ویرایشگر متنی ساده مانند ++Notepad یا Sublime Text استفاده کنید.
  2. ایجاد فایل: به ریشه دایرکتوری وب‌سایت خود بروید (معمولاً public_html یا htdocs). در این پوشه، فایلی متنی با نام “robots.txt” به صورت دستی ایجاد کنید.
  3. افزودن دستورات: دستورات robots.txt با خطوط خالی از یکدیگر جدا می‌شوند. هر دستور شامل دو بخش اصلی است: User-agent که مشخص می‌کند این دستور برای کدام خزنده موتور جستجو اعمال می‌شود و Directive که برای خزنده مربوطه باید اجرا شود.
  4. ذخیره فایل: پس از دستورات موردنظر خود را وارد کردید، فایل robots.txt را ذخیره کنید.

افزونه های سئو

بسیاری از افزونه‌های سئو محبوب مانند Yoast SEO و Rank Math ابزاری برای ایجاد و مدیریت فایل robots.txt به طور خودکار ارائه می‌دهند و در واقع شما نیازی نیست اقدام خاصی انجام دهید.

ابزارهای آنلاین

ابزارهای آنلاین مختلفی مانند ryte.com وجود دارند که به شما کمک می‌کنند تا فایل robots خود را به طور خودکار ایجاد کنید.

ویرایش فایل robots txt چگونه انجام می شود؟

  1. قبل از این که اقدام به ویرایش فایل robots.txt کنید بهتر است یک نسخه پشتیبان تهیه کنید. این کار در صورت بروز هرگونه مشکلی به شما امکان بازگشت به نسخه قبلی را می دهد.
  2. در مرحله بعدی باید به فایل robots سایت خود دسترسی پیدا کنید. اکثر هاست ها این فایل را در پوشه اصلی وب سایت شما قرار می دهند. می توانید با استفاده از FTP یا File Manager هاست خود به این فایل دسترسی پیدا کنید.
  3. حال با استفاده از یک ویرایشگر متن ساده، می توانید دستورات robots.txt را مطابق با نیاز خود ویرایش کنید.
  4. پس از انجام ویرایش فایل robots.txt آن را ذخیره کرده و سپس در پوشه اصلی وب سایت خود آپلود کنید.

مهم ترین دستورات فایل robots.txt همراه با مثال

درون این فایل دستورات مختلفی با فرمت خاص وجود دارد که هر کدام وظیفه‌ای را برای راهنمایی موتورهای جستجو ایفا می‌کنند. در ادامه به بررسی مهم‌ترین دستورات فایل robots.txt می‌پردازیم. با ما همراه باشید.

1) User-agent

این دستور مشخص می‌کند که کدام ربات‌ها می‌توانند دستورات فایل robots.txt را دنبال کنند. به طور پیش فرض، دستورات برای تمام ربات‌ها اعمال می‌شود.

مثال:

User-agent: *

در این مثال، تمام ربات‌ها می‌توانند دستورات این فایل را دنبال کنند.

2) Disallow

این دستور به ربات‌ها می‌گوید که به کدام مسیرها یا صفحات وب‌سایت شما نباید دسترسی داشته باشند.

مثال :

Disallow: /wp-admin/
Disallow: /cgi-bin/

در این مثال، ربات‌ها به دایرکتوری‌های wp-admin و cgi-bin که معمولاً حاوی اطلاعات حساسی هستند، دسترسی نخواهند داشت.

3) Allow

این دستور به ربات‌ها می‌گوید که می‌توانند به صفحاتی که با دستور Disallow مسدود شده‌اند، دسترسی داشته باشند.

مثال:

Disallow: /images/
Allow: /images/products/

در این مثال، ربات‌ها به تمام تصاویر موجود در پوشه images به جز تصاویر موجود در پوشه products دسترسی نخواهند داشت.

4) Sitemap

این دستور به موتورهای جستجو مکان فایل نقشه سایت (sitemap) شما را معرفی می کند. نقشه سایت فایلی است که لیستی از تمام صفحات وب‌سایت را به موتورهای جستجو ارائه می‌دهد تا بتوانند به طور کارآمدتر آنها را خزیده و ایندکس کنند.

مثال:

Sitemap: https://www.example.com/sitemap.xml

در این مثال، موتورهای جستجو می‌توانند نقشه سایت وب‌سایت شما را در آدرس https://www.example.com/sitemap.xml پیدا کنند.

5) Crawl-delay

این دستور به ربات‌ها می‌گوید که بین خزیدن هر صفحه چقدر صبر کنند. این دستور برای جلوگیری از بارگذاری بیش از حد سرور شما توسط ربات‌ها مفید است.

مثال:

Crawl-delay: 10

در این مثال، ربات‌ها بین خزیدن هر صفحه 10 ثانیه صبر می‌کنند.

نکات مهم:

روشهای بهینه سازی فایل robots

بهینه سازی فایل robots نقش مهمی در سئو و عملکرد کلی وب‌سایت شما ایفا می‌کند. در ادامه به بررسی روش‌های مختلف بهینه‌سازی فایل robots.txt می‌پردازیم:

جمع بندی

در این مقاله از وبلاگ سئویوز وب، به معرفی و بررسی یکی از مهم ترین فایل های یک وب سایت که تاثیر بسیار زیادی در سئو آن دارد پرداختیم. امیدواریم حالا به طور کامل بدانید فایل robots.txt چیست و با انواع دستورات آن آشنا شده باشید. درک دقیق از نوع دستوراتی که در این فایل استفاده می گردد و انتخاب این دستورات بر اساس نیازها و استراتژی سئو سایت شما، می‌تواند منجر به بهبود عملکرد وب سایت شده و موفقیت شما را در دنیای دیجیتال تضمین نماید. همچنین می توانید تجربه بهتری برای خود و کاربران تان رقم زده و به اهداف خود در فضای آنلاین نزدیک‌تر شوید.

خوشحال خواهیم شد سوالات و نظرات خود را در بخش دیدگاه ها با مطرح نمایید. اگر نیاز به کمک دارید از همین بخش درخواست خود را ثبت کنید تا در اسرع وقت شما را راهنمایی کنیم.

سوالات متداول

فایل robots.txt چیست؟

فایل robots.txt فایلی متنی است که در ریشه وب سایت شما قرار می گیرد و به موتورهای جستجو مانند گوگل، بینگ و یاهو دستور می دهد که کدام صفحات وب سایت شما را می توانند خزش و فهرست بندی کنند و کدام صفحات را باید نادیده بگیرند.

چرا استفاده از فایل robots.txt مهم است؟

از فایل robots.txt برای جلوگیری از خزش و ایندکس بخش هایی از وب سایت شما که نمی خواهید در نتایج جستجو ظاهر شوند استفاده می شود. این کار می تواند به دلایل مختلفی مانند محافظت از صفحات خصوصی، جلوگیری از ایندکس محتوای تکراری یا جلوگیری از خزش بیش از حد وب سایت شما توسط موتورهای جستجو انجام شود.

آیا حتما باید از فایل robots.txt استفاده کنم؟

خیر، استفاده از فایل robots.txt اجباری نیست. با این حال، اگر می خواهید کنترل بیشتری بر نحوه ایندکس وب سایت خود توسط موتورهای جستجو داشته باشید، استفاده از آن را توصیه می کنیم.

چگونه می توانم مطمئن شوم که فایل robots.txt من به درستی کار می کند؟

می توانید از ابزار robots.txt Tester گوگل برای بررسی صحت فایل robots.txt خود استفاده کنید. این ابزار به شما نشان می دهد که کدام صفحات وب سایت شما توسط موتورهای جستجو قابل خزش و ایندکس هستند.

اگر از فایل robots.txt استفاده نکنم چه اتفاقی می افتد؟

اگر از فایل robots.txt استفاده نکنید، موتورهای جستجو تمام صفحات وب سایت شما را که می توانند به آنها دسترسی داشته باشند، خزش و ایندکس می کنند. این موضوع می تواند منجر به ایندکس تمام صفحات خصوصی، محتوای تکراری یا صفحات با کیفیت پایین شود که در نهایت به رتبه بندی وب سایت شما در نتایج جستجو آسیب خواهد رساند.

آیا باید فایل robots.txt خود را به روز رسانی کنم؟

بله، شما باید فایل robots.txt خود را به طور مرتب به روز رسانی کنید، به خصوص اگر وب سایت خود را تغییر دهید یا صفحات جدیدی اضافه کنید.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *