Skip to main content

रोबोट्स.टेक्स्ट जनरेटर सर्च इंजन क्रॉलर एक्सेस को नियंत्रित करने के लिए उचित रूप से प्रारूपित रोबोट्स.टेक्स्ट फ़ाइल बनाएं।

रोबोट्स.टेक्स्ट जनरेटर illustration
🔍

रोबोट्स.टेक्स्ट जनरेटर

सर्च इंजन क्रॉलर एक्सेस को नियंत्रित करने के लिए उचित रूप से प्रारूपित रोबोट्स.टेक्स्ट फ़ाइल बनाएं।

1

उपयोगकर्ता एजेंट चुनें

निर्धारित करें कि आपको किन खोज इंजन क्रॉलर्स (सभी बॉट, Googlebot, Bingbot आदि) के लिए नियम बनाने हैं।

2

अनुमति/प्रतिबंध नियम सेट करें

विशिष्ट URL पथों पर क्रॉलर्स को पहुँच अनुमति देने और अस्वीकार करने का वर्णन करें।

3

साइटमैप जोड़ें और कॉपी करें

अपने साइटमैप URL जोड़ें और उत्पन्न robots.txt सामग्री को कॉपी करें।

Loading tool...

What Is रोबोट्स.टेक्स्ट जनरेटर?

रोबोट्स.टेक्स्ट जनरेटर आपको एक उचित प्रारूप वाला रोबोट्स.टेक्स्ट फ़ाइल बनाने में मदद करता है जो खोज इंजन क्रॉलरों को बताता है कि वे आपकी वेबसाइट के किन भागों तक पहुँच सकते हैं और नहीं पहुँच सकते। रोबोट्स.टेक्स्ट फ़ाइल आपके डोमेन रूट (उदाहरण.com/robots.txt) पर स्थित होती है और यह वह पहली फ़ाइल होती है जिसकी जाँच क्रॉलर आपकी साइट को अनुक्रमित करने से पहले करते हैं। एक गलत तरीके से कॉन्फ़िगर किया गया रोबोट्स.टेक्स्ट महत्वपूर्ण पृष्ठों को दुर्भाग्य से खोज इंजनों से अवरुद्ध कर सकता है या अप्रासंगिक संसाधनों पर क्रॉल बजट बर्बाद कर सकता है। यह टूल मानक-अनुरूप निर्देश जेनरेट करता है, जिसमें User-agent, Disallow, Allow, Sitemap और Crawl-delay शामिल हैं, जिससे आपकी फ़ाइल रोबोट्स एक्सक्लूज़न प्रोटोकॉल विशिष्टता का पालन करती है।

Why Use रोबोट्स.टेक्स्ट जनरेटर?

  • प्रोटोकॉल विनिर्देशन को याद रखने के बिना मान्य robots.txt वाक्यविन्यास बनाएं
  • सामान्य कॉन्फ़िगरेशन (वर्डप्रेस, ई-कॉमर्स आदि) के लिए पूर्व-निर्मित टेम्पलेट
  • विभिन्न नियमों के साथ कई उपयोगकर्ता-एजेंट ब्लॉक्स का समर्थन
  • क्रॉलर्स द्वारा आपके XML साइटमैप की खोज में मदद करने के लिए साइटमैप घोषणा
  • सर्वर पर तैनात करने से पहले पूर्वावलोकन और सत्यापन

Common Use Cases

नई वेबसाइट लॉन्च

क्रॉलर पहुँच को ठीक से नियंत्रित करने वाला एक robots.txt बनाएं।

क्रॉल बजट प्रबंधन

प्रशासक पृष्ठों, खोज परिणामों और पैरामीटर URL पर संसाधनों को बर्बाद करने वाले क्रॉलर्स को अवरुद्ध करें।

स्टेजिंग साइट सुरक्षा

खोज इंजनों को स्टेजिंग या विकास परिवेशों को अनुक्रमित करने से रोकें।

वर्डप्रेस एसईओ

वर्डप्रेस साइटों के लिए wp-admin, फ़ीड और टैग पृष्ठों को अवरुद्ध करते हुए अनुकूलित robots.txt बनाएं।

Technical Guide

रोबोट्स.टेक्स्ट फ़ाइल रोबोट्स एक्सक्लूज़न प्रोटोकॉल (REP) का अनुसरण करती है। इसे आपके डोमेन के मूल (/robots.txt) पर रखा जाना चाहिए। प्रत्येक ब्लॉक User-agent निर्देश से शुरू होता है जो यह निर्दिष्ट करता है कि कौन से क्रॉलर के लिए नियम लागू होते हैं (* सभी के लिए मतलब है)। Disallow एक पथ को अवरुद्ध करता है, Allow विशेष रूप से पहुँच की अनुमति देता है (एक बड़े Disallow के भीतर एक अपवाद के रूप में उपयोगी)। नियम पथ-आधारित होते हैं - Disallow: /admin /admin, /admin/users, /admin/settings आदि को अवरुद्ध करता है। Sitemap निर्देश फ़ाइल में कहीं भी दिखाई दे सकता है और सभी क्रॉलरों को बताता है कि आपके XML साइटमैप को कहाँ ढूँढना है। महत्वपूर्ण सावधानियाँ: रोबोट्स.टेक्स्ट एक अनुरोध है, निष्पादन नहीं - दुर्भाग्यपूर्ण बॉट इसे अनदेखा कर सकते हैं। इसके अलावा, यदि एक यूआरएल रोबोट्स.टेक्स्ट में अवरुद्ध है लेकिन बाहरी साइटों से जुड़ा हुआ है, तो गूगल अभी भी यूआरएल (इसकी सामग्री के बिना) को अनुक्रमित कर सकता है। पूरी तरह से अनुक्रमणिका को रोकने के लिए, इसके बजाय noindex मेटा टैग या X-Robots-Tag HTTP हेडर का उपयोग करें।

Tips & Best Practices

  • 1
    कभी भी CSS, जावास्क्रिप्ट या छवि फ़ाइलों को अवरुद्ध न करें - खोज इंजनों को आपके पृष्ठों को सही ढंग से रेंडर करने के लिए उन्हें चाहिए
  • 2
    सुरक्षा के बजाय क्रॉल दक्षता के लिए robots.txt का उपयोग करें - यह सार्वजनिक रूप से पढ़ने योग्य है
  • 3
    क्रॉलर खोज के लिए हमेशा अपने साइटमैप URL को robots.txt में शामिल करें
  • 4
    गूगल सर्च कंसोल के robots.txt टेस्टर का उपयोग करके अपने robots.txt का परीक्षण करें
  • 5
    याद रखें: अवरुद्ध URL पर बाहरी लिंक इंगित करने वाले बाहरी लिंक होने पर Disallow अनुक्रमण से नहीं रोकता है

Related Tools

Frequently Asked Questions

Q मैं robots.txt फ़ाइल कहाँ रखूँ?
यह आपके डोमेन के मूल में होना चाहिए: https://example.com/robots.txt। उपडोमेन को अपनी खुद की robots.txt की आवश्यकता होती है।
Q क्या robots.txt अनुक्रमण से रोकता है?
पूरी तरह नहीं। यह क्रॉलिंग को रोकता है, लेकिन यदि बाहरी साइटें अवरुद्ध URL पर लिंक करती हैं, तो गूगल अभी भी URL ("इस पृष्ठ के लिए कोई जानकारी उपलब्ध नहीं है" स्निपेट दिखाते हुए) को अनुक्रमित कर सकता है। पूर्ण रोकथाम के लिए noindex मेटा टैग का उपयोग करें।
Q क्या मैं विभिन्न क्रॉलर्स के लिए अलग-अलग नियम बना सकता हूँ?
हाँ। प्रत्येक क्रॉलर (Googlebot, Bingbot आदि) के लिए विशिष्ट नियमों के साथ अलग उपयोगकर्ता-एजेंट ब्लॉक्स बनाएं।
Q Crawl-delay का क्या काम है?
Crawl-delay क्रॉलर्स को N सेकंड के बीच अनुरोधों के बीच प्रतीक्षा करने के लिए कहता है। गूगल इस निर्देश की उपेक्षा करता है - इसके बजाय Googlebot क्रॉल दर सेट करने के लिए सर्च कंसोल का उपयोग करें। बिंग और अन्य इसका सम्मान करते हैं।
Q क्या मुझे वर्डप्रेस में /wp-admin को अवरुद्ध करना चाहिए?
हाँ, /wp-admin/ को अवरुद्ध करें, लेकिन /wp-admin/admin-ajax.php (जो कई वर्डप्रेस सुविधाओं के लिए आवश्यक है) की अनुमति दें। इसके अलावा /wp-includes/ और फ़ीड URL को अवरुद्ध करने पर विचार करें।

About This Tool

रोबोट्स.टेक्स्ट जनरेटर is a free online tool by FreeToolkit.ai. All processing happens directly in your browser — your data never leaves your device. No registration or installation required.