Django-robots

Robots Exclusion-applicatie voor Django, aanvulling op sitemaps.
Download nu

Django-robots Rangschikking & Samenvatting

Advertentie

  • Rating:
  • Vergunning:
  • BSD License
  • Prijs:
  • FREE
  • Naam uitgever:
  • Jannis Leidel
  • Uitgever website:
  • http://github.com/jezdez/

Django-robots Tags


Django-robots Beschrijving

Robots Exclusion-applicatie voor Django, aanvullende sitemaps. Django-Robots is een basis-Django-applicatie om Robots.txt-bestanden te beheren die volgt op het Robots Exclusion-protocol, aanvulling op de Django Sitemap Contribus-app.De Robots Exclusion-applicatie bestaat uit twee databasemodellen die aan elkaar zijn gebonden met een M2M-relatie: * Regels * URLSinstallationGet de Bron van de application Site op: http: //code.google.com/p/django-robots/to Installeer de app Sitemap, volg deze stappen: 1. Volg de instructies in het bestand Install.txt22. Voeg 'Robots' toe aan uw geïnstalleerde_apps-instelling.3. Zorg ervoor dat 'django.template.loaderers.app_directories.load_template_source' in de instelling van je template_loaders is. Het is daar standaard in, dus je hoeft dit alleen maar te veranderen als je die instelling hebt gewijzigd.4. Zorg ervoor dat u de sites framework hebt geïnstalleerd. Initialisatie om Robots.txt-generatie op uw Django-site te activeren, voeg deze regel toe aan uw URLCONF: (R '^ Robots.txt $', inclusief ('robots.urls')), vertelt dit Django om een robots te bouwen.txt Wanneer een robot /robots.txt toegankelijk is. Synchroniseer dan uw database om de benodigde tabellen te maken en regelobjecten in de ADMIN-interface of via de Shell.RULT-interface te maken - definieert een abstracte regel die wordt gebruikt om te reageren op kruipende webrobots, met behulp van het robots Exclusion-protocol, aka robots.txt . Je kunt meerdere URL-patroon koppelen om de robot die door de gebruikersagent wordt geïdentificeerd of niet toestaat om toegang te krijgen tot het opgegeven URLS.the Crawl Delay-veld wordt ondersteund door sommige zoekmachines en definieert de vertraging tussen opeenvolgende crawler-toegang in seconden. Als het Crawler-tarief een probleem is voor uw server, kunt u de vertraging instellen tot 5 of 10 of een comfortabele waarde voor uw server, maar het wordt gesuggereerd om te beginnen met kleine waarden (0,5-1) en deze nodig zijn als nodig om te accepteren waarde voor uw server. Grotere vertragingswaarden Voeg meer vertraging toe tussen opeenvolgende crawl-toegang en verlaag het maximale crawl-tarief naar uw webserver. Het sitesraamwerk wordt gebruikt om meerdere robots.txt per django-instantie in te schakelen. Als er geen regel bestaat, kan deze automatisch elke Web Robot-toegang tot elke URL.Pr. Bekijk de database van Web Robots voor een volledige lijst van bestaande webrobots gebruikers agent strings.urlsurl - definieert een hoofdlettergevoelig en exact-url-patroon dat is gebruikt om de toegang voor webrobots toe te staan of te weigeren. Case-Sensitive.a Missing Trailing Slash past ook overeen met bestanden die beginnen met de naam van het gegeven patroon, bijvoorbeeld '/ admin' matches /admin.html. Sommige belangrijke zoekmachines maken een asterisk (*) als jokerteken Elke reeks tekens en een dollarteken ($) om aan het einde van de URL aan te passen, bijvoorbeeld '/*.jpgiend' kan worden gebruikt om alle JPEG-bestanden te matchen. Cachingyou kan optioneel de generatie van de robots.txt cache. De Robots_Cache_Timeout-instelling toevoegen of wijzigen met een waarde in seconden in uw Django-instellingenbestand: Robots_Cache_Timeout = 60 * 60 * 24Dit vertelt Django om de robots.txt gedurende 24 uur (86400 seconden) te cachen. De standaardwaarde is geen (geen caching). Vereisten: · Django · Python


Django-robots Gerelateerde software

Polarblog

Een eenvoudig configureerbaar ingesloten weblogsysteem dat functioneert met PHP's Register_Globals uit en Safe_Mode op. ...

147

Downloaden