Snelle zoekopdracht

Snelle bestandsonderzoek Crawl FTP-servers en SMB-aandelen.
Download nu

Snelle zoekopdracht Rangschikking & Samenvatting

Advertentie

  • Rating:
  • Vergunning:
  • GPL
  • Prijs:
  • FREE
  • Naam uitgever:
  • Josef Zlomek
  • Uitgever website:

Snelle zoekopdracht Tags


Snelle zoekopdracht Beschrijving

Snelle bestandsonderzoek Crawls FTP-servers en SMB-aandelen. Snelle zoekopdracht is een crawler voor FTP-servers en SMB-aandelen die te vinden zijn op Windows- of UNIX-systemen die Samba.it worden uitgevoerd, biedt een webinterface voor het zoeken naar bestanden. Het is geoptimaliseerd voor het doorzoeken van bestanden door een jokerteken wanneer er een normale (niet '*' of '?') Tekens zijn opgegeven in het begin of aan het einde van het masker (bijvoorbeeld '* .iso'). Snelle bestand zoeken Crawler Runs op Unix (Momenteel is Linux getest, maar ik doe nu geen reden waarom het niet op andere Unixes zou moeten werken). Snel Bestandsonderzoek gebruikt MySQL-database, Web Interface heeft een webserver nodig met PHP> = 4.0.3 en de crawler heeft een aantal perl-modules nodig. De crawler (ffsearch.pl) Crawls het netwerk (FTP-servers uit de lijst en alle bereikbare SMB-hosts en alle bereikbare SMB-hosts het lokale netwerk) en slaat de informatie over bestanden in de database op. Het wordt op bepaalde tijden elke dag aangeroepen via Crontab-inzendingen. Er zijn twee werkwijzen van de crawler: complete crawl en incrementele crawl. De Crawler verwacht een opdrachtregelargument dat Crawler vertelt welke modus wordt uitgevoerd (-C of -complete voor complete crawl, -i of -incremental voor incrementele crawl). Beide modi halen een lijst op van de actieve SMB-hosts in alle werkgroep. De complete crawl probeert alle actieve hosts en alle hosts die in database zijn vermeld te scannen. De complete crawl moet eenmaal per dag worden uitgevoerd. De incrementele crawl probeert om actieve hosts en hosts te scannen die worden vermeld in database die niet zijn gescand sinds de laatste complete crawl omdat ze onbereikbaar waren. De incrementele crawl moet verschillende keren per dag worden gebruikt, bijvoorbeeld elke 3 uur. Hoe wordt de CRAWLER weet of de gastheer is gecrawld sinds de laatste complete crawl? Elke keer dat de complete crawl wordt uitgevoerd, wordt de aflooptelling eerst verhoogd. Wanneer de host is gecrawld, is de aflooptelling ingesteld op nul. Dus alle hosts wiens expire graaf> 0 niet bereikbaar waren sinds de laatste complete crawl. Bovendien, wanneer de expire-tel waarde bereikt die is opgegeven in de configuratie (d.w.z. het was onbereikbaar tijdens de tijdsperiode van complete crawls) De informatie over bestanden op de "Verlopen" host wordt uit de database verwijderd. Webinterface wordt gebruikt om de bestanden in de database te doorzoeken, details Hoe te zoeken worden beschreven in het gedeelte Help van de zoekpagina. U kunt ook een FTP-server toevoegen aan een FTP-serverlijst, FTP-server bewerken of FTP-server in de lijst Wissen de lijst via de webinterface. Zodat iedereen niets kon doen met de serverlijst alleen het record over ABCDEF is bewerkbaar van gastheer ABCDEF. Er zijn ook admins die alle records in de serverlijst kunnen bewerken. De admins loggen via de webinterface. Wat is er nieuw in deze release: · Vaste bugs in de crawler · Toegevoegd een mogelijkheid om enkele SMB-aandelen uit te sluiten · www: verbeterde Russische en Oekraïense vertaling


Snelle zoekopdracht Gerelateerde software

MOD-APACHE-SNMP

Apache SNMP-module Hiermee kunt u verschillende configuratie- en statuswaarden van de Apache-webserver met SNMP gebruiken. ...

231

Downloaden

bidwner

Bidwatcher is een hulpmiddel voor eBay-gebruikers - Track and Snipe Auctions. ...

153

Downloaden