Web hardawre software solution par Mimouni

Mimouni web solution,tablette,smartphone,pc حلول تعقيدات شبكة الانترنيت


    CrawlTrack detecteur de moteurs

    Partagez
    avatar
    bigone
    Admin

    Nombre de messages : 45
    Age : 51
    Date d'inscription : 02/01/2008

    CrawlTrack detecteur de moteurs

    Message par bigone le Jeu 3 Jan - 10:56

    Qu'est-ce qu'un robot?
    Selon Wikipédia: "Un robot d'indexation (ou araignée ; en anglais web crawler ou web spider) est un logiciel qui explore automatiquement le web. Il est généralement conçu pour collecter les ressources (pages Web, images, vidéo, documents Word ou PDF ou PostScript, etc.) indexées par un moteur de recherche."
    Les visites de robots représentent plus de 73% des pages vues sur www.Crawltrack.fr; certains sont utiles d'autres beaucoup moins voir dangereux (46% de tentatives de piratage sur www.crawltrack.fr).

    Qu'est-ce que CrawlTrack?
    CrawlTrack est une application libre (license GNU GPL), qui permet de suivre les passages des robots des moteurs de recherche sur son site internet et de suivre jour après jour la position de celui-ci dans l'index des moteurs de recherche et des sites de social bookmark.

    Si une tentative de piratage est détectée, CrawlTrack est capable de la bloquer.

    Les données sont présentées sous forme de tableau et de graphiques qui permettent un très bonne lisibilité des informations.

    CrawlTrack est écrit en php et utilise une base de donnée MySQL.

    CrawlTrack existe pour l'instant en français, espagnol, allemand, turc, hollandais et anglais, les traducteurs sont les bienvenues.

    Pourquoi CrawlTrack?
    Avez vous déjà pensé à ce que vous feriez si un pirate détruisait tout le travail que vous avez fait pour votre site? CrawlTrack peut vous aider à éviter ça.

    -CrawlTrack est le seul script de détection de robots à avoir une base de données de plus de 1000 robots de moteurs de recherches, mise à jour une fois par semaine par un simple clic.

    -CrawlTrack vous donnera tous les jours le nombre de liens vers votre site et le nombre de pages indexées de celui-ci.

    -CrawlTrack ne vous donne pas seulement les mots clefs utilisés mais aussi les pages d'entrées correspondantes.

    -CrawlTrack va suivre le nombre de visiteurs envoyés par les principaux moteurs de recherche.

    -CrawlTrack permet le suivi multi-sites (même hébergés sur des serveurs différents) avec une seule installation.

    -CrawlTrack permet une gestion avançée des droits des utilisateurs, idéal pour un hébergeur qui veux donner l'accès aux statistiques à ces clients.

    -Le moteur de recherche de Crawltrack permet de multiples interrogations de la base de données statistiques.

    -La gestion des données est optimisée, la taille de la base de données est réduite.

    Comment faire fonctionner CrawlTrack?
    Vous n'avez besoin d'aucune compétences techniques particulières, il suffit d'avoir un hébergement avec php (version >=4.3.0 avec GD2) et une base MySQL. L'installation est complêtement automatisée.

    Ce n'est qu'un petit échantillon de ce que Crawltrack peu détecter; et cette liste est mise à jour régulièrement.

    Source
    Le script de détection de robots CrawlTrack est développé par Jean-Denis Brun.
    webmaster@crawltrack.info Copyright © 2005-2007 Tous Droits Réservés.

      La date/heure actuelle est Mar 27 Juin - 21:31