Donnerstag, 18. Oktober 2012
Wie funktioniert eine Suchmaschine?
Was ist eine Suchmaschine?
Per Definition ist eine Internet-Suchmaschine ein Information-Retrieval-System, das uns finden Sie Informationen über das World Wide Web hilft. World Wide Web ist das Universum der Informationen, wo diese Informationen über das Netzwerk zugänglich. Es erleichtert weltweite Austausch von Informationen. Aber WWW wird als unstrukturierte Datenbank gesehen. Es wächst exponentiell zu enormen Shop von Informationen zu werden. Auf der Suche nach Informationen im Internet ist daher eine schwierige Aufgabe. Es besteht die Notwendigkeit, ein Werkzeug zu verwalten, filtern und Abrufen dieses ozeanischen Informationen haben. Eine Suchmaschine dient diesem Zweck.
Wie funktioniert eine Suchmaschine?
* Internet-Suchmaschinen sind Suchmaschinen, dass die Suche und Abrufen von Informationen über das Internet. Die meisten von ihnen nutzen Crawler Indexer Architektur. Sie verlassen sich auf ihre Crawler Module. Crawlers auch als Spinnen kleine Programme, die im Internet surfen können.
* Crawlers sind eine erste Reihe von URLs, deren Seiten sie abrufen gegeben. Sie extrahieren die URLs, die auf den durchsuchten Seiten erscheinen und geben diese Informationen an den Crawler Steuermodul. Der Crawler-Modul entscheidet, welche Seiten zum nächsten Besuch und gibt ihre URLs zurück zu den Crawler.
* Die Themen von verschiedenen Suchmaschinen abgedeckt variieren je nach den Algorithmen sie verwenden. Einige Suchmaschinen sind so programmiert, Websites zu einem bestimmten Thema suchen, während die Raupen in anderen besuchen können so viele Seiten wie möglich.
* Die crawl Steuermodul kann über den Link graph einer früheren crawl oder Nutzungsmuster zu verwenden, um in seiner Crawling-Strategie helfen.
* Der Indexer-Modul extrahiert die Worte bilden jede Seite es besucht und zeichnet ihre URLs. Sie ergibt sich in eine große Nachschlagetabelle, die eine Liste von URLs, die auf den Seiten, wo jedes Wort auftritt verleiht. Die Tabelle listet die Seiten, die in der Crawling-Vorgang bedeckt waren.
* Eine Sammlung Analyse-Modul ist ein weiterer wichtiger Teil der Suchmaschine Architektur. Es schafft eine Utility Index. Ein Dienstprogramm Index kann Zugang zu den Seiten von einer bestimmten Länge oder Seiten, die eine bestimmte Anzahl von Bildern auf ihnen.
* Während des Prozesses der Crawling und Indexierung, speichert eine Suchmaschine die Seiten, die er abruft. Sie werden vorübergehend in einer Seite-Repository gespeichert. Suchmaschinen einen Cache der Seiten, die sie besuchen, so dass Abruf von bereits besuchten Seiten beschleunigt.
* Die Abfrage-Modul einer Suchmaschine erhält Suchanfragen Form Benutzer in Form von Schlüsselwörtern. Die Ranking-Modul sortiert die Ergebnisse.
* Der Crawler Indexer Architektur hat viele Varianten. Es wird in der verteilten Architektur einer Suchmaschine modifiziert. Diese Suchmaschine Architekturen aus Sammlern und Brokern. Sammler sammeln Index-Informationen von Web-Servern, während die Makler die Indizierung Mechanismus und die Abfrage-Schnittstelle geben. Brokers aktualisieren Indizes auf der Grundlage von Informationen aus Sammlern und anderen Brokern erhalten. Sie filtern können Informationen. Viele Suchmaschinen von heute nutzen diese Art der Architektur.
Suchmaschinen und Page Ranking
Wenn wir eine Abfrage an einer Suchmaschine, werden die Ergebnisse in einer bestimmten Reihenfolge angezeigt. Die meisten von uns neigen dazu, die Seiten in der oberen Reihenfolge besuchen und ignorieren die über die ersten paar. Dies ist, weil wir die Top wenigen Seiten die meisten Relevanz für unsere Abfrage tragen zu betrachten. Also alles in Ranking ihrer Seiten in den ersten zehn einer Suchmaschine interessiert.
Die Worte, die Sie in der Abfrage-Schnittstelle einer Suchmaschine angeben, sind die Schlüsselwörter, die von Suchmaschinen gesucht werden. Sie stellen eine Liste der Seiten, die für den abgefragten Keywords. Während dieses Prozesses abzurufen Suchmaschinen diese Seiten, die häufigen Auftreten von Suchbegriffen haben. Sie suchen nach Zusammenhängen zwischen Schlüsselwörtern. Die Lage von Schlüsselwörtern wird auch berücksichtigt, während Ranking Seiten mit ihnen. Schlüsselwörter, die in den Seitentitel oder in den URLs auftreten, werden stärker berücksichtigt. Eine Seite mit Links, die auf sie es immer beliebter macht. Wenn viele andere Seiten auf eine Seite verlinken, wird es als wertvoll und mehr relevant angesehen.
Es ist eigentlich ein Ranking-Algorithmus, dass jede Suchmaschine verwendet. Der Algorithmus ist ein computergestütztes Formel entwickelt, um relevante Seiten mit einem Benutzer Abfrage entsprechen. Jede Suchmaschine kann eine andere Ranking-Algorithmus, der die Seiten in der Motoren-Datenbank analysiert, um relevante Antworten zu bestimmen Suchanfragen. Verschiedene Suchmaschinen-Index Informationen anders. Dies führt zu der Tatsache, daß eine bestimmte Abfrage vor zwei unterschiedliche Suchmaschinen stellen können Seiten in verschiedenen Ordnungen zu holen oder können unterschiedliche Seiten abzurufen. Sowohl das Schlüsselwort als auch die Website Popularität sind Faktoren, die Relevanz zu bestimmen. Click-through Popularität einer Website ist ein weiterer Faktor für seinen Rang. Diese Popularität ist das Maß dafür, wie oft die Seite besucht wird.
Webmaster versuchen, Suchmaschinen-Algorithmen Trick, um die Reihen ihrer Sites zu erhöhen. Die Tricks sind sehr bevölkern Homepage einer Website mit Stichworten oder die Verwendung von Meta-Tags, um Suchmaschinen-Ranking-Strategien zu täuschen. Aber Suchmaschinen sind schlau genug! Sie halten Überarbeitung ihrer Algorithmen und Zähler-Programm ihre Systeme so, dass wir als Forscher dont Opfer illegaler Praktiken fallen.
Wenn Sie ein ernsthafter Forscher sind, verstehen, dass auch die Seiten über die ersten in der Liste kann schwerwiegende Inhalt haben. Aber seien Sie über gute Suchmaschinen gewährleistet. Sie bringt Sie immer höchst relevanten Seiten in den Top-Bestellung!
Abonnieren
Kommentare zum Post (Atom)
Keine Kommentare:
Kommentar veröffentlichen