Metasuchmaschine

Eine Metasuchmaschine ist die Sonderform einer Suchmaschine – von hier aus wird nämlich die eingegebene Suchanfrage gleichzeitig an eine Anzahl von anderen Suchmaschinen weitergeleitet, gesammelt und aufbereitet. Die Metasuchmaschinen ordnet Ergebnisse nacheinander an. Doch kann es ebenfalls Metasuchmaschinen geben, die dieselben Fundstellen (aus unterschiedlichen Suchmaschinen) nur ein einziges Mal auflisten. Ein solches Vorgehen wird mit dem Begriff „Aggregation von Dubletten“ bezeichnet. Auch ist eine Metasuchmaschine in der Lage, aufgefundene Ergebnisse einer Bewertung zu unterziehen. Diese Vorgänge bezeichnet man als „Ranking“ – die Einträge werden nämlich hierarchisch aufgelistet.

Die Metasuchmaschine ist eine Suchmaschine, die keinen eigenen Datenbestand hat – stattdessen sucht sie parallel die Datenbestände anderer Anbieter durch – Ergebnisse werden dann übersichtlich zentral zusammengefasst. Es sind jedoch nicht nur Suchmaschinen, an die Metasuchmaschinen ihre Anfrage richten: Ebenso Newsdienste, Lexika und Verzeichnisse jeder Art – grundsätzlich alle verfügbaren Online-Quellen bilden die Grundlage der Arbeit von Metasuchmaschinen, die in ihrer Suche jeweils einen hohen Bereich der online verfügbaren Informationsressourcen abdecken. Dies hat eine große Palette an gewünschten Ergebnissen zur Folge. Eine Metasuchmaschine bzw. der zugehörige Server fragt, wie erwähnt, in einem ersten Schritt Ergebnisse anderer Suchdienste ab. Aus diesem Grund kann die Ergebnisfindung einem Anwender zuweilen als „verzögert“ erscheinen (im Vergleich gegenüber einer direkten Suchmaschinenanfrage). Tatsächlich beträgt diese Zeitverzögerung nur wenige Sekunden.

Eine erste Metasuchmaschine für das Internet wurde im Jahre 1995 von O. Etzioni und E. Selberg an der University of Washington programmiert und als „Meta Crawler“ bzw. „Parallel Web Search Service“ bezeichnet. Ein Jahr darauf waren es Mitarbeiter am Regionalen Rechenzentrum für Niedersachsen (abgekürzt RRZN), die (von W. Sander-Beuermann geleitet) die erste bundesdeutsche Metasuchmaschine, nämlich „MetaGer“ programmierten. Weitere Suchmaschinen, die heute bestehen, sind Yippy, Ixquick und Dogpile. Webseitenbetreiber sind nun darum bemüht, mit den Produkten und Dienstleistungen ihrer Internetpräsenz nicht nur direkt in den Suchmaschinen, sondern auch in den Ergebnissen der Metasuchmaschinen gelistet zu werden. Dies kann durch eine effektive Suchmaschinenoptimierung stets gewährleistet werden.

Auch Suchmaskensammlungen werden zuweilen als Metasuchmaschinen benannt. Jedoch besteht hier ein Unterschied: Suchmaskensammlungen zeigen in externen Fenstern die Originaloberfläche an; Metasuchmaschinen jedoch führen die Ergebnisse einheitlich zusammen. Eine solche Suchmaskensammlung ist z. B. der Webservice „HotBot“. Bei der Metasuchmaschine handelt es sich insbesondere um eine Suchfunktion, die sich in der wissenschaftlichen Literaturrecherche als durchaus vorteilhaft erweist. Je mehr Datenbanken oder Online-Kataloge nämlich für eine Seminar- oder Abschlussarbeit berücksichtigt werden können, desto qualitativer ergeben sich im Nachhinein auch die Ausführungen (insbesondere ist hier auch eine stetige Aktualität gegeben). Dies ersetzt nicht nur, sondern übertrifft auch Katalogwissen, welches die örtliche Bibliothek zu einem verlangten Zeitpunkt nicht zu liefern in der Lage wäre.

Nichtdestotrotz bleibt zu jedem gegebenen Zeitpunkt einer jeden Metasuchmaschine auch das sogenannte „Deep Web“ (andere Bezeichnungen: „Invisible Web“ oder „Hidden Web“) verborgen. Dies sind Inhalte, die in den Auflistungen der Suchmaschinen nicht berücksichtigt werden können, weil Webseiten bewusst von ihren Betreibern passwortgeschützt nur einem kleinen Kreis von Nutzern zugänglich gemacht werden oder aber, weil Webseitenbetreiber nicht in der Lage waren oder sind, ihre Internetpräsenzen suchmaschinenoptimiert zu gestalten. Die den (Meta-)Suchmaschinen zugängliche Dimension des Internets bezeichnet man als „Surface Web“ bzw. „Oberflächenweb“.

Schreib einen Kommentar