Als Suchmaschine bezeichne ich eine Software, mit welcher die Daten in einem Computer oder einem Computernetzwerk durchsucht werden können.
Bekannte Instanzen im Internet und Alternativen.
Die Operation, die Suchmaschinen verwendet, bezeichne ich diffus (noch nicht begriffen) als Information-Retrieval.
Effiziente Suchmaschinen erstellen einen Schlüsselwort-Index für die Dokumentbasis, um Suchanfragen über Schlüsselwörter mit einer nach Relevanz geordneten Trefferliste zu beantworten. Nach Eingabe eines Suchbegriffs liefert eine Suchmaschine eine Liste von Verweisen auf möglicherweise relevante Dokumente, meistens dargestellt mit Titel und einem kurzen Auszug des jeweiligen Dokuments. Dabei können verschiedene Suchverfahren Anwendung finden.
Im WWW sind Suchmaschinen auch "Gefundenwerden-Maschinen", weshalb sie in der Werbung eine zunehmend wichtige Rolle spielen. Ich kann die Web-Seiten so "optimieren", dass sie von den Suchmaschinen als wichtig erkannt und weit oben in den Listen aufgeführt werden. Diese Optimierung ist unter dem Stichwort SEO ein eigenständiges Geschäftsfeld geworden, worin der Ausdruck Suchmaschinenoptimierung nicht die Optimierung der Suchmaschinen bezeichnet, sondern die Optimierung von Web-Sites bezüglich deren Ranking bei Suchmaschinen.
Die Suchmaschinen werden natürlich auch laufend optimiert. Google macht aber ein Betriebsgeheimnis daraus, was zu vielen Spekulationen über die verwendeten Verfahren führt.
Geschichte der WWW-Suchmaschinen
1990 wurde an der McGill Universität in Montreal die Suchmaschine "Archie" entwickelt, welche FTP Verzeichnisse ausliest und Datei- und Verzeichnisnamen nach dem gewünschten Begriff durchsucht. Ab 1992 gehörte Archie zu einem der am meisten genutzten Internet-Dienste. Allerdings wurde keine Texte durchsucht , sondern nur Datei- und Ordnernamen.
1991 wurde Gopher entwickelt, der beim Suchen die Operatoren: AND, OR und NOT erlaubte.
1993 wurde das WWW freigegeben und der erste Webcrawler „The Wanderer“ programmiert, der Webseiten katalogisierte.
Im Juli 1994 kam die Suchmaschine Lycos, die Worthäufigkeiten in den Dokumenten beachtete.
Auch 1994 begann Yahoo mit der Verwaltung von Links.
1995 bekammen die Suchmaschine u.a. mit AltaVista ein kommerzielles Motiv und wurden entsprechen ausgebaut und automatisiert. Der Roboter „Scooter“ von AltaVista war eine Meilenstein.
1998 veröffentlichten L. Page und S. Brin ihre Ranking-Technologie (“The Anatomy of a Large-Scale Hypertextual Web Search Engine”) und starteten 1999 Google, dessen übersichtliche Benutzeroberfläche und die Relevanz der Suchergebnisse eine neue Qualität hatte (was allerdings die Monopolstellung kaum erklärt: Yahoo und Microsoft hatten damals als Firmen nicht als Suchmaschinen schon schlechte Namen).
Über Suchmaschen: the searchengine wars (Hintergründe, Machspiele im Netz)
Das Ende der Suchmaschine - oder wie mit NNs gesuchts wird
Seit ChatGPT auf dem Markt ist, ist eine Diskussion um Suchmaschinen entstanden, wonach es KI-intelligentere Methoden gibt, als die Google-Variante.
Frage an die Maschinist:innen hier: Welche Auswirkungen könnte es haben, wenn Google eine KI einsetzt? Wäre eine KI auch im Stande Inhalte zu finden, die explizit vom Indizieren durch Google ausgenommen sind? Was wird eine Google-KI für die Sitebetreiber bedeuten? Eine KI würde ja dann auch Seiten finden, die im Ranking »schlecht« sind. Oder genau gegenteilig?
Gute Frage! Die ja mit KI wenig zu tun hat, sondern thematisiert, dass vermeintlich intelligente Menschen eine Suchmaschine sehr verschieden programmieren können, gerade weil sie "intelligent" sind. Und welche Intelligenz dann die intelligenter ist, zeigt sich darin, welche mehr Followers generiert - genau wie bei parteipolitischen Programmen. Intelligenz wird durch Abstimmen gemessen (das ist übrigens auch die Kernaussage des Turing-Test-Textes, der auch fast nie gelesen wird).