-
Poulakos, I.: ¬"Die Leute suchen immer dasselbe" (2001)
0.01
0.010241175 = product of:
0.0409647 = sum of:
0.0409647 = weight(_text_:und in 5541) [ClassicSimilarity], result of:
0.0409647 = score(doc=5541,freq=4.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.34630734 = fieldWeight in 5541, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.078125 = fieldNorm(doc=5541)
0.25 = coord(1/4)
- Abstract
- Etwa eine Milliarde Seiten zirkulieren im Internet - entschieden zu viel, um den Überblick zu behalten. virtuelle Kataloge wie Web.de sortieren das Chaos und stauchen das WWW auf Normalmass zurecht. Der Bedarf nach Ordnung und Struktur im Datennetz muss gewaltig sein: 100.000 neue Benutzer registrieren sich pro Woche bei Web.de
-
Sauer, D.: Alles schneller finden (2001)
0.01
0.010241175 = product of:
0.0409647 = sum of:
0.0409647 = weight(_text_:und in 6835) [ClassicSimilarity], result of:
0.0409647 = score(doc=6835,freq=4.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.34630734 = fieldWeight in 6835, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.078125 = fieldNorm(doc=6835)
0.25 = coord(1/4)
- Abstract
- Tips zur Suche nach: Aktuellen Nachrichten (www.paperball.de, www.paperazzi.de, www.genios.de) - Filmen und Musik (www.vdfkino.de, www.kino.de, www.cdnow.com, www.billboard.com) - Kids im Netz (www.blindekuh.de, www.safetykid.de, www.kindercampus.de) - Jobs - VIPs, Promis und normale Leute - Urlaub (www.ferien.de, www.travel24.de, www.abenteuerreisen.de) - Software (www.moreover.com, www.completeplanet.com) - Bücher (www.amazon.de, www.libri.de, www.zvab.com. www.ubka.uni-karlsruhe.de/kvk.html)
-
rtr: Microsoft plant Suchmaschine (2003)
0.01
0.010241175 = product of:
0.0409647 = sum of:
0.0409647 = weight(_text_:und in 1464) [ClassicSimilarity], result of:
0.0409647 = score(doc=1464,freq=4.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.34630734 = fieldWeight in 1464, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.078125 = fieldNorm(doc=1464)
0.25 = coord(1/4)
- Abstract
- PALO ALTO (rtr). Der US-Softwarekonzern Microsoft erwägt den Start einer eigenen Internet-Suchmaschine und nimmt damit vor allem den Marktführer Google ins Visier. Der Chef des Microsoft-eigenen Internetportals MSN, Bob Visse, sagte: "Wir glauben, dass wir Kunden ein besseres und benutzerfreundlicheres Produkt bieten können."
-
Google für Profis (2003)
0.01
0.010241175 = product of:
0.0409647 = sum of:
0.0409647 = weight(_text_:und in 1778) [ClassicSimilarity], result of:
0.0409647 = score(doc=1778,freq=4.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.34630734 = fieldWeight in 1778, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.078125 = fieldNorm(doc=1778)
0.25 = coord(1/4)
- Abstract
- Das Internet glich einst einer chaotischen Datenwüste. Und dann kam Google und krönte beinahe jede noch so schwammige Suche umgehend mit Erfolg. Unter der Haube steckt in Google jedoch eine ganze Reihe ausgefeilter Werkzeuge, die das Internet noch zielgenauer durchforsten.
-
FR: Google für Wissenschaftler (2004)
0.01
0.010241175 = product of:
0.0409647 = sum of:
0.0409647 = weight(_text_:und in 1977) [ClassicSimilarity], result of:
0.0409647 = score(doc=1977,freq=4.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.34630734 = fieldWeight in 1977, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.078125 = fieldNorm(doc=1977)
0.25 = coord(1/4)
- Content
- "Der Suchmaschinenbetreiber Google testet einen Service für Wissenschaft und Forschung: Unter der Adresse scholar.google.com finden Akademiker Fachliteratur und Quellen. In den Ergebnislisten steht auch, wie oft andere Veröffentlichungen ein Buch oder Aufsatz als Referenz angeben."
-
D'Amore, S.: Gesucht und gefunden : Suchfunktionen für die eigene Website (2002)
0.01
0.010241175 = product of:
0.0409647 = sum of:
0.0409647 = weight(_text_:und in 2074) [ClassicSimilarity], result of:
0.0409647 = score(doc=2074,freq=4.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.34630734 = fieldWeight in 2074, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.078125 = fieldNorm(doc=2074)
0.25 = coord(1/4)
- Abstract
- Suchfunktionen gehören mittlerweile zum Standard bei professionellen Internetangeboten und verbessern den Nutzen der jeweiligen Website um ein Vielfaches. Wie Sie Suchformulare für Ihren eigenen Webauftritt erstellen können, zeigt unser Workshop
-
Arnold, A.: Google für Profis (2005)
0.01
0.010241175 = product of:
0.0409647 = sum of:
0.0409647 = weight(_text_:und in 4834) [ClassicSimilarity], result of:
0.0409647 = score(doc=4834,freq=4.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.34630734 = fieldWeight in 4834, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.078125 = fieldNorm(doc=4834)
0.25 = coord(1/4)
- Abstract
- Google hat mehr zu bieten, als Sie denken. Laufend werden neue Funktionen integriert. Dokumentiert sind diese aber nur zum Teil - und wenn, dann häufig an versteckter Stelle. Lesen Sie, wie Sie Google so manches Geheimnis entlocken und wie Sie bessere Suchergebnisse erzielen
-
Kwiatkowski, M.; Höhfeld, S.: Thematisches Aufspüren von Web-Dokumenten : eine kritische Betrachtung von Focused Crawling-Strategien (2007)
0.01
0.010241175 = product of:
0.0409647 = sum of:
0.0409647 = weight(_text_:und in 153) [ClassicSimilarity], result of:
0.0409647 = score(doc=153,freq=16.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.34630734 = fieldWeight in 153, product of:
4.0 = tf(freq=16.0), with freq of:
16.0 = termFreq=16.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0390625 = fieldNorm(doc=153)
0.25 = coord(1/4)
- Abstract
- Herkömmliche Suchmaschinen dienen der breiten Websuche und zeichnen sich zumeist durch eine hohe Quantität - nicht unbedingt durch Qualität - ihrer Ergebnismengen aus. Zum Suchen von Dokumenten wird ein allgemeiner Crawler eingesetzt, der Webseiten aufspürt, um große Datenspeicher aufzubauen. Focused Crawler gehen dagegen gezielter vor: Nicht enorme Datenmengen sollen durchsucht, gespeichert und indexiert werden, sondern nur bestimmte, thematisch relevante Segmente des World Wide Web. Der Focused Crawler muss einen möglichst optimalen Weg durch das Web finden, um Knowledge Discovery zu betreiben. Dabei bleiben die für eine Thematik irrelevanten Bereiche des Web unberücksichtigt. Die Aufgabe wird dadurch erheblich verkleinert und der Ressourcenaufwand verringert. Ziel ist die Produktion qualifizierter Suchergebnisse zu einem bestimmten Wissensgebiet. Im Allgemeinen können Focused Crawling-Techniken für den Aufbau spezialisierter vertikaler Suchmaschinen eingesetzt werden. Sie sind darüber hinaus im Bereich der Digitalen Bibliotheken von Vorteil. Da diese oft über einen thematischen Schwerpunkt verfügen und der qualifizierten Literatur-Untersuchung dienen, müssen sie einen gewissen Qualitätsanspruch Genüge leisten und dabei lediglich Anfragen zu einem definierten Wissensbereich bedienen. Der Einsatz von Focused Crawling bietet sich also an, um eine hohe Dokument-Qualität in einer spezifischen Domäne zu gewährleisten. Dieser Review-Artikel beleuchtet grundlegende Ansätze des Focused Crawling und verfolgt diese bis in die aktuellen Entwicklungen. Praktische Einsatzgebiete und aktuelle Systeme untermauern die Bedeutsamkeit des Forschungsgebiets. Darüber hinaus wird eine kritische Betrachtung der aufgeführten Ansätze geleistet.
- Source
- Information - Wissenschaft und Praxis. 58(2007) H.2, S.69-82
-
Braschler, M.; Herget, J.; Pfister, J.; Schäuble, P.; Steinbach, M.; Stuker, J.: Kommunikation im Internet : Die Suchfunktion im Praxistest (2007)
0.01
0.010241175 = product of:
0.0409647 = sum of:
0.0409647 = weight(_text_:und in 291) [ClassicSimilarity], result of:
0.0409647 = score(doc=291,freq=16.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.34630734 = fieldWeight in 291, product of:
4.0 = tf(freq=16.0), with freq of:
16.0 = termFreq=16.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0390625 = fieldNorm(doc=291)
0.25 = coord(1/4)
- Abstract
- Die Ausgangslage für Suchfunktionen auf Unternehmens-Websites stellt sich grundlegend anders dar als bei Internet-Suchdiensten. Nicht die möglichst breite Erschließung von Informationen vieler verschiedener Websites, sondern der erfolgreiche Dialog mit den Nutzern steht im Vordergrund. Das Gelingen dieser Kommunikation wird in diesem Beitrag untersucht. Von 56 Schweizer Unternehmen und Behörden wurde jeweils die Suchfunktion der Website untersucht. Dabei gruppierten sich die insgesamt 74 Einzeltests in die vier Hauptkriterien: Suchindex, Vergleich von Anfragen und Dokumenten, Benutzerinteraktion und Suchergebnisse. Die Resultate zeigen großes Potential für Verbesserungen. Dabei wurden kein Ranking der Websites und keine Auszeichnung im Rahmen der Studie beabsichtigt. Vielmehr wurde auf Basis der Ergebnisse eine Einteilung in gute, mittlere und schlechte Websites für die einzelnen Kriterien durchgeführt. Die Analyse zeigt, dass keine Website in sämtlichen getesteten Kriterien sehr gut abschneidet. Die Studie schließt mit verschiedenen Empfehlungen, die dazu führen können, die Qualität der Suchfunktion wesentlich zu verbessern. Hierbei wird unter anderem empfohlen, der Aktualität und Vollständigkeit des Suchindex besondere Beachtung zu schenken, Metadaten der Dokumentenbasis zu pflegen, bewährte Standards für die Benutzerinteraktion zu beachten und Trefferlisten sowie potenzielle Suchanfragen auch auf eine mögliche Nutzersicht hin zu optimieren.
- Source
- Information - Wissenschaft und Praxis. 58(2007) H.3, S.159-164
-
Weichselgartner, E.; Baier, C.: Sechs Jahre PsychSpider : Aus der Praxis des Betriebs einer Psychologie-Suchmaschine für freie Web-Inhalte (2007)
0.01
0.010241175 = product of:
0.0409647 = sum of:
0.0409647 = weight(_text_:und in 293) [ClassicSimilarity], result of:
0.0409647 = score(doc=293,freq=16.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.34630734 = fieldWeight in 293, product of:
4.0 = tf(freq=16.0), with freq of:
16.0 = termFreq=16.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0390625 = fieldNorm(doc=293)
0.25 = coord(1/4)
- Abstract
- Seit Sommer 2000 betreibt das Zentrum für Psychologische Information und Dokumentation (ZPID) den PsychSpider, eine Spezialsuchmaschine für wissenschaftliche Inhalte zur Psychologie. Der PsychSpider ist vorwiegend eine Websuchmaschine, aber auch strukturierte bibliographische Daten werden indiziert. Gegenwärtig bietet der PsychSpider den integrierten Zugang zu ca. 800.000 Dokumenten aus dem Surface Web und dem Deep Web. Die Suchmaschine verfügt über zahlreiche fortschrittliche Merkmale wie Boolesche Operatoren, natürlichsprachige Eingaben, "Query-by-Example", Relevanzbewertung der Resultate, Strukturierung des Datenbestands in unterschiedliche Kollektionen, im- und exportierbare Indexe, parametrische Suche und automatische Kategorisierung. Die mehrjährige Erfahrung zeigt, dass auch eine Technologie, die eigentlich dazu dienen sollte, möglichst automatisch die relevanten Informationen aus den Myriaden von Dokumenten im Internet herauszufischen, umfängliche menschliche Betreuung braucht. Das liegt an der formalen und inhaltlichen Qualität von Inhalten, aber auch an technologischen Faktoren wie zum Beispiel Content Management Systemen. Die Nutzung des PsychSpider ist über die Jahre kontinuierlich gewachsen und er gehört zu den erfolgreichsten Web-Angeboten des ZPID. Aus strategischer Sicht ist eine nach den Kriterien einer wissenschaftlichen Fachinformationseinrichtung betriebene Suchmaschine unverzichtbar und der weitere Ausbau wird die Attraktivität deutlich erhöhen.
- Source
- Information - Wissenschaft und Praxis. 58(2007) H.3, S.173-178
-
Dönhoff, P.; Bartels, C.: Online-Recherche bei NETZEITUNG.DE (2007)
0.01
0.010241175 = product of:
0.0409647 = sum of:
0.0409647 = weight(_text_:und in 380) [ClassicSimilarity], result of:
0.0409647 = score(doc=380,freq=16.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.34630734 = fieldWeight in 380, product of:
4.0 = tf(freq=16.0), with freq of:
16.0 = termFreq=16.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0390625 = fieldNorm(doc=380)
0.25 = coord(1/4)
- Abstract
- Die Netzeitung war die erste und ist bis heute die führende deutsche Tageszeitung mit Vollredaktion, die ausschließlich im internet erscheint. Seit ihrer Gründung im Frühjahr 2000 hat sie bewegte Zeiten hinter sich. Es gab verschiedene Besitzerwechsel: Von den norwegischen Gründern und Namensgebern, den online-Journalismus-Pionieren Nettavisen.no, ging sie in den Besitz von Bertelsmann über, bevor sie dann von ihrem Chefredakteur Dr. Michael Maier und seinem Partner Ralf Dieter Brunowski übernommen wurde und schließlich im Sommer 2005 wieder in norwegische Hände überging: zum in Oslo ansässige Medienunternehmen Orkla Media. Auch inhaltlich hat sich Netzeitung.de seit den Anfangsjahren stark weiterentwickelt. Die Website erhielt verschiedene Preise, wurde als meistzitiertes Onlinemedium ausgezeichnet und erhielt schließlich im Herbst 2006 den internationalen Global-Media-Award für die Kategorie >Online<. In dieser Kategorie hat sie auch renommierte Angebote, wie New York Times, Washington Post oder Spiegel Online hinter sich gelassen und damit ihre Relevanz unter Nachrichtenportalen erneut bestätigt. Neben der Website bestückt das Unternehmen inzwischen Medienangebote aller Art: Gesprochene Radio-Nachrichten und Berichte für zahlreiche Radiostationen gehören ebenso dazu wie die Teletextangebote für verschiedene TV-Sender oder Inhalte für online-Redaktionen, Infoterminals, Firmen-Intranets und mobile Geräte.
-
Siegenheim, V.; Kaumanns, R.: ¬Die Google-Ökonomie : Wie Google die Wirtschaft verändert (2007)
0.01
0.010241175 = product of:
0.0409647 = sum of:
0.0409647 = weight(_text_:und in 2414) [ClassicSimilarity], result of:
0.0409647 = score(doc=2414,freq=16.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.34630734 = fieldWeight in 2414, product of:
4.0 = tf(freq=16.0), with freq of:
16.0 = termFreq=16.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0390625 = fieldNorm(doc=2414)
0.25 = coord(1/4)
- Abstract
- Kaum ein Unternehmen hat in den letzten Jahren eine so rasante Erfolgsgeschichte geschrieben wie Google. Vor rund zehn Jahren als Internet-Suchmaschine mit einer Handvoll Mitarbeiter gestartet, hat sich Google zu einem erfolgreichen Konzern mit über 10.000 Mitarbeitern und Milliarden-Umsätzen entwickelt. Google hat sich dabei fundamental verändert. Google ist mittlerweile mehr als eine Suchmaschine. Google ist ein Nachrichtendienst. Google ist ein Multimedia-Archiv. Google ist ein Bezahlsystem. Google ist ein geographisches Informationssystem. Google ist ein Werbevermarkter. Google ist ein Software-Anbieter. Google ist vielleicht bald auch eine Telefongesellschaft ... und vieles mehr! Google investiert Milliarden in den Ausbau seiner Suchtechnologie und die Expansion seines Werbenetzwerks in die klassischen Werbeträger (TV, Radio oder Print). Google arbeitet an vollkommen neuen Angeboten wie der Verfügbarkeit von Wissen in Form der Digitalisierung gigantischer Bibliotheken. Google stößt in neue Segmente wie den mobile Plattformen, Geoinformation oder Anwendungen zur Bürokommunikation vor und engagiert sich beim Aufbau neuer Kommunikationsnetze oder entwickelt Dienste, die unser (digitales) Leben nachhaltig verändern könnten. Wie passt dies alles zusammen? Betrachtet man die einzelnen Aktivitäten von Google näher, ergibt sich ein spannendes Gesamtbild mit der Frage, welche Ziele und Strategie Google verfolgt. Dieses Gesamtbild - unter dem Schlagwort Google-Ökonomie - wird analysiert und die möglichen Auswirkungen auf verschiedene Branchen bewertet.
- Classification
- AP 18420 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Arten des Nachrichtenwesens, Medientechnik / Internet
- RVK
- AP 18420 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Arten des Nachrichtenwesens, Medientechnik / Internet
-
Jörn, F.: Wie Google für uns nach der ominösen Gluonenkraft stöbert : Software-Krabbler machen sich vor der Anfrage auf die Suche - Das Netz ist etwa fünfhundertmal größer als alles Durchforschte (2001)
0.01
0.010241175 = product of:
0.0409647 = sum of:
0.0409647 = weight(_text_:und in 3684) [ClassicSimilarity], result of:
0.0409647 = score(doc=3684,freq=100.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.34630734 = fieldWeight in 3684, product of:
10.0 = tf(freq=100.0), with freq of:
100.0 = termFreq=100.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.015625 = fieldNorm(doc=3684)
0.25 = coord(1/4)
- Abstract
- Ohne das Internet ist heute das Wissen der Welt kaum mehr vorstellbar - und ohne Suchmaschinen wäre es nicht auffindbar. Freilich steht nicht alles Wissen im Word Wide Web. Und erst recht nicht ist es dort zu finden, nicht einmal von dieser) technischen Wunderwerken, den Suchmaschinen, die uns dabei helfen. In den sechziger Jahren entstand Hypertext als eine einheitliche Darstellung und Verknüpfung von elektronischen Dokumenten. Im Jahr 1980 empfahl Tim Berners-Lee dem Genfer Kernforschungszentrum Cern einheitliche Verweise zwischen Dokumenten, sogenannte Links. Zu Weihnachten 1990 schrieb er dort den ersten Browser und erfindet damit das World Wide Web. Am 15. Dezember 1995 ging Altavista in Palo Alto ans Netz. Als wir hier einige Monate später über diese Suchmaschine berichteten, schätzten wir damals 30 Millionen Seiten im Interne. Inzwischen mag es da 300 Milliarden Dateien geben, wie viele, weiß keiner, nicht einmal die größte Suchmaschine. Die Technik der Suchmaschinen ist gleich geblieben. Sie suchen die Inhalte vorher, vor der Abfrage, mit Software, den "Krabblern", einer Erfindung des Franzosen Louis Monier. Die machen eine Liste aller vorkommenden Wörter und krabbeln dann, Link um Link, zu weiteren Seiten, von Datei zu Datei, von Domane zu Domäne, von Kontinent zu Kontinent. Wie genau die invertierten Dateien aussehen, die sie erzeugen, wie groß sie sind, wie dort Worthäufigkeit oder Stellung des Treffers auf der durchforschten Seite gespeichert ist - wichtig beim Sortieren der Ergebnisse -, wie daraus später geschlossene Wortgruppen herausgeholt werden, bleibt ein Betriebsgeheimnis. Einen kleinen Einblick gab uns Guido Adam, Technikchef der deutschen Suchmaschine Infoseek. In dieser Auskunftei mit 35 festen und noch einmal so vielen freien Mitarbeitern sind neun für den Katalog tätig. Die Rechner stehen in Darmstadt. In 19-Zoll-Gestellen laufen hinter Plexiglas sechs Krabbler-PCs mit 3 bis 8 Gigabyte (GB) Ram-Speicher und je hundert Krabbelprogrammen. Sie sind mit 640 Megabit je Sekunde ans Internet angeschlossen. Ihr Ziel: Wenigstens einmal mönatlich 30 Millionen deutsche Dateien besuchen. Erkennen sie häufig wechselnde Inhalte, kommen sie öfter vorbei; für ganz Aktuelles wie Zeitungsberichte gibt es Sondersucher, die notfalls stündlich nachlesen. Zwei weitere Maschinen bauen immerfort neue Indizes und legen die Ergebnisse in einem Speicher-Server mit brutto 5 Terabyte (5 mal 10**12 Byte) ab. Der Index - jeweils rund 350 GB - wird fünffach gehalten, damit Anfragen blitzschnell - in etwa einer Sekunde - von drei weiteren Maschinen beantwortet werden können. Index-"Instanz" Nummer vier ist Reserve und die fünfte im Aufbau.
Der weitere Speicher wird für die URL-Adreßdatenbank gebraucht, welche die Krabbler steuert, und als Zwischenspeicher für frisch aufgesuchte Dokumente, die dort ihrer Indizierung harren. An Anfragen kommen bei Infoseek, die T-Online und andere bedienen, täglich zwei Millionen herein; Hauptsuchzeit ist abends 20 bis 23 Uhr. Ja, Spitzenreiter der Suchbegriffe ist immer noch Sex. Gehen wir auf die Suche nach Seltenem. Im internationalen Wettstreit um die weitreichendste Netzausforschung hat zur Zeit die Suchmaschine Google (www.Google.com, "search 1.346.966.000 web pages") mit über 700 Millionen indizierten, teils sogar gespeicherten Seiten die Nase vorn, zumal sie dank ihrer Linktechnik weitere fast 700 Millionen Seiten kennt. Täglich bekommt Google 70 Millionen Anfragen. An zweiter Stelle mit knapp 600 Millionen Seiten folgt Fast, als "Alltheweb" bekannt (www.alltheweb.com), danach etwa gleichrangig mit über 500 Millionen Seiten der Oldtimer Altavista (www.altavista.com), Inktomi und Webtop (www.webtop.com). Inktomi liefert seine Ergebnisse an andere, erst an Hotbot, dann an Microsoft (www.msn.com), bis zum Juli 2000 auch an Yahoo (www.yahoo.com). Yahoo, geboren 1994, ist die älteste und immer noch eine sehr beliebte Suchmaschine, nicht, weil sie Exotika wie "Gluonenkraft" liefern könnte-, sondern weil sich dort rund 150 Katalogisierer Menschen! - um Stichwörter kümmern. Nur wenn die nichts fanden, werden fremde Ergebnisse zugespielt, inzwischen von Google. Ähnlich ist das bei Look Smart (www.looksmart.com), die von Inktomi unterversorgt wird. In hartnäckigen Fällen nutze man Übersuchmaschinen, sogenannte Meta-Crawler wie www.ixquick.com oder hier www.metager.de, die den eingegebenen Begriff automatisch in mehreren Suchmaschinen aufzuspüren versuchen (nicht in Google). Bei den meisten Suchen geht es jedoch nicht um seltene Begriffe. Von den 75 Millionen Ausdrücken, die Altavista einst zählte, werden üblicherweise triviale gesucht. Die Datenbankgröße der Suchmaschine ist dann belanglos. Zudem stehen viele Inhalte mehrfach im Netz, und der Suchende will nicht fünfmal dasselbe vorgespielt bekommen. Bei den meist viel zu vielen Treffern ist die wirkliche Frage deren Anzeigereihenfolge. Da wird versucht, nach Häufigkeit des Wortes im Text zu sortieren oder danach, ob es im Titel und näher am Textanfang vorkommt. Die Suchmaschinen erklären selbst ein wenig davon, zugleich als Aufforderung an WebDesigner, einfache Seiten zu machen, sich kurz und möglichst rahmenlos zu fassen. Speziell für die Suchmaschinen haben die meisten Webseiten im Kopfeintrag Stichwörter, im Quelltext der Seite von jedermann zu sehen. Webseiten können sich "Roboter" sogar verbitten. In den Suchmaschinen-Redaktionen wird für viele Begriffe die Ausgabe manuell festgelegt - wobei zuweilen bereits ein gutes "Placement" bezahlt wird, was sicher bedenklich ist. Für den Neuankömmling Google haben sich 1998 Sergey Brin und Larry Page etwas Besonderes ausgedacht: Die Seiten werden nach Beliebtheit bewertet, und die hängt davon ab, wie viele (beliebte) Seiten zur jeweiligen Seite einen Link hin haben. Das ist gut für klassische Inhalte. Neuigkeiten, auf die noch niemand deutet, werden so nicht gefunden. Für allgemeine Fragen kommt die Lösung nicht von großen Automaten, sondern von spezialisierten Auskunfteien, die rubriziert nach Sachgebieten vorgehen.
Da gibt es Spezialisten für alles, etwa Webbrain (www.webbrain.com), wo zur Sache gegangen werden kann bis hinunter zu Dürrenmatt, es gibt Sammlungen für Universitäten und Ausbildung (www.searchedu.com) und deutsche für Technik (www.fiz-technik.de), für Juristisches, Medizinisches und, von den Mormonen gesponsert, für Ahnenforschung (www.familysearch.com); Suche nach vermißten Kindern (www.fredi.org) ist genauso möglich wie nach Gratisgeschenken (www.kostenlos.de) oder in Bücherkatalogen samt Verkauf (www.amazon.de). Nur die deutsche Telefonbuchsuche wird immer schlechter. Es gibt Maschinen, die freies Fragen zulassen - und dann erstaunliche Ergebnisse bringen, etwa Northern Light (www.northernlight.com) auf die deutsch gestellte Frage: "Wie alt wurde Cäsar?" Wird dasselbe dagegen von Julius Cäsar" erfragt, ist man zwei Klicks später beim Ergebnis. Hier muß maschinelle Intelligenz noch üben. Erfahrungsgemäß denkt man sich besser selbst eine Reihe von Begriffen aus, die das zu findende Dokument enthalten könnte, und variiert, bis die Treffer näherkommen, so auch bei Xipolis (www.xipolis.net), das sich Wissensbibliothek nennt, Cäsars Geburtsjahr aber aus dem 24bändigen Brockhaus nur gegen Gebühr herausrücken will. Wissen.de gibt's frank und frei, und die berühmte Encyclopedia Britannica (www.Britannica.com) ist inzwischen auch schon offen! Kepnt man ein paar Worte des genauen Wortlauts, sagen wir, "zu Mantua in Banden", so setze man sie in Anführungszeichen und lasse nur nach dieser Folge suchen. Google hält durchsuchte Seiten (bis zu rund 100 Kilobyte) - sozusagen das ganze Netz, unvorstellbar! - in Kopie vor und kann selbst dann aus seinem Archiv dienen, wenn das Original schlecht oder nicht mehr erreichbar ist. Sie schnell anzUklicken hat den Zusatzvorteil, daß die Suchbegriffe farbig hervorgehoben werden. Und man sieht, wie die Seite vielleicht vor zwei Monaten beim letzten Google-Besuch ausgesehen hat. Insgesamt hat Google stets über hundert Indizes mit jeweils mehreren Terabyte Daten am Netz; Googles Legebatterie von über 8000 billigen Linux-PC-Servern grast in mehr a s einem Petabyte eigenem Speicher (1011 Byte). Dennoch: Die größte Sorge aller Netzfreunde ist das "unsichtbare Netz", das schätzungsweise fünfhundertmal umfangreicher ist als das mit Suchmaschinen Durchforschbare.
Es gibt riesige Inseln nach außen nicht verlinkter Dateien, es gibt Formate, die dem HTML-Standard nicht entsprechen und von Suchmaschinen nicht oder ungern gelesen werden, von Word-Dokumenten bis zu PDF-Dateien (Google durchkämmt sie und speichert sie zum schnellen Uberblick und vorteilhaft kopierbar als Textdateien!), Tabellen und Folienvorträge, Gedcom-Stammbäume, vor allem aber Bilder, Filme, Musik, die sich nur schwer elektronisch katalogisieren lassen. Haben Suchmaschinen Zeit, mit künstlicher Intelligenz herauszufinden, ob auf einem Bild eine Person ist? Und wenn, wer mag es sein? Infoseek bemüht sich in einer eigenen Bildersuche darum, kann allerdings auch kein Konterfei von Luis Trenker oder Toni Sailer herbeizaubern, wogegen "Luis Trenker Bild", besonders bei Google, zum Foto führt. "Britney Spears" strahlt einem gleich entgegen! Wenn Bilder beliebig benannt werden, bleiben sie unauffindbar. MP3-Dateien enthalten oft maschinenlesbar den Titel in der Musikdatei - eine große Hilfe für Suchmaschinen. Neue Webformate wie Macromedia Flash, dem Internet-Veteranen ohnehin ein Graus, vernebeln das in ihrem Troß Folgende. Und bietet eine Internetseite eine eigene Datenbanksuche an, dann bleibt diese Datenbank vor Suchmaschinen verborgen, von Telefonnummern und Zügen bis zu Artikeln dieser Zeitung. Zuvorkommender ist es, die Inhalte in Hypertext ins Netz zu stellen - für die Suchmaschinen und zusätzlich manuell darin suchen zu lassen. Suchmaschinen wie Freefind oder Atomz bieten das kostenlos an. Grundsätzlich können Suchmaschinen kostenpflichtige Inhalte nicht durchkämmen. So wie sich die olympische Idee inzwischen den Profis gebeugt hat, besteht auch im Internet die Gefahr, daß es immer kommerzieller zugeht. Ein Musterbeispiel sind WapInhalte für mobile Betrachter, die im Gegensatz zu HTML-Seiten nicht systematisch von einem Domänennamen her über Links erreichbar sind. Wap-Suchmaschinen weisen also nur angemeldete Seiten nach und spielen eine untergeordnete Rolle. Viel lieber schleusen die Mobilfunkanbieter ihre Kunden über Portale. Zollund Zahlgrenzen, Partikularismus zerstören das Netz. Beim japanischen Imode, mit HTML kompatibel, ist das anders; selbst Google bietet über www.google.com/imode Suche an, hat dann aber Mühe, Imode-Inhalte (in cHTML, compact HTML) von HTML zu unterscheiden. Grundsätzlich ist die Rivalität zwischen Internet-Portalen mit ihrer Zugangsführung und Suchmaschinen für Quereinsteiger noch nicht ausgefochten. Noch aus der Vor-Web-Zeit stammen Diskussionsforen. Dort werden zu bestimmten Themen Meinungen ausgetauscht, - moderiert oder wildwachsend.
Die Beiträge, eine Art E-Mails mit gestrengen Usancen, finden sich dann auf vielen kooperierenden Servern, auf uralten nichtkommerziellen Fido- oder Zerberus-Boxen und bei großen Internet-Anbietern à la T-Online, die die Eintrage wie kommunizierende Röhren untereinander austauschen. Die mit Newsreader-Zusatzsoftware zu lesenden, zuweilen ruppigen Beiträge dieser Zehntausenden von Newsgroups im "Usenet" sind ein wahres Dorado für Tips und Meinungen, für praktische Hilfe und unermüdliche Kollegialität - oft zum Ärger der Produkthersteller, gelegentlich zur Entlastung von deren Kundendiensten. Frage-und-Antwort-Fäden (Threads) verästeln sich zu einem Baum der Meinungen und des Wissens. Einen Überblick gibt etwa Tile.net oder groups.google.com, versuchsweise mag man als Sprachfreund bei http://faql.de einsteigen. Über www.deja.com konnte man überall browsergeführt mitdiskutieren und seinen Senf dazugeben. Ende 2000 ging es damit bergab, am 12. Februar stellte Deja seinen Dienst ein. Domänenname und Datenbank (mehr als ein Terabyte mit über 500 Millionen Beiträgen seit 1995) wurden von Altavista an Google verkauft und sind unter der alten Adresse lebendig. Nur neue Beiträge kann man dort nicht mehr loswerden und muß sich dazu schon direkt zum jeweiligen Forum bemühen. Manche Suchmaschinen bieten maschinelle Übersetzungen. Die Ergebnisse helfen Amerikanern, uns zu verstehen, mit Phantasie und gutem Willen, Auf seiner sehenswerten englischen Suchseite bietet dies Google an, so wie seit längerem Altavista - vom selben Übersetzer. Gefundenen Text bekommt man ins Englische übersetzt; klickt man weiter, so auch die weiteren Seiten. Man sollte sich nicht darüber lustig machen, selbst wenn eines Dichters Werk als "its factory" erscheint und die Stadt Essen als "meal". Die Wunscheinstellungen (speicherbar, wenn man Cookies zuläßt) bei Google lassen übrigens zu, daß die gefundenen Seiten, ob original, ob übersetzt, in einem neuen Browserfenster aufscheinen.'Alle anderen machen das auch wenn man die Shift-Taste beim Klicken drückt. Hoffen wir, daß uns diese offene Wunderwelt des Internet mit ihren Suchmaschinen noch lange erhalten bleibt und daß kommende Multimedia-Inhalte nicht in einem Wust von Formaten untergehen. Das Netz muß Schranken überwinden können, für Maschinen, letztlich aber von Mensch zu Mensch
-
Lewandowski, D.: Suchmaschinen (2013)
0.01
0.010241175 = product of:
0.0409647 = sum of:
0.0409647 = weight(_text_:und in 731) [ClassicSimilarity], result of:
0.0409647 = score(doc=731,freq=4.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.34630734 = fieldWeight in 731, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.078125 = fieldNorm(doc=731)
0.25 = coord(1/4)
- Source
- Grundlagen der praktischen Information und Dokumentation. Handbuch zur Einführung in die Informationswissenschaft und -praxis. 6., völlig neu gefaßte Ausgabe. Hrsg. von R. Kuhlen, W. Semar u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried
-
Levy, S.: Google inside : Wie Google denkt, arbeitet und unser Leben verändert (2012)
0.01
0.010241175 = product of:
0.0409647 = sum of:
0.0409647 = weight(_text_:und in 2401) [ClassicSimilarity], result of:
0.0409647 = score(doc=2401,freq=16.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.34630734 = fieldWeight in 2401, product of:
4.0 = tf(freq=16.0), with freq of:
16.0 = termFreq=16.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0390625 = fieldNorm(doc=2401)
0.25 = coord(1/4)
- Abstract
- Nur wenige Unternehmen waren im Laufe der Geschichte so erfolgreich und gleichzeitig umstritten wie Google. Dem Autor Steven Levy wurde in bisher noch nie dagewesenem Umfang Zugang zum Unternehmen gestattet. In diesem aufschlussreichen Buch nimmt er die Leser mit in die Google-Zentrale, das Googleplex, um zu zeigen, wie Google arbeitet. Wie Levy enthüllt, liegt der Schlüssel zum Google-Erfolg einerseits in der technischen Denkweise sowie in der Ausübung typischer "Internet-Werte" wie Geschwindigkeit, Offenheit, Experimentier- und Risikofreude. Hat Google aber vielleicht seinen innovativen Biss verloren? In China ist es schwer gestolpert und Levy deckt auf, was dort schiefgelaufen ist und wie sich Brin und seine Kollegen bei der China-Strategie nicht einig waren. Und nun jagt Google bei seiner jüngsten Initiative, den sozialen Netzwerken, erstmals einem erfolgreichen Konkurrenten hinterher. Einige Mitarbeiter verlassen mittlerweile das Unternehmen in Richtung kleinerer, wendigerer Startups. Kann Google, das den berühmten Entschluss gefasst hat, nicht böse sein zu wollen, weiter wettbewerbsfähig bleiben? Kein anderes Buch konnte bisher die Google-Interna derart offenlegen.
- Footnote
- Originaltitel: In the plex : how Google thinks, works, and shapes our lives. Rez. in: iwp 66(2015) H.5/6, S.363-368 (C. Cazan) [mit einer Liste von weiteren Büchern über das Unternehmen und die Suchmaschine].
-
Marahrens, O.: Europa und die Informationsgesellschaft : ein Bericht zum SuMa-eV-Forum am 28. September in Berlin (2007)
0.01
0.0101898415 = product of:
0.040759366 = sum of:
0.040759366 = weight(_text_:und in 52) [ClassicSimilarity], result of:
0.040759366 = score(doc=52,freq=44.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.34457147 = fieldWeight in 52, product of:
6.6332498 = tf(freq=44.0), with freq of:
44.0 = termFreq=44.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0234375 = fieldNorm(doc=52)
0.25 = coord(1/4)
- Content
- "Google ist überall - Die Suchmaschine hat es geschafft, ihren Namen synonym zur Informationssuche im Internet zu setzen. Schon allein deswegen ist sie auch in Bibliothekarskreisen, die sich ja auch intensiv um Informationen und deren Erschließung und Auffindbarmachung kümmern, allgegenwärtiges Gesprächsthema. Sucht man im bekannten bibliothekarischen Weblog Netbib von Edlef Stabenau nach Google, so erhält man diverseTreffer, und auch im Archiv der Mailingliste inetbib wird man bei einer Suchanfrage nach Google mit Treffern geradezu überschüttet. Das Thema Google ist für Bibliotheken also offenbar von beträchtlicher Bedeutung. Kein Wunder, sehen doch einige in Google eine Konkurrenz und vielleicht sogar eine Gefahr für Bibliotheken und ihr Informationsangebot. Die Frage, die sich viele Nutzer stellen, lautet ja: Welchen Mehrwert kann mir eine Bibliothek bieten, wenn ich doch mit Google auf einfache Weise alles finde, was ich suche? So wird die Informationskrake Google durchaus auch in Bibliothekskreisen kritisch, bisweilen sogar ängstlich beobachtet. Für Diskussionen im Suchmaschinensektor sorgt auch der gemeinnützige Verein SuMa-eV. Der Verein ist noch recht jung (gegründet Mitte 2004) und hat zum Ziel, Suchmaschinentechnologien zu fördern und den freien Wissenszugang zu gewährleisten. Zu den geförderten Projekten des Vereins zählen unter anderem Yacy, eine Peer-to-Peer-Suchmaschine, und Meta-ger2, eine Metasuchmaschine, die unter dem Motto »Metasuche ohne Müll« steht. SuMa-eV setzt sich für einen dezentralen, anbieter-unabhängigen und damit nicht monopolisierbaren Informationszugang ein. Dieser kann nach Meinung des Vereins am ehesten durch viele verteilte Minisucher realisiert werden. Diese thematisch voneinander abgegrenzten Suchsysteme sollen ihren Teilbereich jeweils durch Crawling indexieren und ihrerseits durch Metasuchsysteme abgefragt werden. Dabei kann es durchaus mehrere Suchsysteme für ein Thema ge ben, da derartige Redundanzen helfen, die Informationsvielfalt zu gewährleisten. Allem übergeordnet kann es noch ein weiteres Metasuchsystem geben, das seinerseits die angeschlossenen Submetasuchsysteme durchstöbert, damit der Nutzer eine einzelne Oberfläche zur Nutzung der Suchmaschinen hat. Mit Hilfe der Metasuche können große Datenmengen auf einer einheitlichen Suchoberfläche abgefragt werden, ohne dass gigantische Indizes gehalten werden müssen. Auch Ausfallsicherheit ist aufgrund der Redundanz gewährleistet: fällt ein Teilsystem aus, so kann ein anderes die Versorgung des Metasuchsystems übernehmen. Gleichzeitig kann ein solches System nur sehr schwer oder gar nicht zensiert werden, wodurch demokratische Grundprinzipien der Meinungsfreiheit und der Grundsatz »Eine Zensur findet nicht statt« gesichert werden.
Eine Realisation ähnlicher Konzepte findet sich zum Beispiel auch in der Bibliothekswelt: Einzelne Opacsysteme werden mit anderen zu einem Verbund koordiniert, der seinerseits eine Möglichkeit anbietet, die angeschlossenen Systeme zu durchsuchen (zwar technisch keine echte Metasuche, aber durchaus vergleichbar, da verschiedene Einzelsysteme unter einer einheitlichen Oberfläche angeboten werden). Übergeordnet gibt es weitere, verbundübergreifende Suchmöglichkeiten wie das P7+-Verbundportal. Der Katalog der DNB kommt dazu und umfasst sämtliche deutschsprachige Literatur (was als Redundanz zu den anderen Einzelopacs gesehen werden kann). Als echtes Metasuchsystem gibt es in Bibliothekskreisen den KVK, der wiederum seinerseits den Katalog der DNB, die einzelnen Verbundkataloge, aber auch nochmal die Einzelsysteme diverser Bibliotheken zusammenfasst. Der Kooperative Bibliotheksverbund Berlin-Brandenburg (KoBV) geht sogar einen Schritt weiter und setzt komplett auf verteilte Datenhaltung, indem er z.B. einen dezentralen Verbundkatalog betreibt. Die heterogenen Einzelsysteme der Bibliotheken werden über eine zentrale Suchmaschine miteinanderverbunden. So erkennt man bei diesem Beispiel ganz deutliche Parallelen zu den Überlegungen des SuMa-eV. ...
Fazit - Insgesamt zeigte die Veranstaltung, dass SuMa-eV seinem Ziel einer dezentralen Informationsstruktur im Netz näherkommt und aus technischer Sicht beeindruckende Fortschritte vorzuweisen sind. Eine zentrale Plattform zur einfachen Erstellung von Minisuchern kann ein guter Weg sein, Nutzer an die Materie heranzuführen und es allen Interessenten zu ermöglichen, sich zu beteiligen. Kurz vor der Fertigstellung des vorliegenden Artikels zog Google bereits nach und stellte eine personalisierbare, selbst zusammenstellbare Suchmaschine vor, die von allen frei genutzt werden kann.» Das verdeutlicht erneut, dass der Weg zu dem genannten Ziel bei der übermächtigen Konkurrenz durch Google noch beschwerlich und lang sein wird. Linden betonte auf der Veranstaltung, immerhin hätten Google und Co. einen erheblichen Technikvorsprung von etwa fünf Jahren und trieben zudem die Weiterentwicklung stetig voran, so dass Europa noch zehn bis fünfzehn Jahre brauche, um überhaupt mit den US-Amerikanern Schritt halten zu können. Die Europäer müssten mit einem Ruck geweckt werden, um nicht mehr nur passiv zuzuschauen und Google gewähren zu lassen. Dass die Bibliotheken an diesem Ruck mitwirken müssen, ist nach Lewandowskis zu Anfang erwähnten Postulaten unstrittig. In diesem Sinne: gehen wir ans Werk!"
- Source
- Zeitschrift für Bibliothekswesen und Bibliographie. 54(2007) H.1, S.35-40
-
Gilster, P.: Suchen und Finden im Internet (1995)
0.01
0.010138246 = product of:
0.040552985 = sum of:
0.040552985 = weight(_text_:und in 6617) [ClassicSimilarity], result of:
0.040552985 = score(doc=6617,freq=2.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.34282678 = fieldWeight in 6617, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.109375 = fieldNorm(doc=6617)
0.25 = coord(1/4)
-
Tröger, B.: "Und wie halten sie es mit der Internet-Erschließung?" : Bibliothekarische Gretchenfragen von IBIS bis GERHARD (1998)
0.01
0.010138246 = product of:
0.040552985 = sum of:
0.040552985 = weight(_text_:und in 2274) [ClassicSimilarity], result of:
0.040552985 = score(doc=2274,freq=2.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.34282678 = fieldWeight in 2274, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.109375 = fieldNorm(doc=2274)
0.25 = coord(1/4)
-
Otto, M.: Suchstrategien im Internet : Search engines, Themenkataloge, Besprechungsdienste (1997)
0.01
0.010138246 = product of:
0.040552985 = sum of:
0.040552985 = weight(_text_:und in 2860) [ClassicSimilarity], result of:
0.040552985 = score(doc=2860,freq=8.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.34282678 = fieldWeight in 2860, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0546875 = fieldNorm(doc=2860)
0.25 = coord(1/4)
- Abstract
- Im Internet lassen sich Informationen oft sekundenschnell gewinnen - vorausgesetzt, man verliert sich nicht im Dickicht von Web-Links. Im Buch erfährt der Leser, wie er mit Hilfe der im Internet zur Verfügung stehenden Suchhilfen rasch und ohne Umwege zum Ziel kommt. Der Autor beschreibt, wie eine Suchanfrage aufgebaut wird. Der nächste Schritt ist die Auswahl der jeweils effektivsten Suchhilfe. Tabellen und Übersichten zeigen anschaulich Vor- und Nachteile dieser Hilfen und geben einen Überblick über nutzbare Abfrageoptionen
-
Gerber, A.: Vergleich von Suchmaschinen und Katalogen : Schwerpunkt deutschsprachiger Suchmaschinen Stand 2002 (2002)
0.01
0.010138246 = product of:
0.040552985 = sum of:
0.040552985 = weight(_text_:und in 4005) [ClassicSimilarity], result of:
0.040552985 = score(doc=4005,freq=2.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.34282678 = fieldWeight in 4005, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.109375 = fieldNorm(doc=4005)
0.25 = coord(1/4)