-
Schaat, S.: Von der automatisierten Manipulation zur Manipulation der Automatisierung (2019)
0.01
0.010243452 = product of:
0.04097381 = sum of:
0.04097381 = weight(_text_:und in 4996) [ClassicSimilarity], result of:
0.04097381 = score(doc=4996,freq=6.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.33931053 = fieldWeight in 4996, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0625 = fieldNorm(doc=4996)
0.25 = coord(1/4)
- Abstract
- Die Teilblindheit unseres Lebens und unserer Bedürfniserfüllung dient als Tor unbewusster Einflussnahme.
- Content
- "Wir kennen das bereits von Google, Facebook und Amazon: Unser Internet-Verhalten wird automatisch erfasst, damit uns angepasste Inhalte präsentiert werden können. Ob uns diese Inhalte gefallen oder nicht, melden wir direkt oder indirekt zurück (Kauf, Klick etc.). Durch diese Feedbackschleife lernen solche Systeme immer besser, was sie uns präsentieren müssen, um unsere Bedürfnisse anzusprechen, und wissen implizit dadurch auch immer besser, wie sie unsere Bedürfniserfüllung - zur Konsumtion - manipulieren können."
-
Lewandowski, D.: Suchmaschinen - ein Thema für die Informationswissenschaft (2005)
0.01
0.01016311 = product of:
0.04065244 = sum of:
0.04065244 = weight(_text_:und in 3183) [ClassicSimilarity], result of:
0.04065244 = score(doc=3183,freq=42.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.3366492 = fieldWeight in 3183, product of:
6.4807405 = tf(freq=42.0), with freq of:
42.0 = termFreq=42.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0234375 = fieldNorm(doc=3183)
0.25 = coord(1/4)
- Content
- "Web-Suchmaschinen gibt es seit mittlerweile etwa zehn Jahren. Mit ihnen ist die Informationsrecherche, welche lange Zeit eine Sache für (uns) Experten war, bei Otto Normalverbraucher angekommen. Suchmaschinen haben sich an die Bedürfnisse dieser Nutzerschaft angepasst, was von Expertenseite zu vielerlei Klagen über ihre "Primitivität` geführt hat. Als Chance kann hier aber die Erkenntnis gesehen werden, dass die Nutzer einfache Interfaces und ein gutes Ranking der Suchergebnisse benötigen - auch in fachlichen Anwendungen. Der Durchbruch des Information Retrieval und seiner Bedeutung zeigt sich aber nicht nur durch die breite Nutzerschaft. Das Kernstück von erfolgreichen Suchmaschinen-Unternehmen wie Google und Yahoo! bilden Information-Retrieval-Verfahren - von besonderem Interesse sind dabei stets die von den Firmen geheim gehaltenen Ranking-Algorithmen. Die Forschung im IR-Bereich findet inzwischen zahlreiche namhafte Sponsoren - bei der letzten Jahrestagung der Special Interest Group an Information Retrieval (SIGIR) waren unter anderem Microsoft, IBM und Google mit im Boot. Suchmaschinen-Forschung findet in Deutschland in zahlreichen Hochschulen und Unternehmen statt, dabei ist sie allerdings verstreut und wenig koordiniert. Die zahlreichen auf das Call for Papers für dieses Themenheft der IWP eingegangenen Beiträge zeigen erfreulicherweise ein großes Potenzial für die informationswissenschaftliche Forschung in diesem Bereich. Der erste Beitrag befasst sich mit den Eigenheiten des Web und arbeitet die Unterschiede zwischen klassischem Information Retrieval und Web Information Retrieval heraus. Damit werden die Grundlagen für die Diskussion über Suchmaschinen gelegt. Der zweite Teil des Beitrags gibt einen Überblick der aktuellen Forschungsliteratur mit informationswissenschaftlichem Schwerpunkt und hat zum Ziel, weitere Forschung anzuregen. Thomas Mandl beschreibt in der Darstellung seines AOUAINT-Projekts die unterschiedlichen Ansätze, (Web-)Dokumente nach ihrer Oualität zu beurteilen. Solche Verfahren werden bereits von den bisher bestehenden Suchmaschinen eingesetzt; man denke etwa an das Kernstück von Google, das so genannte PageRank-Verfahren. Allerdings beschränken sich die bisherigen Verfahren nur auf einzelne Aspekte von Qualität. AOUAINT erweitert die Qualitätsbewertung um weitere Faktoren und kann so das Retrieval verbessern.
Neben den "harten Faktoren" der Oualität der Suchergebnisse spielt auch die Gestaltung von Suchinterfaces eine wichtige Rolle für die Akzeptanz bzw. Nicht-Akzeptanz von Suchwerkzeugen. Die Untersuchung von Jens Fauldrath und Arne Kunisch vergleicht die Interfaces der wichtigsten in Deutschland vertretenen Suchmaschinen und Portale und gibt Empfehlungen für deren Gestaltung und Funktionsumfang. Neue Wege in der Gestaltung von Ergebnismengen beschreibt der Beitrag von Fridolin Wild. Anhand des Vergleichs von bestehenden Visualisierungslösungen werden best practices für die Ergebnispräsentation herausgearbeitet. Für die Zukunft rechnet Wild mit einem zunehmenden Einsatz solcher Systeme, da er in ihnen die Möglichkeit sieht, nicht nur die Benutzeroberflächen zu verändern, sondern auch das Retrivalverfahren an sich zu verbessern. Die Internationalität des Web hat es mit sich gebracht, dass Suchmaschinen in der Regel für den weltweiten Markt entwickelt werden. Wie sie mit einzelnen Sprachen umgehen, ist bisher weitgehend un geklärt. Eine Untersuchung über den Umgang von Suchmaschinen mit den Eigenheiten der deutschen Sprache legen Esther Guggenheim und Judith Bar-Ilan vor. Sie kommen zu dem Schluss, dass die populären Suchmaschinen zunehmend besser mit deutschsprachigen Anfragen umgehen können, sehen allerdings weitere Verbesserungsmöglichkeiten. Dem noch relativ neuen Forschungsgebiet der Webometrie ist der Beitrag von Philipp Mayr und Fabio Tosques zuzuordnen. Webometrie wendet die aus der Bibliometrie bzw. Informetrie bekannten Verfahren auf den Web-Korpus an. Im vorliegenden Beitrag wird das Application Programming Interface (API) von Google auf seine Tauglichkeit für webometrische Untersuchungen getestet. Die Autoren kommen zu dem Schluss, dass kleinere Einschränkungen und Probleme nicht die zahlreichen Möglichkeiten, die das API bietet, mindern. Ein Beispiel für den Einsatz von Suchmaschinen-Technologie in der Praxis beschreibt schließlich der letzte Beitrag des Hefts. Friedrich Summann und Sebastian Wolf stellen eine Suchmaschine für wissenschaftliche Inhalte vor, die die Oualität von Fachdatenbanken mit der Benutzerfreundlichkeit von Web-Suchmaschinen verbinden soll. Im Aufsatz werden die eingesetzten Technologien und die möglichen Einsatzgebiete beschrieben. Der Gastherausgeber wünscht sich von diesem Themenheft, dass es Anregungen für weitere Forschungs- und Anwendungsprojekte geben möge, sei dies an Hochschulen oder in Unternehmen."
- Source
- Information - Wissenschaft und Praxis. 56(2005) H.1, S.1
-
Rusch-Feja, D.: Informationsvermittlung, Informationsretrieval und Informationsqualität im Internet (1996)
0.01
0.00991818 = product of:
0.03967272 = sum of:
0.03967272 = weight(_text_:und in 4873) [ClassicSimilarity], result of:
0.03967272 = score(doc=4873,freq=10.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.328536 = fieldWeight in 4873, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.046875 = fieldNorm(doc=4873)
0.25 = coord(1/4)
- Abstract
- Eingangs werden einige Aspekte des Informationsretrievals im Internet hinsichtlich der Suche nach Informationen behandelt, bei denen die Art der Information die Suchmethode bestimmt. Die Suche nach themenorietierten Fachinformationen im Internet wird anschließend in ihrer besonderen Problematik vorgestellt, zusammen mit der Nutzung verschiedener Suchmethoden, Arten von Quellen und Suchhilfen. Außerdem wird die Handhabung von Suchmechanismen und -strukturen im Internet inklusive Suchinstrumenten wie Search engines erläutert. Nach einer kurzen Diskussion der Problematik der Informationsfilterung für den Nutzer bzw. der Erstellung bleibender Suchhilfen, wie Clearinghouses und ähnlichen Meta-Informationsstrukturen, soll anschließend auf die Qualität der Informationsressourcen im Internet eingegangen werden. Die gegenwärtige Diskussion über Qualitätskriterien wird zusammengefaßt. Zum Schluß werden die Mehrwertaspekte, die durch die Ergänzung der herkömmlichen Erfassung der Hauptdaten entstehen, sowie die Aufbereitung der Rechercheergebnisse in bleibenden Informationssammelstellen als neue Anforderungen innerhalb der bibliothekarischen Berufe besprochen
- Source
- Zeitschrift für Bibliothekswesen und Bibliographie. 43(1996) H.4, S.329-360
-
Dresler, S.; Grosse, A.G.; Rösner, A.: Realisierung und Optimierung der Informationsbeschaffung von Internet-Suchmaschinen am Beispiel von www.crawler.de (1997)
0.01
0.00991818 = product of:
0.03967272 = sum of:
0.03967272 = weight(_text_:und in 716) [ClassicSimilarity], result of:
0.03967272 = score(doc=716,freq=10.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.328536 = fieldWeight in 716, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.046875 = fieldNorm(doc=716)
0.25 = coord(1/4)
- Abstract
- Die Datenmenge im WWW, welche in Form von Internet-Seiten über URLs zugänglich ist, wächst derzeit stark an. Um aus dieser Menge effizient eine Liste von URLs zu einem Thema oder Stichwort zu extrahieren, sind leistungsfähige Internet-Suchmaschinen mit einem möglichst umfassenden und aktuellen Datenbestand notwendig. Diese sind jedoch sowohl in ihren Eigenschaften wie Verarbeitungskapazität und Netzanbindung beschränkt als auch durch administrative Hindernisse wie das Robots Exclusion Agreement. Es ist daher notwendig, neuartige Algorithmen zur Sammlung von Internet-Seiten zu verwenden, welche empirisch gewonnenes Wissen über die Seitenstruktur berücksichtigen. Dieser Bericht präsentiert den aktuellen Stand der Optimierung des Datenbeschaffungsteils der bekannten deutschen Suchmaschine www.crawler.de durch die Integration von Mechanismen, welche die Aktualisierungsrate und die Verzeichnistiefe von Internet-Links berücksichtigen
- Source
- Hypertext - Information Retrieval - Multimedia '97: Theorien, Modelle und Implementierungen integrierter elektronischer Informationssysteme. Proceedings HIM '97. Hrsg.: N. Fuhr u.a
-
Suchmaschine für wissenschaftliche Inhalte : Elsevier Science (2001)
0.01
0.00991818 = product of:
0.03967272 = sum of:
0.03967272 = weight(_text_:und in 5916) [ClassicSimilarity], result of:
0.03967272 = score(doc=5916,freq=10.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.328536 = fieldWeight in 5916, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.046875 = fieldNorm(doc=5916)
0.25 = coord(1/4)
- Abstract
- Elsevier Science hat die eigens für wissenschaftliche Inhalte entwickelte Suchmaschine Scirus nach Abschluss des weltweiten Betatestes gestartet (www.scirus.com). Wissenschaftler haben gegenüber den allgemeinen Suchmaschinen Vorbehalte, weil die Nicht-Berücksichtigung wissenschaftlicher Spezifika "unglaublich beeinträchtigen kann" (Prof. Dr. Franz Guenther, Universität München). Scirus hat bislang 60 Millionen wissenschaftsbezogene Seiten im Internet und die Elsevier Science-Quellen Science Direct, BioMedNet und ChemWeb erfasst und kann auch Seiten im Format PDF oder Postscript lesen. Der Anbieter befindet sich derzeit in Abschlussverhandlungen mit anderen Fachverlagen, um deren Datenbanken in die Suche über Scirus einbeziehen zu können. Science ist auch als Websuchfunktion über ScienceDirect erhältlich; www.sciencedirect.com. Technisch realisiert wurde die Suchmaschine durch den Einsatz von FastSearch, die auch von Reed Elsevier, Dell, Ericsson, Lycos und TIBCO Software eingesetzt wird. Elsevier Science sieht sich als der weltweit größte Anbieter von wissenschaftlichen, technischen und medizinischen Informationen. Den Abonnenten von Science Direct wird derzeit der VolltextZugang zu etwa 1.200 Zeitschriften geboten
-
Hamdorf, K.: Jenseits von Google : Erschließung und Recherche von Internet-Angeboten durch Webkataloge (2004)
0.01
0.00991818 = product of:
0.03967272 = sum of:
0.03967272 = weight(_text_:und in 2365) [ClassicSimilarity], result of:
0.03967272 = score(doc=2365,freq=10.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.328536 = fieldWeight in 2365, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.046875 = fieldNorm(doc=2365)
0.25 = coord(1/4)
- Abstract
- Auch wenn Suchmaschinen wie Google ihre Ergebnis-Qualität in den letzten Jahren stark gesteigert haben, sind Webkataloge weiterhin eine wertvolle RechercheAlternativefür relevante Internet-Ressourcen. Während die meisten Webkataloge aufgrund des Fachwissens ihrerBearbeiter nur Websites zu einem Thema erschließen, existiert mit dem "Open Directory Project (ODP)" ein weltweiter Webkatalog, in dem bereits über 4,5 Millionen Websites erfasst sind. In der öffentlichen Wahrnehmung spielen Webkataloge kaum eine Rolle, was u.a. an der extremen Heterogenität (sowohl der Katalog-Bearbeiter als auch der Katalog-Qualität) liegt wie auch an der Notwendigkeit, zuerst den geeigneten Katalog selbst recherchieren zu müssen. Mit dem Wissen, wo und wie gute Kataloge zu finden sind, und unter welchen Maßgaben sie entstehen, können viele InternetRecherchen effektiver durchgeführt werden. Neben der Vorstellung exemplarischer Webkataloge werden praxisorientierte Strategien für die Website-Auswahl und -Beschreibung vorgestellt.
- Source
- Information - Wissenschaft und Praxis. 55(2004) H.4, S.221-224
-
Röll, M.: »Am Anfang war das Wort« : Weblogs, Google & Geschäftsbeziehungen (2005)
0.01
0.00991818 = product of:
0.03967272 = sum of:
0.03967272 = weight(_text_:und in 3494) [ClassicSimilarity], result of:
0.03967272 = score(doc=3494,freq=10.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.328536 = fieldWeight in 3494, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.046875 = fieldNorm(doc=3494)
0.25 = coord(1/4)
- Abstract
- Wer früher etwas im Web finden wollte, hatte es schwer: Zwar gab es Massen von Material, aber etwas Konkretes zu finden, war aufwändig. Und hatte man endlich etwas gefunden, war es oft von mangelhafter Qualität. Suchen im Web war in der Frühzeit vor allem Wühlen: Sehr viele Seiten anfassen, anschauen und verwerfen, in der Hoffnung irgendwann einmal etwas Nützliches zu finden. Suchmaschinen ändern das: Sie erfassen große Teile des Webs und versorgen den Suchenden mit unendlich viel Material - worin dann auch genau das Problem lag: Aus dem Wühlen wurde Suchen, weiter Suchen und nochmals Suchen. Filtern wurde erforderlich, um aus der riesigen Materialmenge die relevanten Teile auszusortieren. Dann kam Google und brachte das, wonach sich alle sehnten: relevante Suchergebnisse. Internet-Nutzer konnten nun finden, mussten nicht mehr wühlen, sondern nur noch googeln. Aber sind ihre Probleme damit gelöst?
-
dpa: Neues Projekt nimmt Google ins Visier (2007)
0.01
0.00991818 = product of:
0.03967272 = sum of:
0.03967272 = weight(_text_:und in 5001) [ClassicSimilarity], result of:
0.03967272 = score(doc=5001,freq=10.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.328536 = fieldWeight in 5001, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.046875 = fieldNorm(doc=5001)
0.25 = coord(1/4)
- Content
- "In einem Interview mit der Wochenzeitung "Die Zeit" sagte Wales, er wolle mit "Wikia" eine Suchmaschine anbieten, deren Algorithmus jedem zugänglich sei. Google behandelt die Formel zur Berechnung der Suchergebnisse im Web dagegen als Betriebsgeheimnis. Wales, der die Firma Wikia.com im Jahr 2004 gegründet hatte, sagte, "als Bürger des Internets" müsse man "Transparenz und Offenheit gewährleisten". "Im Moment sind aber alle Suchmaschinen geschlossene Systeme, die jeweils einer Firma gehören. Und diese Firmen entscheiden, wie sie Webseiten bewerten", sagte Wales der "Zeit". Bei Wikia sollen angemeldete Benutzer Suchergebnisse bewerten und damit hoch- oder herabstufen. Das Angebot soll sich durch Werbeerlöse finanzieren, an denen die freiwilligen Mitarbeiter allerdings nicht beteiligt werden sollen. Google hatte Anfang der Woche angekündigt, mit "Knol" selbst eine Art Online-Lexikon aufzubauen und damit mit dem Internet-Lexikon Wikipedia konkurrieren zu wollen. Bislang bewertet Google die Einträge von Wikipedia sehr hoch und zeigt häufig Wikipedia-Aufsätze unter den Top-Ergebnissen einer Websuche an."
-
EU prüft Werbeabkommen (2008)
0.01
0.00991818 = product of:
0.03967272 = sum of:
0.03967272 = weight(_text_:und in 111) [ClassicSimilarity], result of:
0.03967272 = score(doc=111,freq=10.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.328536 = fieldWeight in 111, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.046875 = fieldNorm(doc=111)
0.25 = coord(1/4)
- Content
- "Die EU-Kommission überprüft das geplante Werbeabkommen zwischen den amerikanischen Internet-Konzernen Google und Yahoo. Ein Sprecher der Brüsseler Behörde sagte, dass man bereits im Juli auf eigene Initiative eine Untersuchung begonnen habe. Im Mittelpunkt stehe die Frage, ob das Abkommen Europa betreffe und europäisches Recht breche. Die Firmen hätten freiwillig Informationen zur Verfügung gestellt. Yahoo hatte die Kooperation mit Google im Juni angekündigt, als Microsoft - vergeblich - versuchte, den Internet-Pionier zu kaufen. Google soll ab Ende September auf einigen Yahoo-Websites in den USA und Kanada seine Werbung platzieren. Die Unternehmen wollen den Umsatz teilen. Yahoo könnte daran nach Branchenberichten 800 Millionen Dollar pro Jahr verdienen. Die Kooperation wird von mehreren Seiten skeptisch gesehen. Das amerikanische Justizministerium hat nach Medienberichten einen der bekanntesten US-Kartellexperten mit der Prüfung der Angelegenheit beauftragt. Vor zwei Wochen hatte die amerikanische Association of National Advertisers in einem Brief an das US-Justizministerium ihre Bedenken geäußert. Der Organisation gehören Großunternehmen wie die Einzelhandelskette Wal-Mart und der Autobauer General Motors an. Am Montag wendete sich auch der Welt-Zeitungsverband gegen das Abkommen."
- Series
- In- und Ausland: Multimedia: Aktuell
-
Höchstötter, N.: Suchverhalten im Web : Erhebung, Analyse und Möglichkeiten (2007)
0.01
0.00991818 = product of:
0.03967272 = sum of:
0.03967272 = weight(_text_:und in 281) [ClassicSimilarity], result of:
0.03967272 = score(doc=281,freq=10.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.328536 = fieldWeight in 281, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.046875 = fieldNorm(doc=281)
0.25 = coord(1/4)
- Abstract
- Suchmaschinen stellen eine wichtige Möglichkeit dar, um neue Informationen oder Webseiten im Internet zu finden. Das Online-Marketing wurde dadurch verstärkt auf das Suchmaschinen-Marketing ausgerichtet, bei dem vor allem darauf geachtet wird, dass man in Suchmaschinen gut sichtbar ist. Bei der effizienten Planung von Marketing-Aktionen ist es deshalb wichtig, nicht nur profunde Kenntnisse über die Funktionsweise von Suchmaschinen zu haben, sondern auch das Suchverhalten von Suchmaschinennutzern zu untersuchen und die Ergebnisse geeignet umzusetzen. In diesem Beitrag wird auf die Erforschung des Suchverhaltens im Web und auf die Interaktion von Menschen mit Suchmaschinen ab 1997 eingegangen. In erster Linie werden verschiedene Erhebungsmethoden erklärt und Analysen vorgestellt. Es wird auch diskutiert, wie die Ergebnisse umgesetzt werden können, um die Auffindbarkeit von Webseiten zu verbessern.
- Source
- Information - Wissenschaft und Praxis. 58(2007) H.3, S.135-140
-
Handbuch Internet-Suchmaschinen 3 : Suchmaschinen zwischen Technik und Gesellschaft (2014)
0.01
0.00991818 = product of:
0.03967272 = sum of:
0.03967272 = weight(_text_:und in 341) [ClassicSimilarity], result of:
0.03967272 = score(doc=341,freq=10.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.328536 = fieldWeight in 341, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.046875 = fieldNorm(doc=341)
0.25 = coord(1/4)
- Abstract
- Suchmaschinen sind auf der einen Seite technische Werkzeuge, auf der anderen Seite erlangen sie durch die millionenfache tägliche Nutzung eine gesellschaftliche Bedeu-tung. Im dritten Band des Handbuch Internet-Suchmaschinen bieten führende Exper-ten aus Wissenschaft und Praxis einen Einblick in aktuelle Entwicklungen, neue Techno-logien und gesellschaftliche Auswirkungen der populären Suchdienste. Mit mittlerweile drei Bänden liegt das umfassendste deutschsprachige Werk zum The-ma Suchmaschinen vor, das alle wesentlichen Aspekte des Themas behandelt. Das Themenspektrum der bereits erschienenen Bände wird noch einmal wesentlich erwei-tert; wichtige Themen aus den vorangegangenen Bänden werden vertieft dargestellt. Damit ist das Handbuch auch ein unverzichtbares Nachschlagewerk zu allen Fragen rund um Suchmaschinen. Das Buch richtet sich an alle, die sich als Forscher, Entwickler oder Nutzer von Suchma-schinen mit dem Thema Suche beschäftigen.
- BK
- 54.08 (Informatik in Beziehung zu Mensch und Gesellschaft)
- Classification
- 54.08 (Informatik in Beziehung zu Mensch und Gesellschaft)
-
Weinhold, T.; Bekavec, B.; Schneider, G.; Bauer, L.; Böller, N.: Wissenschaftliche Suchmaschinen : Übersicht, Technologien, Funktionen und Vergleich (2011)
0.01
0.00991818 = product of:
0.03967272 = sum of:
0.03967272 = weight(_text_:und in 347) [ClassicSimilarity], result of:
0.03967272 = score(doc=347,freq=10.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.328536 = fieldWeight in 347, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.046875 = fieldNorm(doc=347)
0.25 = coord(1/4)
- Abstract
- Dieser Beitrag beschäftigt sich primär mit der technischen Funktionsweise von wissenschaftlichen Suchmaschinen. Nach einer kurzen Einführung über das Angebot von wissenschaftlichen Informationen im Internet erfolgt zunächst eine Definition des Begriffs der wissenschaftlichen Suchmaschine. Darauf aufbauend wird dargestellt, welche Stärken und Schwächen wissenschaftliche Suchmaschinen gegenwärtig aufweisen und für welche Einsatzzwecke sie besonders geeignet sind. Anschließend wird die technische Funktionsweise dieser Suchdienste beschrieben, wobei insbesondere auf jene Aspekte eingegangen wird, in denen sich wissenschaftliche von allgemeinen Suchmaschinen unterscheiden. Neben dem internen Aufbau der Suchmaschinen wird in diesem Zusammenhang auch auf die von wissenschaftlichen Suchmaschinen angebotenen Suchoperatoren und Interaktionsmechanismen eingegangen. Wichtig sind in diesem Kontext insbesondere auch der Zugriff und die Referenzierung von Dokumenten. Abschließend wird anhand einer von den Autoren erarbeiteten Kriterienliste ein vergleichender Überblick über am Markt existierende, wissenschaftliche Suchmaschinen gegeben.
-
Lewandowski, D.; Sünkler, S.: ¬Das Relevance Assessment Tool : eine modulare Software zur Unterstützung bei der Durchführung vielfältiger Studien mit Suchmaschinen (2019)
0.01
0.00991818 = product of:
0.03967272 = sum of:
0.03967272 = weight(_text_:und in 5026) [ClassicSimilarity], result of:
0.03967272 = score(doc=5026,freq=10.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.328536 = fieldWeight in 5026, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.046875 = fieldNorm(doc=5026)
0.25 = coord(1/4)
- Abstract
- In diesem Artikel stellen wir eine Software vor, mit der sich Studien zu Such- und Informationssystemen realisieren lassen. Das Relevance Assessment Tool (RAT) soll umfangreiche Untersuchungen mit Daten von kommerziellen Suchmaschinen unterstützen. Die Software ist modular und webbasiert. Es lassen sich damit automatisiert Daten von Suchmaschinen erfassen. Dazu können Studien mit Fragen und Skalen flexibel gestaltet und die Informationsobjekte anhand der Fragen durch Juroren bewertet werden. Durch die Modularität lassen sich die einzelnen Komponenten für eine Vielzahl von Studien nutzen, die sich auf Web-Inhalte beziehen. So kann die Software auch für qualitative Inhaltsanalysen eingesetzt werden oder durch das automatisierte Scraping eine große Datenbasis an Web-Dokumenten liefern, die sich quantitativ in empirischen Studien analysieren lassen.
- Source
- Information - Wissenschaft und Praxis. 70(2019) H.1, S.46-56
-
Patzwaldt, K.: Google Inside (2005)
0.01
0.009807359 = product of:
0.039229438 = sum of:
0.039229438 = weight(_text_:und in 3509) [ClassicSimilarity], result of:
0.039229438 = score(doc=3509,freq=22.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.3248651 = fieldWeight in 3509, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.03125 = fieldNorm(doc=3509)
0.25 = coord(1/4)
- Abstract
- »Googeln« ist längst als Verb für die Internet-Suche in den Sprachgebrauch eingegangen, aber auch das Unternehmen selbst findet sich seit der 23. Ausgabe des Dudens im offiziellen Sprachschatz der Deutschen. Der Namen der Suchmaschine stammt vom Wort Googol, einer Eins mit hundert Nullen. Googol wurde von Milton Sirotta, einem Neffen des USMathematikers Edward Kasner, geprägt. Der Name verdeutlicht symbolisch das Ziel, die enorme Menge an Informationen im Web und auf der ganzen Welt zu organisieren. Die Gründer von Google konnten lange Zeit von einem Sympathie-Bonus zehren, der ihnen als Jungunternehmer und Garagenfirma entgegengebracht wurde - aber auch ein technischer Vorsprung gegenüber den damaligen und heutigen Konkurrenten sorgten für den Aufstieg des Unternehmens in der Gunst der Nutzer. Die Bekanntheit der Suchmaschine wurde fast ausschließlich über Mund-zu-Mund-Propaganda erreicht. Wichtig waren dabei die neuartige PageRank-Technologie, mit der die Websites komplex bewertet werden sowie das schlichte Design der Suchmaschine. Google profitiert zudem bis heute vom Ruf eines High-Tech-Unternehmes. Google ist seit Herbst 2004 ein börsennotiertes Unternehmen (mit mehr als 3.000 Mitarbeitern und über 100.000 Servern) und kann wohl auch im jahr 2005 die Spitzenposition im Suchmaschinenmarkt behaup ten: Während im Dezember 2004 im US-amerikanischen Markt der Anteil bei rund 48 Prozent der vermittelten Suchanfragen lag (einschließlich AOL, Netscape und Excite), beträgt dieser Anteil in Deutschland über 80 Prozent (einschließlich AOL und T-Online). Google hat den Erfolg jedoch nicht gepachtet: Die Hauptkonkurrenten Yahoo! und MSN sind Google im US-amerikanischen Markt dicht auf den Fersen. Und möglicherweise zieht eines Tages ein anderes Unternehmen mit einer völlig revolutionären Suchtechnologie an Google vorbei. Deshalb wird viel für die Entwicklung der Technologie und die Kundenbindung getan. Dazu gehören Entwicklungen wie die Toolbar, Deskbar, Desktop-Suche und der E-Mail-Dienst Gmail.
-
Vise, D.A.; Malseed, M.: ¬Die Google-Story (2006)
0.01
0.009807359 = product of:
0.039229438 = sum of:
0.039229438 = weight(_text_:und in 4953) [ClassicSimilarity], result of:
0.039229438 = score(doc=4953,freq=22.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.3248651 = fieldWeight in 4953, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.03125 = fieldNorm(doc=4953)
0.25 = coord(1/4)
- Abstract
- Wenn Larry Page und Sergey Brin irgendwo auf der Welt auf eine Bühne klettern, ist Ausnahmezustand. Längst sind die Erfinder von Google, die erfolgreichste Suchmaschine im Internet, Popstars geworden, scheinbar unzerstörbare späte Kinder der New Economy, deren Geist sie mit dem grandiosen Siegeszug ihres Produkts retteten über den Niedergang der zahllosen Internet- und Start-up-Träume, die zu Beginn des Jahrtausends zerplatzten. Eigentlich wollten die beiden netten Jungs nur eine etwas funktionstüchtigere Suchmaschine für ihre Universität basteln. Doch was 1997 in Stanford Studenten, Lehrern und Verwaltungsangestellten unter Google zur Verfügung stand (Google, eigentlich Googol, ist der mathematische Begriff für eine Riesenzahl, Brin und Page hatten ihn versehentlich falsch geschrieben), wuchs nach der Firmenausgründung in kürzester Zeit in den virtuellen Himmel. Mitte 2000 bereits erledigte Google 15 Millionen Suchanfragen pro Tag, nur 10.000 waren es noch Mitte 1998 gewesen. Anfang 2001 kletterte die Zahl auf 100 Millionen Suchanfragen pro Tag, 10.000 pro Sekunde. Nach dem Börsengang im August 2004 wurde Google milliardenschwer. Im Sommer 2005 besaß jeder der Firmengründer ein Reinvermögen von mehr als zehn Milliarden Dollar. Heute ist "googeln" als Verb im Duden aufgenommen, ebenso wie sich "to google" im angelsächsischen Sprachraum etabliert hat. In der Google-Story zeichnen der Pulitzer-Preisträger David A. Vise und Mark Malseed den ebenso spannenden wie wechselhaften Aufstieg der Google-Erfinder nach. Eine wahre Heldenstory -- und an manchen Stellen zu dick aufgetragen, insbesondere dann, wenn der Suchmaschine "menschliche Eigenschaften" zugesprochen werden. Aber es ist durchaus spannend zu verfolgen, wie zwei amerikanische Jungs innerhalb von nur fünf Jahren mit einem kalifornischen Studentenprojekt die globale Informationskultur umzustülpen vermochten. Zumal Vise und Malseed die Schwierigkeiten des Unternehmens mit Datenschutz und Copyright, mit Wettbewerbern und Konkurrenten nicht verschweigen. Und wer dazu noch die 23 Google-Suchtipps mitstudiert, wird nach der Lektüre noch leichter durchs Internet navigieren.
- Issue
- Aus dem Amerikan. von Bernd Rullkötter und Friedrich Griese.
-
Leyh, M.: ¬Das Google File System (2005)
0.01
0.009807359 = product of:
0.039229438 = sum of:
0.039229438 = weight(_text_:und in 863) [ClassicSimilarity], result of:
0.039229438 = score(doc=863,freq=22.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.3248651 = fieldWeight in 863, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.03125 = fieldNorm(doc=863)
0.25 = coord(1/4)
- Abstract
- Die Bedeutung der Suchmaschine Google hat in den letzten Jahren sehr stark zuge-nommen. Durch die immer komplexer werdenden Googleapplikationen sowie die im-mer stärkere Nutzung der Suchmaschine ist die zu verwaltende Datenmenge in den letzten Jahren stark angewachsen. Dies war die Ursache für die Entwicklung neuer Konzepte, um eine konsistente Datenhaltung und -verwaltung sowie eine schnelle Da-tenrettung zu ermöglichen. Im Mittelpunkt dieser Entwicklung steht die Sicherung der Performance des Systems, das Milliarden von Dokumenten verwaltet und mehrere Tausende Treffer pro Suchanfrage nach Relevanz ordnet. Der Umfang und die Komple-xität des Systems stellen dabei sowohl besondere Herausforderungen an die einzuset-zende Hardware, als auch an die Konzepte der Datenverteilung und -sicherung. Eine neue Entwicklung ist dabei der Verzicht auf teure Spezialhardware. Alle Anwendungen laufen auf gewöhnlicher PC-Hardware und sind somit sehr wirtschaftlich im Vergleich zu teurerer Spezialhardware. Durch den Einsatz gewöhnlicher PC-Hardware sind Aus-fälle von Festplatten oder ganzer Server wesentlich wahrscheinlicher, es wird sogar mit dem Ausfall von Systemen gerechnet. Dass Anwendungen dennoch so zuverlässig und schnell funktionieren, liegt an der Struktur des von Google entwickelten Dateisystems. Das Google File Systems (kurz GFS) bietet eine hohe Fehlertoleranz, Fehler werden automatisch entdeckt und Wiederherstellungen automatisiert ausgeführt, so dass die Nachteile der Hardwarekonfiguration abgefangen werden können. Dieser Fehlertoleranz kommt bei multiplen Clustern mit Größen von bis zu 300 TB sowie mehreren hunderten Clientzugriffen sehr große Bedeutung zu. Eine weitere strukturelle Besonderheit des Google File Systems stellt die Verwaltung von Schreibzugriffen dar. Bestehende Dateien werden nicht durch schwer zu kontrollie-rende Schreiboperationen, sondern vielmehr durch leichter zu verwaltende "Append" Operationen erweitert. Es ist somit möglich, dass viele Nutzer gleichzeitig auf größere Dateien schreibend zugreifen, ohne dass eine ständige Synchronisation zwischen diesen Nutzern stattfinden muss. Die dadurch realisierten Vorteile bezüglich Performance, Verlässlichkeit und Verfüg-barkeit sowie die daraus resultierenden Anforderungen an das System sollen im Mittel-punkt dieser Arbeit stehen. Es soll ein Einblick in die Funktionsweisen und Komplexitä-ten des Google File Systems gegeben und weiterhin die strukturelle Umsetzung der Anforderungen aufgezeigt werden.
- Content
- Ausarbeitung im Rahmen des Seminars Suchmaschinen und Suchalgorithmen, Institut für Wirtschaftsinformatik Praktische Informatik in der Wirtschaft, Westfälische Wilhelms-Universität Münster. - Vgl.: http://www-wi.uni-muenster.de/pi/lehre/ss05/seminarSuchen/Ausarbeitungen/MichaelLeyh.pdf
-
Long, J.: Google hacking (2008)
0.01
0.009807359 = product of:
0.039229438 = sum of:
0.039229438 = weight(_text_:und in 2925) [ClassicSimilarity], result of:
0.039229438 = score(doc=2925,freq=22.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.3248651 = fieldWeight in 2925, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.03125 = fieldNorm(doc=2925)
0.25 = coord(1/4)
- Abstract
- Johnny Long zeigt mit vielen Beispielabfragen, dass Google zigtausende brisante Dokumente indexiert hat. Der Grund hierfür liegt oft in der Unwissenheit der Anwender, in Fehlkonfigurationen oder schlicht in der Faulheit des Administrators (...) Administratoren lernen in dem Buch viel übder die Kreativität von Angreifern und können anhand der unzähligen Beispiele abchecken, ob ihre Server nicht vielleicht doch zu viele Informationen preisgeben. Aber auch Otto Normalanwender kann von dem Buch profitieren, denn Long beschreibt sehr detailliert die Funktionsweise der Google-Operatoren, welche Operatoren sich wie kombinieren lassen und von welchen man zur Sicherheit am besten die Finger lässt.
- Footnote
- Rez. in: Mitt VÖB 62(2009) H.1 (M. Buzinkay): "Normalerweise schreibe ich in einer Buchrezension zunächst über den Inhalt, die Relevanz und erst am Schluss eine persönliche Empfehlung. Nun mache ich es mal umgekehrt: Jeder Informationsspezialist sollte sich dieses Buch besorgen und daraus seine Schlüsse ziehen! Nach dieser ordentlichen Portion "Wachrütteln" komme ich zum vorliegenden Werk. Die mehr als 500 Seiten sind dicht gepackte Information und Wissen pur zu Google und was mar alles aus dieser Suchmaschine herausholen kann. Das sind teilweise Dinge, die man nicht glauben würde: Zutritt zu Firmenwebcams, Passwortdateien, Contentmanagementsystemen und Personendaten. Das Buch ist also keine Einführung in das 1 x 1 von Google, und trotzdem lassen sich mit den Grundfunktionen dieser Suchmaschine die verrücktesten Dinge anstellen und herausfinden. Wenn Sie das nächste Mal jemanden fragen sollten, ob er Google denn kenne und damit umgehen könne, dann können Sie das sicherlich gefallene "Ja" getrost in den digitalen Eimer schmeißen. Das, was Sie in diesem Buch lesen, haben sie zu 90% noch nicht gekannt. Und Sie sind Informationsexperte/in. Einige Auszüge aus dem Inhaltsverzeichnis geben Ihnen eine Ahnung, um was es in diesem Buch geht: Newsgroups durchsuchen, Verzeichnislisten aufspüren, Datenbanken erforschen, Daten von der Quelle abholen, fremde Angriffscodes entdecken, Sicherheitsabfragen formulieren, ... Das Schöne: man bekommt allerhand Beispiele geliefert, die man auch selbst (legal) ausprobieren kann. In Summe: sehr empfehlenswert!"
-
Beuth, P.: Wolframen statt googeln (2009)
0.01
0.009807359 = product of:
0.039229438 = sum of:
0.039229438 = weight(_text_:und in 31) [ClassicSimilarity], result of:
0.039229438 = score(doc=31,freq=22.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.3248651 = fieldWeight in 31, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.03125 = fieldNorm(doc=31)
0.25 = coord(1/4)
- Content
- "Wer Google herausfordert, muss wahnsinnig sein. Oder ein Genie. Stephen Wolfram wird meistens in die zweite Kategorie eingeordnet. Der 49-jährige Physiker und Mathematiker hat bereits zweimal für Furore gesorgt. 1988 stellte er "Mathematica" vor, eine Software, die von Wissenschaftlern und Finanzanalysten für komplizierte Berechnungen aller Art genutzt wird. 2002 veröffentlichte er sein vieldiskutiertes Buch "A New Kind of Science". Wolfram beschreibt darin, wie man mit Hilfe einfacher Computerprogramme auch komplexe Vorgänge in der Natur erklären kann. Nun kündigt der Engländer, der mit 15 seine erste wissenschaftliche Arbeit veröffentlicht und mit 20 seinen Doktor in theoretischer Physik gemacht hat, den nächsten Paukenschlag an. Seine Software "Wolfram Alpha" soll ab Mai 2009 den Suchmaschinenmarkt revolutionieren. Es soll eine Wissensmaschine sein, die Antworten berechnet, anstatt eine Liste von Links auszugeben. Bislang "können wir nur Fragen beantworten, die schon einmal gestellt worden sind", schreibt Wolfram in seinem Blog, "wir können Dinge nachschlagen, aber nichts Neues herausfinden." Für den Sohn deutscher Eltern muss wohl immer alles neu sein. Wie schon "Mathematica" und die "Neue Art der Wissenschaft, so sei auch "Wolfram Alpha" ein "Projekt, das niemals fertig sein wird", sagt er.
Seine Wissensmaschine "füttert" der Nutzer unter wolframalpha.com mit Fragen statt mit einzelnen Suchbegriffen. Die werden in Rechenaufgaben umformuliert und von Algorithmen mit Hilfe einer gigantischen Datenbank gelöst. Diese Datenbank wiederum soll Fakten und Zusammenhänge aus Politik und Wissenschaft, Kultur, Technik und anderen Gebieten enthalten. Alle diese Daten sind angeblich von einem etwa 100 Personen starken Team geprüft und für zuverlässig befunden worden. Auf die Qualität der Daten muss sich der Nutzer allerdings blind verlassen, während eine Google-Suche in der Regel den Vergleich mehrerer Quellen ermöglicht. Meinungen und überhaupt alles Nicht-Faktische kann "Wolfram Alpha" nicht abbilden. Nova Spivack, Pionier auf dem Gebiet des semantischen Internets, durfte sich "Wolfram Alpha" bislang als Einziger genauer ansehen und beschreibt es als "überaus mächtigen Taschenrechner, mit dem man nicht nur Rechenaufgaben lösen kann". So kann es zum Beispiel die momentane Position der Internationalen Raumstation ISS berechnen. Die Antworten sind laut Spivack aber dermaßen detailliert, dass man einen Universitätsabschluss im jeweiligen Fachgebiet brauche, um sie zu verstehen. Das Genie hat eine Wissensmaschine für Genies entwickelt - für alle anderen eine Wahnsinnsmaschine." Vgl.: http://www.wolframalpha.com
-
Sander-Beuermann, W.: Förderpreis Suchmaschinen : SuMa Awards 2008 (2007)
0.01
0.009779457 = product of:
0.039117828 = sum of:
0.039117828 = weight(_text_:und in 6025) [ClassicSimilarity], result of:
0.039117828 = score(doc=6025,freq=14.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.32394084 = fieldWeight in 6025, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0390625 = fieldNorm(doc=6025)
0.25 = coord(1/4)
- Content
- "Der SuMa-eV vergibt zusammen mit dem Bundesverband Deutscher Internet-Portale (BDIP) die »SuMa Awards 2008« als neue Förderpreise für Suchmaschinen. Die SuMa Awards sprechen Programmierer, Künstler, Schriftsteller, Journalisten, Juristen, Wirtschaftswissenschaftler, Soziologen, Bibliothekare, Archivare, Mediziner, Eltern und jedem an, die/der die Veränderungen durch und den Einfluss von Suchmaschinen in seinem Umfeld oder für unsere Gesellschaft verarbeiten will. Eingereichte Arbeiten können sich sowohl mit praktischen als auch theoretischen Aufgabenstellungen und Lösungen im Bereich der SuchmaschinenTechnologie beschäftigen. Sie können aber genauso gesellschaftliche, wirtschaftliche, künstlerische, gesundheitliche oder andere Auswirkungen von Suchmaschinen-Anwendungen darstellen. Eine Jury wird aus den eingereichten Arbeiten die drei Besten auswählen. Diese werden: - zum SuMa-Kongress 2008 vorgestellt, - jeweils mit einem Preisgeld zwischen 2.000 und 3.000 Euro prämiert, - vom SuMa-eV im WWW präsentiert und technisch unterstützt. Die eingereichten Arbeiten müssen neu sein. Die Jury wählt die Preise in einem zweistufigen Verfahren aus: - Einreichen einer Kurzbeschreibung an den SuMa-eV sobald als möglich, spätestens aber bis zum 31.5.2008 (ca.1-2 Seiten DIN A4). - Aufgrund dieser Kurzbeschreibung entscheidet die Jury, ob und in welcher Form die Arbeit angenommen wird. Der endgültige Abgabetermin der Arbeit ist der 30.6.2008. - Die drei besten Arbeiten werden im Rahmen des nächsten SuMa-eV Kongresses im September 2008 präsentiert."
- Source
- Zeitschrift für Bibliothekswesen und Bibliographie. 54(2007) H.6, S.354
-
Calishain, T.; Dornfest, R.; Adam, D.J.: Google Pocket Guide (2003)
0.01
0.009779457 = product of:
0.039117828 = sum of:
0.039117828 = weight(_text_:und in 6) [ClassicSimilarity], result of:
0.039117828 = score(doc=6,freq=14.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.32394084 = fieldWeight in 6, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0390625 = fieldNorm(doc=6)
0.25 = coord(1/4)
- Footnote
- Rez. in: CD Info. 2003, H.10, S.12: "Der Aufwand bei der Internet-Recherche hat sich mit guten Suchmaschinen wie Google verringert. Trotzdem verbringt der Computeranwender eine Menge Zeit mit dem Öffnen und Schließen von Webseiten, die er nie benötigt hätte. Wer die Arbeitsweise und die Möglichkeiten von Google kennt, kann die Suche besser eingrenzen und gelangt oft direkter zur gewünschten Homepage. Der Google Pocket Guide erläutert die Funktionsweise des am meisten verwendeten Suchtools, gibt Tipps zur optimalen Nutzung und liefert gleich einige konkrete Beispiele für deren Verwendung. Neben den Optionen der Erweiterten Suche widmet sich das kleine Taschenbuch auch der Syntax der Website, sodass die Befehle direkt in die Suchmaske eingegeben werden können. Auch Zusatz-Features wie die Bildersuche, der Webkatalog, die Newsgroup-Datenbank sowie der seit Kurzem auch in deutscher Sprache verfügbare News-Bereich werden behandelt. Der Google Pocket Guide erläutert kurz und bündig die wichtigsten Techniken und hilft Zeit und Aufwand zu sparen. Der brandneue Titel ist derzeit leider nur in Englisch verfügbar."