Search (500 results, page 8 of 25)

  • × theme_ss:"Suchmaschinen"
  1. Stock, W.G.: Verkaufte Suchwörter, verkaufte Links : Retrieval nach Homepages optimiert? (1999) 0.01
    0.009695064 = product of:
      0.038780257 = sum of:
        0.038780257 = weight(_text_:und in 4142) [ClassicSimilarity], result of:
          0.038780257 = score(doc=4142,freq=8.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.34282678 = fieldWeight in 4142, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4142)
      0.25 = coord(1/4)
    
    Abstract
    Selten wurde ein Dienst so stark diskutiert wie 'RealNames', da sowohl seine Suchwörter als auch die darauf aufsetzenden Links auf Homepages verkauft werden. Machen wir uns doch nichts vor: Das WWW ist ein kommerzielles Unternehmen, die Dienstleistungen müssen finanziert werden. Und warum soll nicht ein Privatunternehmen mit Inhaltserschließung Gewinne erzielen? RealNames mit seinem 'Internet Keyword System' ist eine interessante Idee, das Retrieval nach Homepages zielgenau durchzuführen. Was bringt RealNames den Nutzern? Wann sollte jemand, der Sites im WWW unterhält, Suchwörter und Links bei RealNames abonnieren (und was kostet das)? Im Oktober 1999 haben wir RealNames genauer angeschaut. Analysiert wurde das gezielte Retrieval nach Homepages bei AltaVista, Fireball und bei RealNames.com
  2. Pemberton, J.: Organizing the world's information (2000) 0.01
    0.009695064 = product of:
      0.038780257 = sum of:
        0.038780257 = weight(_text_:und in 4798) [ClassicSimilarity], result of:
          0.038780257 = score(doc=4798,freq=2.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.34282678 = fieldWeight in 4798, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=4798)
      0.25 = coord(1/4)
    
    Abstract
    Bericht über Google und Interview mit Larry Page
  3. Patalong, F.: Life after Google : III. Suchen und finden kann man auch ganz anders (2002) 0.01
    0.009695064 = product of:
      0.038780257 = sum of:
        0.038780257 = weight(_text_:und in 1164) [ClassicSimilarity], result of:
          0.038780257 = score(doc=1164,freq=2.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.34282678 = fieldWeight in 1164, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=1164)
      0.25 = coord(1/4)
    
  4. ¬Der große, exklusive TOMORROW-Text : Die beste Suchmaschine der Welt ... und der beste Web-Katalog ... und der beste Metasucher (2000) 0.01
    0.009695064 = product of:
      0.038780257 = sum of:
        0.038780257 = weight(_text_:und in 1522) [ClassicSimilarity], result of:
          0.038780257 = score(doc=1522,freq=8.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.34282678 = fieldWeight in 1522, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1522)
      0.25 = coord(1/4)
    
    Content
    Darunter Einzel-Beiträge zu: Acoon, Yahoo, MetaGer; Interviews mit den Suchmaschinen-Bossen zu: Wer ist der Lieblingskonkurrent?; So arbeitet eine Suchmaschine; KARZAUNINKAT, S.: So einfach finden sie, was Sie gerade wollen; 20 Fragen: Welcher Suchmaschinen-Typ sind Sie?; KARZAUNINKAT, S.: Kontrolle ist der beste Schutz; BETZ, S.: Darum suchen Sie kostenlos; GLASER, S.: Zwischen Quatsch und Quantenphysik; Suchmaschinen für Spezialfragen
    Footnote
    Die Tester waren: Fa. Keynote Systems und Stefan Karzauninkat
  5. Groß, M.: Warum Ordnung keinen Sinn mehr macht (2003) 0.01
    0.009695064 = product of:
      0.038780257 = sum of:
        0.038780257 = weight(_text_:und in 2437) [ClassicSimilarity], result of:
          0.038780257 = score(doc=2437,freq=32.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.34282678 = fieldWeight in 2437, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2437)
      0.25 = coord(1/4)
    
    Content
    "Ich gebe es zu: Ich bin ein manischer Jäger und Sammler von Informationen. Bis heute habe ich keine einzige Fotokopie eines Fachartikels weggeworfen. Aber meine Sammelwut geht viel weiter: Meine Archive enthalten auch Artikel über die ehemalige Konzertpianistin, die 20 Jahre in einem Autowrack in einem Londoner Villenviertel lebte, bis es die Nachbarn verschrotten ließen. Ferner horte ich Berichte über naturkundliche Kuriositäten sowie Theater- und Konzertprogramme. Hinzu kommen Kritiken von Filmen, die ich gesehen habe. Und alle Spektrum-Hefte seit 1985 in Jahrgangsboxen. Bis vor kurzem waren diese Informationsschätze in einem voluminösen, sinnreich geordneten Archiv aus Dutzenden von Pappkartons, Stehsammlern, Hängeordnern und Ringbüchern relativ leicht auffindbar. Nach mehreren Büroumzügen ist dieses System jetzt allerdings ein wenig durchgeschüttelt. Und ich fürchte, es wird seine glorreichen Tage nie wieder sehen. Denn vor einigen Monaten fiel es mir wie Schuppen von den Augen: Dank der Suchmaschine Google hat das Ordnen von Informationen grundsätzlich jeden Sinn verloren. »Wer Ordnung hält, ist nur zu faul zum Suchen«, sagte meine selige Großtante immer. Dabei konnte sie nicht ahnen, dass der zum Suchen nötige Aufwand eines Tages gegen null gehen würde. Noch vor gut fünf Jahren waren InternetRecherchen tatsächlich mühselig. Man hatte die Wahl zwischen Suchmaschinen, die einen mit nutzlosen Ergebnissen überschütteten, und endlosen Verzeichnissen, die nach Kategorien geordnet waren und wie die gelben Seiten funktionierten: Region / Dienstleistungen /Klempner -Heureka! In jener finsteren Zeit lohnte es sich noch, öffentlich zugängliche Informationen für den Hausgebrauch zusammenzustellen und nach einem durchdachten System zu archivieren. Ich hatte auf meiner Website ein Verzeichnis von Hunderten von Weblinks, wohlsortiert nach Kategorien und Unterkategorien. Heute benutze ich es kaum noch, weil es viel zu viel Arbeit wäre, es auf dem neuesten Stand zu halten, und weil ich die Links über Google mindestens genauso schnell finde. Vom »Guardian« zu einem der sieben Weltwunder des Internets erklärt, erkundet die aus einem Forschungsprojekt an der Stanford-Universität hervorgegangene Suchmaschine nicht nur, welche Informationen die einzelnen Websites anbieten, sondern auch, wie relevant sie für andere sind. Damit gelingt, was wie Hexerei anmutet: Die gewünschte Verbindung taucht praktisch immer ganz vorne in der Liste auf. Die Folgen sind revolutionär: Wir haben den Punkt erreicht, wo das geordnete Archivieren öffentlich zugänglicher Information unnütz geworden ist. Mich trifft das schwer. Meine gesammelten Zeitungsausschnitte sind Makulatur. Die meisten stammen aus dem »Guardian«, und der unterhält eines der besten Zeitungsarchive auf dem Netz. Da finde ich Artikel, an die ich mich dunkel erinnere, leichter als in meinen Pappkartons. Informationen über Bücher und Filme braucht man ebenso wenig aufzuheben -Amazon und die Internet Movie Database erledigen das. Aber was mache ich nun mit meinen ehemals wertvollen, hochgradig geordneten Informationen? Einfach wegwerfen? Das bringe ich nicht über mich. Bedenken Sie nur, um wie viel das die Entropie des Universums unwiederbringlich erhöhen würde! Derzeit erprobe ich ein neues, vereinfachtes Ordnungsschema mit nur drei Kategorien, bei dem ich die Papiere einfach chronologisch staple. Ab und zu, wenn ich auf der Suche nach einem Glossenthema bin, stöbere ich so einen Stapel durch. Und wenn Einsturzgefahr droht, kann ich jeweils den untersten Meter zusammenschnüren und zum Altpapier geben. Oder vielleicht doch auf dem Dachboden lagern? Man kann ja nie wissen ..."
  6. Finden, ohne zu suchen (2004) 0.01
    0.009695064 = product of:
      0.038780257 = sum of:
        0.038780257 = weight(_text_:und in 2979) [ClassicSimilarity], result of:
          0.038780257 = score(doc=2979,freq=8.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.34282678 = fieldWeight in 2979, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2979)
      0.25 = coord(1/4)
    
    Content
    NextLinks schlägt selbst ständig jeweils zehn weitere Webadressen vor, der User muss keinerlei Suchbegriffe eingeben. Möglich wird dies durch die Verwendung von Algorithmen zum Auffinden semantisch ähnlicher Strukturen. Wie bei einer "normalen" Suchmaschine werden zunächst viele Mio. Webseiten ausgewertet. Mittels statistischem Verfahren können daraus Ähnlichkeiten ermittelt und in einer aktuellen Datenbank gespeichert werden. Auf diese Informationsquelle greift NextLinks regelmäßig zurück. Das anonyme Surfverhalten oder persönliche Daten werden dabei nicht gespeichert. Die Software läuft ab Windows 98 und unterstützt alle aktuellen Versionen von Windows-Internet-Explorer, Netscape, Mozilla und Opera. NextLinks ist kostenlos und unter http://wortschatz.unileipziq.de/nextlinks erhältlich.
  7. Lewandowski, D.: Suchmaschinen als Konkurrenten der Bibliothekskataloge : Wie Bibliotheken ihre Angebote durch Suchmaschinentechnologie attraktiver und durch Öffnung für die allgemeinen Suchmaschinen populärer machen können (2006) 0.01
    0.009695064 = product of:
      0.038780257 = sum of:
        0.038780257 = weight(_text_:und in 3449) [ClassicSimilarity], result of:
          0.038780257 = score(doc=3449,freq=8.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.34282678 = fieldWeight in 3449, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3449)
      0.25 = coord(1/4)
    
    Abstract
    Die elektronischen Bibliotheksangebote konkurrieren zunehmend mit den allgemeinen Websuchmaschinen und spezialisierten Wissenschaftssuchmaschinen um die Gunst der Nutzer. Dieser Aufsatz gibt einen kritischen Überblick über die bisherigen Initiativen zum Einsatz von Suchmaschinentechnologie im Bibliothekskontext sowie zur Sichtbarmachung von Bibliotheksinhalten in allgemeinen Suchmaschinen. Darauf aufbauend wird dargestellt, wie Bibliotheksangebote tatsächlich für den Nutzer attraktiver werden können und ihre Sichtbarkeit in Suchmaschinen erhöht werden kann. Grundlegend muss der OPAC zum zentralen Nachweisinstrument für alle in der jeweiligen Bibliothek verfügbaren Informationen gemacht werden. Außerdem müssen die Katalogdaten deutlich angereichert werden, um die Stärken der Suchmaschinentechnologie auch tatsächlich nutzen zu können. Auf der Basis dieser erweiterten Textmenge kann schließlich auch leicht die Auffindbarkeit in allgemeinen Suchmaschinen verbessert werden.
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 53(2006) H.2, S.71-78
  8. Stölzel, A.: Was Google nicht sieht : Das "Invisible Web" (2004) 0.01
    0.009695064 = product of:
      0.038780257 = sum of:
        0.038780257 = weight(_text_:und in 4040) [ClassicSimilarity], result of:
          0.038780257 = score(doc=4040,freq=2.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.34282678 = fieldWeight in 4040, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=4040)
      0.25 = coord(1/4)
    
    Imprint
    Potsdam : Fachhochschule, Institut für Information und Dokumentation
  9. Schneider, N.: ¬Die Notwendigkeit der Suchmaschinenregulierung aus Sicht eines Regulierers (2007) 0.01
    0.009695064 = product of:
      0.038780257 = sum of:
        0.038780257 = weight(_text_:und in 371) [ClassicSimilarity], result of:
          0.038780257 = score(doc=371,freq=8.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.34282678 = fieldWeight in 371, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=371)
      0.25 = coord(1/4)
    
    Abstract
    Wenn sich ein Regulierer einem Medium nähert, tut er gut daran, vorab eine persönliche Erklärung abzugeben. Sie sollte die Versicherung enthalten, dass er nicht in der Absicht komme, wirtschaftlichen Fortschritt zu würgen. Ferner sollte der Hinweis enthalten sein, dass er kein Peritomiker der Freiheit sei und keinerlei Fantasie dämpfende Ziele verfolge. Auch wäre es nicht von Schaden zu bekennen, dass man - am besten: immer schon - ein Gegner von Kasuistik aller Art und überdies ein Anhänger des ein wenig verstümmelten pädagogischen Prinzips vom Wachsen lassen sei, und im Übrigen nach der Devise lebe: soviel Freiheit wie möglich und soviel Notwendigkeit wie notwendig.
  10. Plath, J.: Allianz gegen Google : Streit um die Verwertungsrechte von Büchern (2008) 0.01
    0.009695064 = product of:
      0.038780257 = sum of:
        0.038780257 = weight(_text_:und in 1333) [ClassicSimilarity], result of:
          0.038780257 = score(doc=1333,freq=32.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.34282678 = fieldWeight in 1333, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1333)
      0.25 = coord(1/4)
    
    Content
    "5.5.2009, 5.1.2010, 5.4.2011 - was im Thriller die ablaufende Uhr ist, sind im Konflikt mit Googles Buchsuche die Stichtage. Sie gehören zum Vergleich US-amerikanischer Autoren und Verleger mit der digitalen Bibliothek der Suchmaschinenfirma. Der Vergleich bedeute, warnt Alexander Skipis, Geschäftsführer des Börsenvereins, eine "kalte Enteignung". Daher haben sich die Organisationen von Buchhändlern und Verlegern mit den Verwertungsgesellschaften und Autorenverbänden aus Deutschland, der Schweiz und Österreich zu einer "Allianz" zusammengeschlossen. Sie hat sich jetzt geeinigt, den starken Tönen moderate Winkelzüge folgen zu lassen. Stein des Anstoßes ist das Vorgehen des Suchmaschinen-Konzerns: Mit Hilfe großer Universitätsbibliotheken hat Google bisher ohne Genehmigung von Autoren und Verlagen sieben Millionen Bücher gescannt, die nun im Internet teilweise oder ganz lesbar sind. Erlaubt war das nur bei etwa einer Million Büchern, den Klassikern. Die anderen Millionen Bücher, durchweg aus dem 20. Jahrhundert, unterliegen dem Urheberrecht, auch wenn sie größtenteils nicht mehr verlegt werden.
    Empört zogen US-Autoren und -Verlage vor Gericht und handelten im Herbst einen Vergleich aus, den das Gericht noch genehmigen muss. Er sieht vor, dass Google die Verfahrenskosten trägt, jedem Autor eines ungenehmigt digitalisierten Buches 60 US-Dollar zahlt (insgesamt 45 Millionen US-Dollar) sowie 34,5 Millionen US-Dollar für die Gründung eines digitalen, von Google unabhängigen Buchregisters bereitstellt. Das Register soll die Einnahmen verteilen (37 Prozent an Google, 63 Prozent an die Rechteinhaber), die Google erwirtschaftet aus dem kostenpflichtigen Zugang zu Büchern oder ihrem Download (als Ebook oder Book on Demand), aus der Werbung sowie aus Online-Abonnements für Institutionen und Bibliotheken. Und natürlich dürfen die Scan-Maschinen weiter laufen. Die Konsequenzen des Vergleichs lassen tief durchatmen. Google erhält, warnt Robert Darnton in "The New York Review of Books", praktisch ein Digitalisierungsmonopol für die USA. Mehr noch: Die millionenfache Verletzung des Urheberrechts wird pragmatisch durchgewunken. Die Verlage erfreut nämlich, dass Google ein neues Geschäftsfeld erschlossen hat: all die vergriffenen Bücher, deren Nachdruck sie für nicht lohnend halten. Die Suchmaschinenfirma geht ihrerseits vom Prinzip der Finanzierung durch Werbung ab: Google wird auf einen Schlag weltgrößter Verleger und weltgrößter Buchhändler. Die Buchsuche wandelt sich zum Online-Buch(inhalte)verkauf.
    Weil der Vergleich für jedes in den USA vorhandene Buch gilt, sind von ihm auch Autoren und Verlage hier zu Lande betroffen. Deren Verbände beunruhigt die in Europa unbekannte kollektive Abtretung der Urheberrechte - bei den bisher gescannten Büchern gegen 60 US-Dollar, bei den bis zum 5.4.2011 gescannten Titeln einfach so, sofern kein Widerspruch eingelegt wird. An dieser Stelle kommt die Allianz ins Spiel: Weil es aussichtslos sei, den Vergleich zu verändern, will sie dessen Möglichkeiten ausschöpfen. Die Verwertungsgesellschaften Deutschlands, der Schweiz und Österreichs, die bisher für mehr als 400 000 Autoren und Verlage Abgaben in Kopierläden, auf CDs und Geräte erheben, sollen kollektiv für ihre Mitglieder die 60 US-Dollar beantragen und anschließend Google jede Nutzung untersagen ("Removal"). Danach soll über die Nutzung der vergriffenen Bücher mit Google und Dritten verhandelt werden, über die Verwertung der lieferbaren aber offenbar nicht: Schließlich gibt es mit "libreka!" eine eigene Online-Datenbank der deutschsprachigen Verlage. Also "take the money and run"? Der Verleger Wulf von Lucius hat die Aufgabe der VG Wort schon "Flöhe hüten" genannt. Doch noch ist unklar, ob die Mitgliederversammlungen das Vorgehen überhaupt absegnen. Denn während der deutsche Börsenverein eine harte Linie fährt, dürfte Autoren freuen, dass Google zahlt - anders als "libreka!". Nur hat das Formular unter www.googlebooksettlement.com nicht weniger als sechs Seiten. Es knirscht noch bei der Übertragung des Urheberrechts ins digitale Zeitalter."
  11. Microsoft baut Live Search um (2008) 0.01
    0.009695064 = product of:
      0.038780257 = sum of:
        0.038780257 = weight(_text_:und in 1914) [ClassicSimilarity], result of:
          0.038780257 = score(doc=1914,freq=8.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.34282678 = fieldWeight in 1914, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1914)
      0.25 = coord(1/4)
    
    Content
    "Der Marktanteil der Microsoft-Suchmaschine Live Search liegt laut den Analysten von WebHits bei bescheidenen 1,8 Prozent. Google behauptet dagegen mit 89,6 Prozent seine Vormachtstellung. Jetzt versucht Microsoft, Googles Erfolg zu kopieren und setzt ebenfalls auf das puristische Design des Marktführers - und auf eine Verbesserung der Trefferquote. Laut Toni Pelg, Leiter der Forschungsabteilung bei Microsoft, hat der Konzern die Suchmaschine dafür gründlich überarbeitet: Die Suchfunktion von Live Search soll jetzt bessere Ergebnisse und zudem schnellere Antworten liefern. So zeigt etwa die dortige Suche zu dem Begriff "Porsche" Bilder des rasanten Sportwagens aus Stuttgart-Zuffenhausen und erst danach einen Link zur Homepage des Herstellers -Microsoft nennt das Prinzip "Instant Answers". INFO: www.live.com"
  12. Strebe, R.: Empirische Untersuchtung von emotionalen Reaktionen im Prozess der Informationsrecherche im Web (2009) 0.01
    0.009695064 = product of:
      0.038780257 = sum of:
        0.038780257 = weight(_text_:und in 2769) [ClassicSimilarity], result of:
          0.038780257 = score(doc=2769,freq=8.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.34282678 = fieldWeight in 2769, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2769)
      0.25 = coord(1/4)
    
    Abstract
    In diesem Beitrag wird eine Studie vorgestellt, die eine beobachtende Perspektive auf affektive Phänomene entlang des Websuchprozesses eröffnet. Untersuchungsgegenstände sind Art, Häufigkeit und Intensität von Gefühlsausschlägen, die Auslöser von emotionalen Reaktionen sowie der Zusammenhang zwischen Gefühlsausschlägen und bestimmten Aktionsmerkmalen. Die Websuche zeigt sich als gefühlsintensive Tätigkeit. Besonders häufige Auslöser von Gefühlsausschlägen stehen in enger Beziehung zu erwarteter Relevanz und Relevanzbewertung. Bei Auslösern von besonders intensiven emotionalen Reaktionen ist der optische Eindruck einer Webseite ein wichtiger Faktor. Weiterer Untersuchungsbedarf zeigt sich vor allem in der Frage der Rolle affektiver Vorgänge innerhalb des Relevanzkonzeptes.
    Source
    Information - Wissenschaft und Praxis. 60(2009) H.2, S.75-81
  13. Knitel, M.; Labner, J.; Oberhauser, O.: Sachliche Erschließung und die neue Suchmaschine des Österreichischen Bibliothekenverbundes (2010) 0.01
    0.009695064 = product of:
      0.038780257 = sum of:
        0.038780257 = weight(_text_:und in 4207) [ClassicSimilarity], result of:
          0.038780257 = score(doc=4207,freq=8.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.34282678 = fieldWeight in 4207, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4207)
      0.25 = coord(1/4)
    
    Abstract
    Mit der Einführung der neuen Suchmaschine Primo im Österreichischen Bibliothekenverbund wurde eine Neubewertung und Neuausrichtung der Anzeige, Indexierung und der erstmals möglichen Facettierung sacherschließender Elemente notwendig. Nach einem kurzen Überblick über die im Verbund zum Einsatz kommende Software sowie über Umfang und Art der inhaltlichen Erschließung im zentralen Katalog wird detailliert auf die angestrebte Umsetzung derselben in der neuen Suchmaschinenumgebung eingegangen, wobei der verbalen Erschließung durch RSWK-Ketten als wichtigste Form der intellektuellen Erschließung erhöhte Aufmerksamkeit zukommt. In einem zweiten Teil wird die konkrete technische Umsetzung in Primo beleuchtet, um abschließend einen Ausblick auf zukünftige Entwicklungen sowie projektierte Verbesserungen zu geben.
  14. Weigert, M.: Erkunden statt suchen : HORIZOBU (2011) 0.01
    0.009695064 = product of:
      0.038780257 = sum of:
        0.038780257 = weight(_text_:und in 4442) [ClassicSimilarity], result of:
          0.038780257 = score(doc=4442,freq=32.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.34282678 = fieldWeight in 4442, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4442)
      0.25 = coord(1/4)
    
    Abstract
    Das Schweizer Startup horizobu hat eine Suchmaschine lanciert, die sich vor allem für tiefergehende Recherchen eignen und bei der Erkundung von Themengebieten helfen soll.
    Content
    "In Deutschland werden über 90 Prozent aller Suchen über Google abgewickelt. In der Schweiz sieht es ähnlich aus. Und während in den USA mit der Microsoft-Suchmaschine Bing immerhin ein ernstzunehmender Konkurrent existiert, liegt Googles Marktanteil auch dort bei immerhin knapp 65 Prozent. Und trotz oder gerade wegen dieser eindeutigen Dominanz eines Unternehmens gibt es immer mal wieder Versuche, alternative Suchwerkzeuge zu etablieren. Manchmal - wie im Falle von Cuil - geht dies ordentlich daneben. Und ab und an lässt sich so zumindest ein kleiner Achtungserfolg erzielen, wie Blekko es bewiesen hat. horizobu heißt ein neuer Protagonist im Bereich der alternativen Suchmaschinen, der heute im Beta-Stadium sein Onlinedebüt feiert. Das Startup aus Zürich versucht bereits in der Eigendefinition, Vergleiche mit Google zu vermeiden, in dem es sich explizit nicht als Suchmaschine sondern als "Exploration Engine" bezeichnet. Im Vordergrund steht bei horizobu demnach nicht das Finden von Gesuchtem, sondern das Erkunden von Websites und Kontext zu einem bestimmten Thema.
    Wer bei horizobu, das in einer englischsprachigen und einer deutschsprachigen Version (für die Schweiz) angeboten wird, nach einem bestimmten Begriff sucht, dem präsentiert der Dienst lediglich sechs möglichst relevante Ergebnisse in voneinander separierten Boxen. Einzelne dieser Boxen lassen sich löschen, wodurch ein weiteres Suchergebnis ans Tageslicht befördert wird. Mit einem Klick auf "More" wechselt man alle sechs Resultate aus. Gefällige Resultate lassen sich per Drag-And-Drop in der rechten Spalte ablegen und für später aufbewahren. Um seinem Entdeckeranspruch gerecht zu werden, listet horizobu oberhalb der Suchergebnisse zehn mit dem jeweiligen Suchwort verwandte Begriffe, die beliebig kombinierbar zur Verfeinerung und Erweiterung der bisherigen Suche verwendet werden können. Inspiriert durch die Vorschläge haben User auch die Möglichkeit, weitere Begriffe zur Eingrenzung hinzufügen. "Die Intelligenz aus Social Software führt teilweise zu überraschenden Fundstücken, die bislang mit herkömmlichen Suchmaschinen kaum erschlossen wurden", so Werner Hartmann, Titularprofessor der ETH Zürich und einer der zwei Gründer von horizobu. Nachdem Nutzer mit den Resultaten ihrer Recherche zufrieden sind und diese womöglich mit der Bookmarking-Funktion gespeichert haben, kann die so entstandene Linksammlung direkt über einen eindeutigen Link weiterversendet werden (das sieht z.B. so aus). Diese Funktion ist zwar nicht revolutionär, aber simpel, intuitiv und erfordert wenige Klicks.
    horizobu richtet sich laut Mitgründer Werner Hartmann vor allem an Personen, die zu einem Thema eine vertiefende Recherche durchführen wollen, also Journalisten, Wissenschaftler, Geschäftsleute oder Studenten. Für das Kinoprogramm von heute Abend oder die nächste Zugverbindung gebe es hingegen geeignetere Dienste. Hartmann und sein Kompagnon Sam Zürcher haben die Entwicklung von horizobu aus eigenen Mittel finanziert und bezeichnen es in seiner jetzigen Form als "Garagenprojekt". In der nächsten Phase wollen sie versuchen, interessierte Geldgeber zu finden, die so die Professionalisierung der Idee - also erweiterte Suchfunktionen, bessere Performance, länderspezifische Varianten usw. - unterstützen. Die Monetarisierung soll sowohl durch eine Werbevermarktung als auch eine Lizensierung der zugrundeliegenden Technologie realisiert werden. Allerdings wollen die zwei Jungunternehmer erst sehen, ob sich ihr Projekt am Markt etablieren kann. Diese Haltung ist nachvollziehbar. Denn angesichts der festen Verankerung von Google im Bewusstsein nahezu aller Internetnutzer erfordert es von jedem Anwender den bewussten Entschluss, zur Abwechslung über horizobu, Blekko, DuckDuckGo oder einen anderen Anbieter zu suchen. Und wenn dies dann nicht auf Anhieb perfekt funktioniert, ist die Wahrscheinlichkeit gering, dass sich User erneut dort blicken lassen. Die Marktchancen für horizobu stehen also eher ungünstig. Andererseits ziehe ich den Hut vor Gründern, die sich an das schwierige, weil stark von einem Anbieter dominierte Thema Suche heranwagen. Und als Nutzer kann man nur dann die Qualität einer Suchmaschine objektiv beurteilen, wenn das Vergleichen möglich ist. Allein das ist eine Daseinsberechtigung für alternative Ansätze."
  15. Behnert, C.; Plassmeier, K.; Borst, T.; Lewandowski, D.: Evaluierung von Rankingverfahren für bibliothekarische Informationssysteme (2019) 0.01
    0.009695064 = product of:
      0.038780257 = sum of:
        0.038780257 = weight(_text_:und in 5023) [ClassicSimilarity], result of:
          0.038780257 = score(doc=5023,freq=8.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.34282678 = fieldWeight in 5023, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5023)
      0.25 = coord(1/4)
    
    Abstract
    Dieser Beitrag beschreibt eine Studie zur Entwicklung und Evaluierung von Rankingverfahren für bibliothekarische Informationssysteme. Dazu wurden mögliche Faktoren für das Relevanzranking ausgehend von den Verfahren in Websuchmaschinen identifiziert, auf den Bibliothekskontext übertragen und systematisch evaluiert. Mithilfe eines Testsystems, das auf dem ZBW-Informationsportal EconBiz und einer web-basierten Software zur Evaluierung von Suchsystemen aufsetzt, wurden verschiedene Relevanzfaktoren (z. B. Popularität in Verbindung mit Aktualität) getestet. Obwohl die getesteten Rankingverfahren auf einer theoretischen Ebene divers sind, konnten keine einheitlichen Verbesserungen gegenüber den Baseline-Rankings gemessen werden. Die Ergebnisse deuten darauf hin, dass eine Adaptierung des Rankings auf individuelle Nutzer bzw. Nutzungskontexte notwendig sein könnte, um eine höhere Performance zu erzielen.
    Source
    Information - Wissenschaft und Praxis. 70(2019) H.1, S.14-23
  16. Griesbaum, J.: Online Marketing : Ein Lehr- und Forschungsgebiet der Informationswissenschaft? (2019) 0.01
    0.009695064 = product of:
      0.038780257 = sum of:
        0.038780257 = weight(_text_:und in 5418) [ClassicSimilarity], result of:
          0.038780257 = score(doc=5418,freq=8.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.34282678 = fieldWeight in 5418, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5418)
      0.25 = coord(1/4)
    
    Abstract
    Die Darstellung der zentralen Kanäle des Online-Marketing wird fortgesetzt. Bei der Suchwortvermarktung werden Anzeigen auf Suchergebnisseiten geschaltet. Wichtige Größen sind hier die Inhalte, die der Werbetreibende über die gebuchten Suchanfragen definiert, die Gebotshöhe für Klicks auf die Werbeanzeige, die Klickrate und die Qualität der Zielseiten.
    Content
    Lesen Sie in der nächsten Folge: Online Marketing und Lehre - Online Marketing und Forschung.
  17. Sünkler, S.; Kerkmann, F.; Schultheiß, S.: Ok Google . the end of search as we know it : sprachgesteuerte Websuche im Test (2018) 0.01
    0.009695064 = product of:
      0.038780257 = sum of:
        0.038780257 = weight(_text_:und in 5626) [ClassicSimilarity], result of:
          0.038780257 = score(doc=5626,freq=8.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.34282678 = fieldWeight in 5626, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5626)
      0.25 = coord(1/4)
    
    Abstract
    Sprachsteuerungssysteme, die den Nutzer auf Zuruf unterstützen, werden im Zuge der Verbreitung von Smartphones und Lautsprechersystemen wie Amazon Echo oder Google Home zunehmend populär. Eine der zentralen Anwendungen dabei stellt die Suche in Websuchmaschinen dar. Wie aber funktioniert "googlen", wenn der Nutzer seine Suchanfrage nicht schreibt, sondern spricht? Dieser Frage ist ein Projektteam der HAW Hamburg nachgegangen und hat im Auftrag der Deutschen Telekom untersucht, wie effektiv, effizient und zufriedenstellend Google Now, Apple Siri, Microsoft Cortana sowie das Amazon Fire OS arbeiten. Ermittelt wurden Stärken und Schwächen der Systeme sowie Erfolgskriterien für eine hohe Gebrauchstauglichkeit. Diese Erkenntnisse mündeten in dem Prototyp einer optimalen Voice Web Search.
  18. Christensen, A.: Wissenschaftliche Literatur entdecken : was bibliothekarische Discovery-Systeme von der Konkurrenz lernen und was sie ihr zeigen können (2022) 0.01
    0.009695064 = product of:
      0.038780257 = sum of:
        0.038780257 = weight(_text_:und in 833) [ClassicSimilarity], result of:
          0.038780257 = score(doc=833,freq=8.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.34282678 = fieldWeight in 833, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=833)
      0.25 = coord(1/4)
    
    Abstract
    In den letzten Jahren ist das Angebot an Academic Search Engines für die Recherche nach Fachliteratur zu allen Wissenschaftsgebieten stark angewachsen und ergänzt die beliebten kommerziellen Angebote wie Web of Science oder Scopus. Der Artikel zeigt die wesentlichen Unterschiede zwischen bibliothekarischen Discovery-Systemen und Academic Search Engines wie Base, Dimensions oder Open Alex auf und diskutiert Möglichkeiten, wie beide von einander profitieren können. Diese Entwicklungsperspektiven betreffen Aspekte wie die Kontextualisierung von Wissen, die Datenmodellierung, die automatischen Datenanreicherung sowie den Zuschnitt von Suchräumen.
  19. Patalong, F.: Life after Google : I. Besser suchen, wirklich finden (2002) 0.01
    0.009639256 = product of:
      0.038557023 = sum of:
        0.038557023 = weight(_text_:und in 1165) [ClassicSimilarity], result of:
          0.038557023 = score(doc=1165,freq=62.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.34085333 = fieldWeight in 1165, product of:
              7.8740077 = tf(freq=62.0), with freq of:
                62.0 = termFreq=62.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1165)
      0.25 = coord(1/4)
    
    Content
    "Google ist einfach zu bedienen, effektiv, bringt qualitativ hochwertige Suchergebnisse - und ist doch nicht der Weisheit letzter Schluss. Manchmal braucht man Alternativen, und mitunter sind die sogar weit besser als Google. Patentrezepte sind eine feine Sache, sie haben aber auch ihre Nachteile. Je stärker man sich auf sie stützt, desto eher läuft man Gefahr, alternative Ansätze zu verlernen oder zu vergessen. Dass es derzeit vielen Surfern so geht, könnten die Betreiber der meisten Suchmaschinen und Kataloge anhand ihrer Logstatistiken nachweisen: Google monopolisiert den Markt und nimmt den anderen die Butter vom Brot. Das ist nicht Googles Schuld. Der erst vier Jahre alte Suchdienst hat sich weltweit durchgesetzt, weil er nach wie vor die beste Suchtechnik bietet. Zurzeit gibt es wohl kaum eine einzelne Searchengine, die in ihrer Gesamtperformance, in Datenbankgröße und Güte der Ergebnisse mit Google wirklich mithalten könnte. So etwas spricht sich herum und hat dazu geführt, dass Google inzwischen den größten Batzen aller Suchanfragen im WWW abwickelt. Kleine wie große Konkurrenten drohen daran kaputtzugehen. Das wiederum wäre schade, denn es muss Alternativen geben: Google kann viel, aber er kann nicht alles.
    Google sucht "flach", weil "hochgestochenes" nicht populär ist Das Pageranking-System von Google, mit dem der Suchdienst Ergebnisse in eine "relevante" Reihenfolge bringt, begünstigt populäre Angebote. Fachleute suchen vielleicht gerade die bewusst nicht. Sie sind in aller Regel mit Suchen über Kataloge oder spezialisierte Suchdienste besser bedient. Da keine Suchmaschine es schafft, das WWW, geschweige denn das Internet vollständig abzudecken, gelingt es vielen Suchmaschinen immer wieder, in bestimmten Suchfeldern, Themenbereichen oder auch über regionale Ansätze und Schwerpunkte zu qualitativ hochwertigen Ergebnissen zu kommen, die auch Google ausstechen. Ganz besonders gilt dies für alle Dienste, die gezielt im so genannten "Deep Web" suchen: Gemeint sind damit vor allem Datenbankbestände. An die kommt Google in den seltensten Fällen heran, aber gerade hier sind zumindest im Kontext professioneller Recherchen die Perlen im Web verborgen - egal, ob man Ingenieur, Bibliothekar, Arzt, Möbelrestaurator oder Journalist ist. Patentrezepte gibt es hier nicht, weil alles Suchen im Web abhängig ist von den Interessen des Suchenden. Stets up to date über das Angebot auch an spezialisierten Suchdiensten ist aber die Website Searchenginewatch: Hier sind unter "Specialty Search Engines" entsprechende Links zu finden. Zumindest eines lässt sich pauschal und problemlos für alle Suchenden im Web konstatieren: Es kann nicht schaden, eine Alternative zu Google zu pflegen. Metasucher: Mit Masse zur Klasse Neben kraftvollen Suchmaschinen wie Altavista, Hotbot, Teoma, Wisenut, Inktomi oder AlltheWeb , die alle ihre Eigenheiten, Stärken und Schwächen besitzen (ausprobieren!), glänzen vor allem auch die Metasuchdienste. Das sind Websites, die über ein Suchformular parallel eine ganze Reihe von Quellen abfragen können und die Ergebnisse zusammenfassen. Metasearcher kommen und gehen und leben dabei - aus Perspektive der Surchengine-Anbieter - quasi parasitär auf Kosten der Suchmaschinen. Aus Nutzerperspektive haben sie allerdings einiges zu bieten, und die besten unter ihnen bringen tatsächlich eigene Leistungen ein, die die Qualität der bei anderen Suchdiensten gesammelten Ergebnisse steigert. Denn Metamaschinen "verbreitern" die Suche nicht nur, sie engen sie auch ein: Ein Beispiel wie Ithaki macht das sehr schön deutlich. Der Suchdienst fragt nur Kataloge für Kinderseiten ab - und wer weiß, wie dürftig die in aller Regel für sich genommen sind, wird für den breiteren, aber fest definierten Ansatz dankbar sein. Typisch: So was gibt es für den deutschsprachigen Raum natürlich wieder nicht.
    Viel abfragen, präzise einengen Ein guter, allgemeiner Metadienst ist auch Ixquick , der in seiner deutschen Version zwölf Searchengines parallel abfragt. Mit im Päckchen: Eine Reihe spezifisch deutscher Engines, ernsthafte Google-Konkurrenten wie AlltheWeb oder AskJeeves/Teoma bis hin zu Katalogen. Google dagegen fehlt, was die ganze Sache nicht nur zum echten Alternativprogramm macht, sondern auch zur sinnvollen Ergänzung: Tests deuten darauf hin, dass Google im Diffusen weit besser fischt, Ixquick bei sehr konkreten Aufgaben aber deutlich bessere Ergebnisse zeigt. Im Klartext: Bei Google ist die Chance größer, den Ex-Klassenkameraden wiederzufinden, bei Ixquick findet man dagegen seinen Fachaufsatz an der Uni Antwerpen. Das hat was, und es ist kein Zufall: Der niederländische Dienst Ixquick leistet es sich, die bei diversen Diensten gefundenen Resultate neu zu gewichten und zu ordnen. Ganz nebenbei killt er dabei auch noch sämtliche Doppler. Brauchbar ist dabei wiederum wirklich nur die Metasuche: Die anderen Suchoptionen (Bilder, News, MP3) bieten vergleichsweise wenig. Das gewöhnt den Surfer dann wieder daran, dass es oft besser ist, mehrere Quellen gegeneinander zu konsultieren. Weder die Bildsuche von Google, noch die von Altavista ist wirklich gut - in Kombination aber decken sie eine Menge ab.
    Auch das bringt was: Gezielte Plattformwechsel Das versucht auch ein Dienst wie Pandia : Der Metasearcher kombiniert in seinen Anfragen gute Searchengines mit der Vollindexierung qualitativ hochwertiger Inhalte-Angebote. So kombiniert Pandia gezielt die Encyclopedia Britannica, Lexika und Searchengines mit den Datenbeständen von Amazon. Wozu das gut sein soll und kann, zeigt das praktische Beispiel einer sehr sachlich orientierten Suche: "Retina Implant". Dabei geht es um Techniken, über oparative Eingriffe und Implantate an Netzhaut-Degeneration erblindeter Menschen das Augenlicht (zumindest teilweise) wieder zu geben. Pandia beantwortet die Suche zunächst mit dem Verweis auf etliche universitäre und privatwirtschaftliche Forschungsinstitute. 13 von 15 Suchergebnissen sind 100 Prozent relevant: Hier geht es ab in die Forschung. Die letzten beiden verweisen zum einen auf eine Firma, die solche Implantate herstellt, die andere auf einen Fachkongress unter anderem zu diesem Thema: Das ist schon beeindruckend treffsicher. Und dann geht's erst los: Mit einem Klick überträgt Pandia die Suchabfrage auf das Suchmuster "Nachrichtensuche", als Resultat werden Presse- und Medienberichte geliefert. Deren Relevanz ist leicht niedriger: Um Implantate geht es immer, um Augen nicht unbedingt, aber in den meisten Fällen. Nicht schlecht. Noch ein Klick, und die Suche im "Pandia Plus Directory" reduziert die Trefferanzahl auf zwei: Ein Treffer führt zur Beschreibung des universitären "Retinal Implant Project", der andere zu Intelligent Implants, einer von Bonner Forschern gegründeten Firma, die sich auf solche Implantate spezialisiert hat - und nebenbei weltweit zu den führenden zählt. Noch ein Klick, und Pandia versucht, Bücher zum Thema zu finden: Die gibt es bisher nicht, aber mit Pandias Hilfe ließe sich sicher eins recherchieren und schreiben. Trotzdem: Keiner der angesprochenen Dienste taugt zum Universalwerkzeug. Was der eine kann, das schafft der andere nicht. Da hilft nur ausprobieren. Der Suchdienst muss zum Sucher passen. Fazit und Ausblick So gut Google auch ist, es geht noch besser. Die intelligente Kombination der besten Fertigkeiten guter Suchwerkzeuge schlägt selbst den Platzhirsch unter den Suchdiensten. Doch darum geht es ja gar nicht. Es geht darum, die Suche im Web effektiv zu gestalten, und das will nach wie vor gelernt sein. Noch einfacher und effektiver geht das mit zahlreichen, oft kostenlosen Werkzeugen, die entweder als eigenständige Software (Bots) für Suche und Archivierung sorgen, oder aber als Add-On in den heimischen Browser integriert werden können. Doch dazu mehr im zweiten Teil dieses kleinen Web-Wanderführers"
    Footnote
    Zum Thema: Im Internet: · Searchenginewatch http://www.searchenginewatch.com · Searchenginewatch: Spezialsuchdienste http://www.searchenginewatch.com/links/specialty.html · Ixquick Metasuche http://www.ixquick.com/ · Pandia Metasearchdienst http://www.pandia.com · Ithaki: Metasuchdienst für Kinderthemen http://www.ithaki.net/kids/ · Metaspinner: Deutscher Metasuchdienst mit vielen speziellen Suchmöglichkeiten http://www.metaspinner.de · AlltheWeb: Googles Herausforderer http://www.alltheweb.com/ · AltaVista: Der ehemalige Marktführer hat mächtig aufgerüstet http://www.altavista.com/ · Inktomi: Suchdienstleister im Hintergrund http://www.inktomi.com/ · Wisenut: Viel versprechender Newcomer, der dringend ein Update gebrauchen könnte http://www.wisenut.com · Teoma sucht anders: Im Doppel mit AskJeeves ein Klasse-Angebot, bisher ohne die nötige Masse http://www.teoma.com · Hotbot: Einst intelligenteste Searchengine, bis heute guter Service http://www.hotbot.lycos.com · ...und natürlich der Dienst, an dem sich alle messen müssen: Google http://www.google.com/intl/de/
  20. Schmidt, W.: ¬Die Erfolgreiche : Wie die Suchmaschine wurde, was sie ist (2006) 0.01
    0.009639256 = product of:
      0.038557023 = sum of:
        0.038557023 = weight(_text_:und in 5938) [ClassicSimilarity], result of:
          0.038557023 = score(doc=5938,freq=62.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.34085333 = fieldWeight in 5938, product of:
              7.8740077 = tf(freq=62.0), with freq of:
                62.0 = termFreq=62.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=5938)
      0.25 = coord(1/4)
    
    Content
    "Wer Google googelt, sieht zuallererst Google. Das klingt wie ein plattes Witzchen - ist aber schon das wesentliche Geheimnis des unheimlichen Erfolgs einer Suchmaschine, der es gelungen ist, binnen weniger Jahre das Internet, die Suche nach Informationen und die Werbewelt zu verändern und sich unentbehrlich zu machen. Googeln wurde buchstäblich zum Begriff. "Keine andere Marke hat je so schnell globale Anerkennung gefunden wie Google", schreiben David A. Vise, ein Reporter der "Washington Post", und sein Kollege Mark Malseed in ihrem Buch über den sagenhaften Aufstieg des Unternehmens, das Suchergebnisse in 35 Sprachen liefert. Allein in Deutschland nutzen heute über 22 Millionen Menschen die Suchmaschine mit den bunten Buchstaben regelmäßig - unter den Internet-Surfern hierzulande ein Marktanteil von 65 Prozent. Sie suchen nach Neuigkeiten über ihre Filmhelden, prüfen die Schreibweise von Fremdwörtern oder forschen wie Detektive nach Wissenswertem über die Frau oder den Mann, mit dem sie sich abends treffen werden - zum Rendezvous oder Geschäftsessen. Längst gelten in manchen Kreisen Menschen als Langweiler, über die selbst Google nichts weiß. Wie dieser Erfolg möglich war, beschreiben Vise und Malseed auf rund 300 Seiten. Man kann es mit dem Dichter Victor Hugo (1802-1885) aber auch kürzer sagen: "Nichts ist so mächtig wie eine Idee, deren Zeit gekommen ist." Noch mächtiger freilich ist eine Idee, die von der Konkurrenz übernommen wird - in totaler Verkennung der Bedürfnisse von Internet-Nutzern. Eine solche Idee brachte 1997 Google hervor - und hat längst Wirtschafts- und Kulturgeschichte geschrieben. Der zentrale Gedanke der beiden damals 22-jährigen Google-Gründer Larry Page und Sergey Brin ist simpel: Wenn die Lawine der im Internet abrufbaren Informationen weiter derart anschwillt, dann brauchen die Nutzer des weltweiten Netzes einen exzellenten Suchhund. Nicht umsonst ist der Name der Suchmaschine abgeleitet von dem Wort Googol, womit in der Mathematik eine absurd große Zahl mit hundert Nullen bezeichnet wird - eine Anspielung auf die unermessliche und längst unüberschaubare Weite des Internets.
    Hilfe beim Finden tut also Not. Nur reicht es eben nicht, wenn ein Recherche-Programm für einen Begriff wie "Klimawandel" möglichst viele Fundstellen auflistet, durch die man sich dann erst einmal mühsam klicken und lesen muss. Das verbesserte Betriebsklima in der Firma XY ist für die meisten eher unwichtig. Page und Brin, Informatik-Studenten an der kalifornischen Universität Stanford, erkannten schnell, dass sie eine sinnvolle Rangfolge innerhalb der Suchergebnisse zustande bringen mussten, um Google zum Erfolg zu verhelfen Ihr erster Geldgeber Andy Bechtolsheim, der 1998 hilfreiche 100 000 Dollar beisteuerte, begründete seine Investition mit den Mängeln marktüblicher Suchmaschinen: "Damals benutzte ich das Internet fast ausschließlich für Suchanfragen, und ein Teil meiner Frustration rührte daher, dass AltaVista - die Standard-Suchmaschine - nicht sehr gut war." Viele der zahlreichen Ergebnisse waren unbrauchbar. Die 1995 in den USA ebenfalls gängige Suchmaschine Inktomi fand sich damals nicht einmal selber, wenn man ihren Namen in die Suchmaske eintippte. Google hingegen findet Relevantes meist zielsicher in Bruchteilen einer Sekunde - und sich selbst natürlich zuerst. Genial war auch die bis heute konsequent umgesetzte Idee, die Google-Startseite frei von Reklame und vor allem von Fotos und albernen Mätzchen zu halten. Derartiges verursacht nicht nur zusätzliche Ladezeit - gerade auf älteren Rechnern und bei langsamen Netz-Zugängen. Es wirkt auch unseriös und vermittelt den Eindruck, dass einem auf solchen Seiten vor allem etwas angedreht werden soll. Während die Konkurrenz ihre wichtigste Seite überluden, hielten Brin und Page an ihrem asketischen Portal fest. Dieses besteht bis heute praktisch nur aus dem Namen Google, kleinen Schaltflächen für die einzelnen Dienste und dem Suchfeld. Allenfalls werden zu besonderen Anlässen wie weltweit relevanten Jubiläen, Jahrestagen oder Sport-Ereignissen einzelne Buchstaben des Namenszuges meist witzig verändert.
    Im Rückblick klingt es unglaublich, dass viele Insider noch Ende der 90er Jahre sträflich das Potenzial einer zielführenden Suchmaschine unterschätzten - darunter auch die Verantwortlichen des großen Such-Dienstes AltaVista und des redaktionell betreuten Netzverzeichnisses Yahoo, das seine Kunden mit allerlei Diensten an sich zu binden suchte. Beide lehnten es früh ab, bei Google einzusteigen - später indes kooperierte Yahoo dann doch. "Niemand konnte sich für die Finanzierung von Suchanfragen begeistern", berichtet Buchautor David Wise. Getrieben von ihrer Idee, möglichst vielen Menschen möglichst alle Informationen des globalen Datennetzes zugänglich zu machen, wussten Brin und Page hingegen genau, dass sie auf dem richtigen Weg waren - und sie verfolgten ihn so unbeirrt wie Lenkraketen. Dabei behielten sie auch finanziell immer das Steuer in der Hand - keineswegs selbstverständlich gegen Ende der 90er Jahre, als die Internet-Euphorie und der Boom so genannter Dotcom-Unternehmen dazu führten, dass nahezu jedem großmäuligen Jung-Unternehmer Millionen Dollar, Pfund oder Mark an Risiko-Kapital in den Rachen gestopft wurden. Doch Brin und Page waren nicht nur standhaft und sparsam. Sie haben von Anfang an versucht, ihrer Belegschaft das Arbeiten bei Google möglichst angenehm zu machen, indem sie ihre Mitarbeiter so unentgeltlich wie exquisit verköstigten und ihr diverse Dienste bereitstellten - vom Kindergarten über Friseur und Wäscherei bis zum FitnessStudio. Obendrein erwarten sie bis heute, dass jeder Programmierer mindestens ein Fünftel seiner Arbeitszeit komplett darauf verwendet, eigenen Einfällen nachzuspüren und Neues auszuprobieren. Die so ermunterten Mitarbeiter haben nützliche Neuerungen hervorgebracht: von der - auf die USA beschränkten - Telefonnummern-Suche durch Eingabe von Namen und Postleitzahl ins Suchfeld über die automatische Korrektur von Eingabefehlern ("Meinten Sie:... ") bis hin zum Nachrichten-Service "Google News oder zum opulenten Foto-Archiv: Die Bildersuche hält heute rund 1,2 Milliarden Stück bereit. Auch Google Earth, das Satelliten-Aufnahmen auf den heimischen PC bringt, hat Aufsehen erregt.
    Eine zentrale Stütze des Erfolges ist die gewaltige Rechnerleistung, über die Google verfügt. Verteilt auf mehrere Standorte, durchforsten bei Suchanfragen weit über hunderttausend billige, aber bedarfsgerecht optimierte PC-Rechner über acht Milliarden gespeicherte Internet-Angebote. "Keine Gesellschaft verfügt über eine größere Rechnerleistung als Google mit seinem Netzwerk gewöhnlicher, aber aufgemotzter PCs", schreiben David Vise und Mark Malseed. Das Riesenheer aus Klein-Computern hält so viele Reserven vor, dass es nicht schlimm ist, wenn immer wieder einige davon den Geist aufgeben. Sie werden einfach umgangen, und andere Rechner übernehmen ihre Arbeit. Deshalb funktioniert Google seit Jahren praktisch reibungslos und stellt seine Nutzer zufrieden - ganz anders, als es die berüchtigten "schweren Ausnahmefehler" des Microsoft-Betriebssystems Windows immer wieder getan haben. Über sie ist selbst Microsoft-Gründer Bill Gates bei Präsentationen schon manches Mal gestolpert."

Years

Languages

  • d 463
  • e 38
  • More… Less…

Types

  • a 401
  • m 54
  • el 51
  • x 13
  • s 9
  • r 2
  • p 1
  • More… Less…

Subjects

Classifications