Search (500 results, page 22 of 25)

  • × theme_ss:"Suchmaschinen"
  1. Haubner, S.: Was uns Google vorenthält : Alternativen zum Marktführer gibt es beim Suchen im Internet kaum - Wir erklären, wie der Suchmaschinen-Gigant "Google" funktioniert. (2012) 0.01
    0.0075343642 = product of:
      0.030137457 = sum of:
        0.030137457 = weight(_text_:und in 6) [ClassicSimilarity], result of:
          0.030137457 = score(doc=6,freq=30.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.23710044 = fieldWeight in 6, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=6)
      0.25 = coord(1/4)
    
    Content
    "Ganze "230 Adressen im World Wide Web, 250 Server und 100 per E-Mail zugängliche Informationsquellen". So stand es 1995 in der "Updated Internet Services List". Die manuell zusammengetragene Adressliste, nach ihrem Urheber auch als "Yanoff-Liste" bekannt, war einer der ersten Versuche, die anschwellende Informationsflut des Internet zu kanalisieren. Aus einem dieser Verzeichnisse, das zunächst von Studenten zusammengetragen wurde, entstand kurze Zeit später mit Yahoo die Mutter aller Suchmaschinen. Die englische Wortkombination "Search Engine" ist allerdings irreführend. Denn dahinter steckt in Wahrheit eine Software, die automatisch einen Index der Internetinhalte erstellt. Denn der Fleiß einer Handvoll Studenten reichte schon bald nicht mehr aus, das sich explosionsartig ausbreitende Web auch nur ansatzweise zu erfassen.
    Keine ernsthafte Konkurrenz Damit ist die Geschichte der Suchmaschinen weitestgehend erzählt - außer, dass Yahoo praktisch keine Rolle mehr spielt. Um das Gesuchte in den Weiten des Netzes zu finden, benutzt man heute Google. Mehr als 90 Prozent aller Suchanfragen in Deutschland laufen Schätzungen zufolge über die Rechenzentren des US-Konzerns. Ernsthafte Konkurrenten? Keine. Einst erfolgreiche Dienste wie Excite, Infoseek, AltaVista oder Lycos sind längst von der Bildfläche verschwunden. Liefert nicht Google zu allen erdenklichen Suchbegriffen zigtausend Ergebnisse? Mehr, so die allgemeine Auffassung, kann sowieso kein Mensch verarbeiten. Dahinter steht der naive Glaube, Google bilde die digitale Welt in ihrer Gesamtheit ab. Oder, schlimmer noch, gar die reale Welt. Dabei könnte nichts weiter von der Realität entfernt sein, wie Dr. Wolfgang Sander-Beuermann, Leiter des Suchmaschinenlabors der Leibniz-Universität Hannover erklärt. Denn Google entscheidet, nach welchen Kriterien die digitale Welt durchkämmt wird. Google legt fest, welche Webseiten unter den ersten zehn Ergebnissen zu einer Suche angezeigt werden. Da die Mehrheit der Nutzer ohnehin nur diese wahrnimmt, bestimmt ein einzelnes Unternehmen, welchen Ausschnitt der Wirklichkeit die Menschheit zu sehen bekommt. Und die Algorithmen, nach denen die Suchmaschine funktioniert, hält der Konzern streng unter Verschluss: "Google entscheidet, welches Wissen wahrgenommen wird, und welches nicht; was im Internet existiert und was nicht." Die Macht, die dem Konzern damit zukomme, reiche weit über die Kontrolle des Wissenszugangs durch Suchmaschinen hinaus. "Was wir hier beobachten, ist eine Monokultur mit gravierenden Folgen für die Informations- und Wissenskultur", warnt der Wissenschaftler, der deshalb bereits vor Jahren "SuMa e.V.", einen "Verein für freien Wissenszugang", gegründet hat. Er setzt sich dafür ein, "globale Online-Oligopole besser zu kontrollieren". Um den freien Zugang zu dem im Internet gespeicherten Wissen für möglichst viele Menschen zu ermöglichen, sei es außerdem "von entscheidender Bedeutung, die dahinterstehende Technologie zu entwickeln und zu fördern - auch und gerade in Deutschland." Doch genau das wurde in den vergangenen zehn Jahren versäumt.
    Die Grundlage für das heutige Monopol wurde Ende der 90er-Jahre geschaffen. Damals hatten die beiden Google-Gründer Larry Page und Sergei Brin das Glück, zum richtigen Zeitpunkt mit der besten Technik aufwarten zu können. Kurz darauf führte die so genannte Dotcom-Krise zum Versiegen der Geldquellen und leitete den Niedergang der Mitbewerber ein. Ausgestattet mit frischem Geld und einer überlegenen Technologie nutze das Unternehmen die Gunst der Stunde und wuchs zu einem mittlerweile rund 25000 Mitarbeiter zählenden Konzern heran. Seitdem muss man sich in Mountain View nicht mehr großartig mit Kritik auseinandersetzen. Vom kalifornischen Hauptsitz aus wird praktisch im Alleingang über die Zukunft des Internet entschieden. So werden dem Nutzer mittlerweile personalisierte Ergebnisse angezeigt, die auf dessen bisherigen Suchanfragen beruhen. "Sie freuen sich vielleicht, dass bei dem für Sie wichtigen Suchwort ihre Homepage ganz vorn bei Google erscheint, worauf Sie Google ganz besonders toll finden", erklärt Sander-Beuermann. "Tatsächlich liegt das daran, dass Sie Ihre Homepage selber angeklickt haben. Ihr Nachbar kann völlig andere Ergebnisse erhalten." Wie diese Informationsbewertung genau funktioniere, gehöre allerdings zum Betriebsgeheimnis. Ebenso wie eine Fülle weiterer Faktoren, die eine Rolle bei der Auswahl der angezeigten Suchergebnisse spiele. So fließt auch die jeweilige geografische Position in die Zusammenstellung und Reihenfolge der angezeigten Links ein.
    Neue Entwicklungen im Netz Doch es gibt durchaus Ansätze, dem Goliath Google die Stirn zu bieten. Zu den Davids, die das versuchen, gehört Michael Schöbel. Seit 1999 betreibt er die deutsche Suchmaschine Acoon - als Gründer, Geschäftsführer und einziger Angestellter. Schöbel gibt sich jedoch keinen besonderen Illusionen hin. "Allein vom Datenumfang her kann ich mit den von Google erfassten 50 Milliarden erfassten Webseiten natürlich nicht konkurrieren." Die Erfassung koste eine Menge Geld, ebenso wie die Server, die man zum Speichern solcher Datenbestände bereitstellen müsste. Dennoch hält es der Einzelkämpfer für wichtig, "dem rein amerikanischen Blick auf die Welt eine eigene Sichtweise entgegenzusetzen." Weil Acoon auf einen vollkommen eigenständigen Suchindex setze, erhalte der Nutzer Suchergebnisse, "die gut sind, ohne dabei dem Einheitsbrei zu entsprechen." Hoffnung macht Google-Kritikern derzeit aber vor allem eine Firma, die bislang nicht unbedingt im Verdacht konterrevolutionärer Aktivitäten stand: Microsoft. Dessen Suchmaschine Bing konnte Google bereits einige Marktanteile gewinnen - freilich nicht, ohne zuvor selbst eine Reihe kleinerer Anbieter geschluckt zu haben. Auch das einst so einflussreiche Webverzeichnis Yahoo! bezieht seine Ergebnisse mittlerweile aus dem Bing-Index.
    Und natürlich schlägt Microsoft in die gleiche Kerbe wie Google. Denn auch die Bing-Suche steht ganz im Zeichen der "Individualisierung" der Ergebnisse. "Social Search" nennt sich die (noch) optionale Möglichkeit, Facebook-Einträge von Freunden als Suchkriterien zu verwenden. Schließlich, so die Meinung des Konzerns, beeinflusse der "Freunde-Effekt" die Entscheidung von Menschen in der Regel mehr als andere Faktoren. Die Entwicklung zeigt eindrucksvoll, wie schnell sich die beiden letzten Großen im Suchmaschinen-Geschäft neue Entwicklungen im Netz aneignen. Im Web 2.0 bildeten Blogs und Soziale Netzwerke bislang gewissermaßen ein demokratisches Gegengewicht zum Meinungsmonopol. Doch auch hier ist der Internet-Goliath bereits am Start. Wer sich schon immer mal gefragt hat, warum der Such-Gigant praktisch monatlich mit neuen Angeboten wie etwa Google+ aufwartet, findet hier eine Antwort. Mit dem kostenlosen Smartphone-Betriebssystem Android sicherte man sich eine gewichtige Position auf dem expandieren Markt für mobile Plattformen. Trotz ihrer momentanen Allmacht erkennen die Konzernlenker also durchaus die Gefahr, irgendwann einmal selbst vom Zug der Zeit überrollt zu werden. Für die meisten Konkurrenten kommt diese Einsicht zu spät."
  2. Libraries and Google (2005) 0.01
    0.007463712 = product of:
      0.029854847 = sum of:
        0.029854847 = weight(_text_:und in 1973) [ClassicSimilarity], result of:
          0.029854847 = score(doc=1973,freq=46.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.23487706 = fieldWeight in 1973, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=1973)
      0.25 = coord(1/4)
    
    Footnote
    Co-published simultaneously as Internet reference services quarterly, vol. 10(1005), nos. 3/4 Rez. in: ZfBB 54(2007) H.2, S.98-99 (D. Lewandowski): "Google und Bibliotheken? Meist hat man leider den Eindruck, dass hier eher ein oder gedacht wird. Dies sehen auch die Herausgeber des vorliegenden Bandes und nehmen deshalb neben Beiträgen zur Diskussion um die Rolle der Bibliotheken im Zeitalter von Google auch solche auf, die Tipps zur Verwendung unterschiedlicher Google-Dienste geben. Die allgemeine Diskussion um Google und die Bibliotheken dreht sich vor allem um die Rolle, die Bibliotheken (mit ihren Informationsportalen) noch spielen können, wenn ihre Nutzer sowieso bei Google suchen, auch wenn die Bibliotheksangebote (zumindest von den Bibliothekaren) als überlegen empfunden werden. Auch wenn die Nutzer geschult werden, greifen sie doch meist lieber zur einfachen Recherchemöglichkeit bei Google oder anderen Suchmaschinen - vielleicht lässt sich die Situation am besten mit dem Satz eines im Buch zitierten Bibliothekars ausdrücken: »Everyone starts with Google except librarians.« (5.95) Sollen die Bibliotheken nun Google die einfache Recherche ganz überlassen und sich auf die komplexeren Suchfragen konzentrieren? Oder verlieren sie dadurch eine Nutzerschaft, die sich mittlerweile gar nicht mehr vorstellen kann, dass man mit anderen Werkzeugen als Suchmaschinen bessere Ergebnisse erzielen kann? Diese sicherlich für die Zukunft der Bibliotheken maßgebliche Frage wird in mehreren Beiträgen diskutiert, wobei auffällt, dass die jeweiligen Autoren keine klare Antwort bieten können, wie Bibliotheken ihre Quellen so präsentieren können, dass die Nutzer mit der Recherche so zufrieden sind, dass sie freiwillig in den Bibliotheksangeboten anstatt in Google recherchieren. Den Schwerpunkt des Buchs machen aber nicht diese eher theoretischen Aufsätze aus, sondern solche, die sich mit konkreten Google-Diensten beschäftigen. Aufgrund ihrer Nähe zu den Bibliotheksangeboten bzw. den Aufgaben der Bibliotheken sind dies vor allem Google Print und Google Scholar, aber auch die Google Search Appliance. Bei letzterer handelt es sich um eine integrierte Hard- und Softwarelösung, die die Indexierung von Inhalten aus unterschiedlichen Datenquellen ermöglicht. Der Aufsatz von Mary Taylor beschreibt die Vor- und Nachteile des Systems anhand der praktischen Anwendung in der University of Nevada.
    Ebenfalls direkt aus der Praxis erhält der Leser Informationen zum Google-PrintProgramm. Robert Milne beschreibt die Zusammenarbeit von Google und der Universität Oxford. In diesem Aufsatz wird - was dem Autor natürlich nicht anzulasten ist - ein Problem des vorliegenden Werks deutlich: Viele Informationen sind doch von sehr beschränkter Haltbarkeit. Der Redaktionsschluss war im Frühsommer 2005, sodass sich in vielen Bereichen bereits neue Entwicklungen ergeben haben. Dies ist beim Print-Programm der Fall, vor allem wird es aber bei dem Hauptthema des Bandes, nämlich Google Scholar, deutlich. Dieser Dienst wurde im November 2004 gestartet und stieß auf unterschiedlichste Reaktionen, die (anhand von Beispielen amerikanischer Bibliotheken) im Beitrag von Maurice C. York beschrieben werden. Einige Bibliotheken nahmen den Dienst begeistert auf und verlinkten diesen mit Lob versehen auf ihren Websites. Andere reagierten gegenteilig und warnten vor dessen schlechter Qualität. Auch weil vorauszusehen war, dass Google Scholar bei den Nutzern gut ankommen würde, darf das folgende Statement von einer Bibliothekswebsite geradezu als ignorant gelten: Google Scholar »is wonderful for those who do not have access to the library's databases« (S.119). Wie nun die Scholar-Nutzer auf die Bibliotheksangebote gelenkt werden können, beschreibt der ironisch »Running with the Devil« betitelte Aufsatz von Rebecca Donlan und Rachel Cooke. Die Autorinnen beschreiben den Einsatz von Link-Resolvern und gehen auf die in Google Scholar bestehenden Probleme durch unklare Bezeichnungen in den Trefferlisten ein. Einige Beispiele zeigen, dass Google Scholar auch in Kombination mit der Verlinkung auf die Bibliotheksbestände keine befriedigende Recherchesituation herstellt, sondern vielmehr weitere Anstrengungen nötig sind, um »das Beste beider Welten« zusammenzuführen. Zwei weitere Aufsätze beschäftigen sich mit der Frage, wie gut Google Scholar eigentlich ist. Einmal geht es darum, wie gut Scholar den »ACRL Information Literacy Standards« genügt. Der zweite Beitrag vergleicht Google Scholar anhand von fünf Suchaufgaben einerseits mit einem lokalen Bibliothekskatalog, andererseits mit EBSCOs Academic Search Premier und jeweils einer fachspezifischen Datenbank. Die Ergebnisse zeigen keine durchgehende Überlegenheit einer Suchlösung, vielmehr wird deutlich, dass es auf die Auswahl des richtigen Suchwerkzeugs für die bestehende Suchanfrage ankommt bzw. dass erst eine Kombination dieser Werkzeuge zu optimalen Ergebnissen führt. Man könnte also auch hier wieder sagen: Google und Bibliotheken, nicht Google oder Bibliotheken.
    Ein besonders interessanter Aufsatz widmet sich der Frage, wie Bibliotheken ihre Web-Angebote (hier: vor allem die Seiten zu digitalisierten Werken) so optimieren können, dass sie von Google und anderen Suchmaschinen optimal indexiert werden können. Dies wird leicht verständlich erklärt und dürfte für viele Bibliotheken, deren entsprechende Websites noch suboptimal gestaltet sind, eine gute Hilfestellung sein. Auch sehr praktisch orientiert ist der letzte Beitrag des Bandes, der verschiedene Quellen vorstellt, die sich mit aktuellen Entwicklungen bei Google (bzw. bei Suchmaschinen allgemein) beschäftigen, diese einzeln bewertet und Empfehlungen abgibt, welche man regelmäßig und welche man ab und zu lesen sollte. Die Bedeutung ist hier klar: Wenn Bibliotheken sich mit Google messen (oder darüber hinaus gehen?) möchten, müssen sie die Konkurrenz und ihre aktuellen Produkte kennen. Interessant wäre gewesen, noch den einen oder anderen Beitrag zu Suchprodukten von Bibliotheksseite zu lesen. Wie sollten solche Produkte beschaffen sein, um den Google-Nutzer zu den Bibliotheksangeboten zu führen? Welche Angebote gibt es hier bereits? Wie sehen die Anbieter von OPACs und Bibliothekssystemen die Zukunft der Bibliotheksrecherche? Und auch auf die nach Meinung des Rezensenten zurzeit wohl wichtigste Frage im Google-Kontext wird nicht eingegangen: Wie kann es den Bibliotheken gelingen, ein System (oder Systeme) zu schaffen, das nicht nur versucht, die Stärken der Suchmaschinen zu adaptieren, sondern ihnen einen Schritt voraus zu sein? Diese Kritik soll aber nicht darüber hinwegtäuschen, dass es sich bei dem vorliegenden Werk um eine gut lesbare Zusammenstellung von Aufsätzen handelt, die allen empfohlen werden kann, die sich einen Überblick zur Thematik verschaffen wollen, die Diskussion in den internationalen Fachzeitschriften aber nicht sowieso minutiös verfolgen."
  3. Lewandowski, D.: Wikipedia in großen Suchmaschinen (2005) 0.01
    0.007278887 = product of:
      0.029115548 = sum of:
        0.029115548 = weight(_text_:und in 3576) [ClassicSimilarity], result of:
          0.029115548 = score(doc=3576,freq=28.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.22906078 = fieldWeight in 3576, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3576)
      0.25 = coord(1/4)
    
    Abstract
    Die großen Suchmaschinen Google und Yahoo setzen beide auf die Inhalte des freien Nachschlagewerks Wikipedia. Sie wollen die Inhalte bei entsprechenden Anfragen prominent platziert vor der eigentlichen Trefferliste anzeigen. Google verwendet sie auch, um an die Suchmaschine gestellte Fragen zu beantworten. Damit gewinnt die nicht unumstrittene Freiwilligen-Enzyklopädie weiter an Bedeutung.
    Content
    "Google hat im April die aus dem US-Angebot bekannte bekannte Funktion der Begriffsdefinitionen für die deutschsprachige Seite vorgestellt. Leitet man eine Anfrage mit "definiere" ein, so wird an erster Stelle (noch vor der regulären Trefferliste) eine Definition des entsprechenden Begriffs angezeigt. Zwar werden andere Quellen aus dem offenen Web eingebunden, es zeigt sich aber, dass die Wikipedia-Einträge an erster Stelle platziert sind. Es wird jeweils der erste Abschnitt aus dem Wikipedia-Artikel präsentiert, der vollständige Text kann über einen Link abgerufen werden. Klickt man die Oberschrift "Definitionen von ... im Web" an, bekommt man, wenn vorhanden, weitere Treffer aus anderen Quellen angezeigt. Ein Beispiel zeigt die Bandbreite der Definitionen: Die Suche nach einer Definition für Glück ergibt neben dem ausführlichen Wikipedia-Artikel unter anderem Treffer von skat.com ("Faktor, der beim Skatspiel nicht wegzudenken ist") und von jesubotschaft.de. Hier muss sich Google (wieder einmal) den Vorwurf gefallen lassen, nicht die Autoritäten, also die hochwertigsten Quellen einzubeziehen, sondern irgendwelche, die (vermeintlich) etwas zum Thema zu melden haben. Eine weitere Einbindung der Wikipedia-Quellen wird bereits auf Googles US-Site getestet: Stellt man der Suchmaschine eine Frage (und nicht wenige Suchmaschinennutzer tun dies tatsächlich!), so bekommt man mit etwas Glück direkt eine Antwort angezeigt, zum Beispiel auf die Frage "Who is David Bowie?" die Antwort: "is a British rock and roll musician, actor, and artist who has had a profound influence an rock". Unter jedem Treffer ist ein Link auf die Quelle angegeben. Die Informationen kommen nicht nur aus der Wikipedia, sondern zum Beispiel auch aus dem World Fact Book (bei geographischen Anfragen) oder von Seiten wie "Pub Quiz Help". Die aus den Webseiten gezogenen Exzerpte sind von unterschiedlicher Qualität: Fragt man nach (populären) Zahlenangaben wie etwa der Höhe des Mount Everest, funktioniert es gut, bei den Fragen nach Personen wird manchmal ein etwas unpassender Teil des Artikels angezeigt, so dass man sich auf den vollständigen Artikel weiterklicken muss. Bislang geht Yahoo einen anderen Weg als Google. Gibt man in der US-amerikanischen Version Begriffe ein, die auf ein klassisches "Nachschlage-Bedürfnis" hindeuten, wird ähnlich wie bei Google mit den Definitionen ein "Shortcut" angezeigt (Password 2/2004 und 11 /2004). Die Quellen dort sind allerdings direkt in das Yahoo-Angebot eingebaut, d.h. man verlässt nicht das Yahoo-Portal, wenn man sich die vollständigen Artikel ansehen möchte. Und die Quellen wirken wesentlich vertrauenerweckender: Die Enzyklopädie-Einträge kommen aus der Columbia Electronic Encyclopedia. Sucht man nach Ländernamen, so bekommt man Treffer aus dem World Fact Book, "the U.S. government's complete geographical handbook". Nun hat Yahoo angekündigt, die Einträge aus der Wikipedia bei solchen Anfragen prominent platziert anzeigen zu wollen. Bisher sind allerdings nur einzelne Beispiele zu sehen: Gibt man beim französischen Ableger von Yahoo einen Ländernamen ein, so wird bereits ein Treffer aus der Wikipedia angezeigt. Des weiteren stellt Yahoo den Betreibern der Wikipedia Serverplatz zur Verfügung. Es wird jedoch betont, dass dies nicht das Ende der Gespräche zwischen Wikipedia und Google bedeute.
    Mit der sehr umfangreichen Wikipedia bietet sich für die Suchmaschinenbetreiber eine Möglichkeit, durch die manuelle Einbindung einer einzigen Quelle vermeintlich alle Fragen kompetent abzudecken. Der bisher zumindest bei Yahoo betriebene technische Aufwand, verschiedene Quellen (für die man als Suchmaschinenbetreiber vielleicht sogar bezahlen muss!) einzubinden und trotzdem nicht auf jede Frage eine schnelle Antwort liefern zu können, kann gespart werden. Letztlich stellt sich allerdings die Frage nach der Qualität der Treffer aus Wikipedia. Die Wikipedia wird von Freiwilligen erstellt, wobei es sich nicht um eine geschlossene Gruppe handelt. Vielmehr wird jeder Internet-Nutzer dazu eingeladen, sich an der Erstellung der Enzyklopädie zu beteiligen. Artikel werden gemeinschaftlich erarbeitet und sollen so dem Ideal nach mit der Zeit immer besser werden. Gibt es aktuelle Entwicklungen, so können diese direkt in die Artikel eingebunden werden. Es ist aber zu fragen, ob die Artikel durchweg die von einem Nachschlagewerk zu erwartende Qualität liefern können. Sicherlich gibt es in der Wikipedia sehr gute Artikel. Allerdings gibt es auch einen großen Anteil von schlechten, unsystematischen und fragwürdigen Eintragungen. Ein Blick auf das "Portal Bibliothek, Information, Dokumentation" zeigt exemplarisch einige Schwachstellen: Zunächst ist das Portal unvollständig. Das ist verständlich und wäre nicht besonders schlimm, wenn dies für den Nutzer immer ersichtlich wäre. Zwar ist dies klar, wenn zu einem Begriff kein Artikel angezeigt wird. Artikel, die sich noch in einem "frühen Stadium" befinden (und deshalb noch nicht oder nur marginal überarbeitet wurden), sind jedoch nicht als solche gekennzeichnet. Sie können deshalb, insbesondere wenn Suchmaschinen an prominenter Stelle auf sie verweisen, in ihrer Qualität leicht mit Einträgen aus echten Enzyklopädien verwechselt werden. Viele Nutzer werden ihnen damit eine vergleichbare Autorität zumessen. Ein weiterer Kritikpunkt betrifft den unsystematische Aufbau der Wikipedia. Wieder ein Beispiel aus dem Portal BID: Ein Artikel zum Booleschen Retrieval ist nicht vorhanden, wohl aber zum Erweiterten Booleschen Retrieval. Dieser besteht hauptsächlich aus einer Ansammlung von Formeln und hat damit wenig mit einem enzyklopädischen Artikel zu tun.
    Eine Enzyklopädie sollte etwas über die Bedeutung der behandelten Themen aussagen. Klassisch bekommen die wichtigeren Themen längere Artikel, die weniger wichtigen entsprechend kürzere. Die Wikipedia gibt hier keine Orientierung: Alle Themen scheinen gleich bedeutend zu sein, zumindest drückt sich die Bedeutung nicht in der Länge aus. So ist der Artikel über den Computerspiel-Helden Super Mario, bei dem man sich ja schon generell fragen darf, was er in einer Enzyklopädie zu suchen hat, ca. 30.000 Zeichen lang, der über Gerhard Schröder nur 17.000. Was bedeutet die zumindest zu hinterfragende Qualität der Wikipedia und ihre Einbindung in die Suchmaschinen für den Such maschinen-Nutzer? Der Kernpunkt wurde bereits erwähnt: Die Nutzer werden der Wikipedia eine Autorität beimessen, die diese nicht hat. Die Suchmaschinen unterstützen mit der Einbindung die Annahme, die Wikipedia könne die Qualität und Orientierung einer echten Enzyklopädie bieten. Die Suchmaschinen wären besser beraten, verstärkt auf die Einbindung geprüfter, hochwertiger Quellen zu setzen. Einen solchen Ansatz verfolgt MSN mit der Einbindung der hauseigenen Encarta-Enzyklopädie. Deren Nutzung ist immerhin für jeden Nutzer zwei Stunden lang kostenlos, dann muss bezahlt werden."
  4. Digitale Schnüfler (2008) 0.01
    0.0072057303 = product of:
      0.028822921 = sum of:
        0.028822921 = weight(_text_:und in 2205) [ClassicSimilarity], result of:
          0.028822921 = score(doc=2205,freq=14.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.2267586 = fieldWeight in 2205, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2205)
      0.25 = coord(1/4)
    
    Abstract
    Festplatten haben in den vergangenen Jahren beachtliche Größen erreicht und ein Ende scheint immer noch nicht absehbar zu sein. Damit ist auf diesen Datenträgern genügend Platz für sehr viele Dateien jedweder Art, die sich im Laufe eines Computerlebens so ansammeln. Die Krux: Wenn es darum geht, inmitten der riesigen Menge an Dateien eine ganz bestimmte zu finden, kann die Suche recht zeitraubend werden. Abhilfe schaffen so genannte Desktop-Suchmaschinen. Diese haben wir uns für Sie genauer angesehen.
    Content
    "Suche ohne Ende Windows hat bekanntlich von Hause aus ein Suchwerkzeug an Bord. Im einfachsten Fall reicht das aus. Wenn sich hingegen mehrere hunderttausend Dateien auf dem Datenträger tummeln, beginnt meist nach dem Start der Suche eine ebenso unfreiwillige wie ausgiebige Kaffeepause. Dateien mit Hilfe der Bordwerkzeuge zu suchen, kann mittlerweile nur noch als Notlösung betrachtet werden. Weitaus effizienter sind spezielle Suchwerkzeuge, die umfassendere Suchfunktionen anbieten und darüber hinaus auch schneller arbeiten. Hierbei handelt es sich um die Desktop-Suchmaschinen. Am Anfang war der Index Das Hauptargument für die Verwendung einer Desktop-Suchmaschine anstelle der Windowsinternen Dateisuche ist die deutlich höhere Suchgeschwindigkeit. Wenn Sie mit der Windows-Suchfunktion nach einer Datei suchen, werden alle Ordner systematisch durchsucht. Das dauert mitunter unerfreulich lang. Auch Suchmaschinen bleibt eine solche Dateisuche nicht erspart. Allerdings bedient man sich hier eines Tricks: Nach der Installation werden zunächst die Festplatten gescannt und alle gefundenen Dateien werden nebst Pfad in einer Datenbank eingetragen. Das ist der so genannte Index. Sobald eine Suche durchgeführt wird, greift die Software nunmehr auf den Index zu, anstatt jedes Mal die Festplatte aufs Neue umzugraben. Das geht wesentlich schneller und gesuchte Dateien sind schnell gefunden. Gleichzeitig werden die Datenträgen ab sofort überwacht und jede Änderung wird im Index nachgetragen. Das lange Warten nach einem Suchergebnis hat somit ein Ende.
    Nicht nur Desktop-Suche Eine Desktop-Suchmaschine ist ein hilfreiches Werkzeug vor allem, wenn sich außer Dateien noch E-Mails rasch finden lassen. Da heutzutage ohne Internet gar nichts mehr geht, liegt es nahe, die Suche auch auf das World Wide Web auszudehnen. Aus diesem Grunde sind diese Tools darüber hinaus auch mit einer Internet-Suchfunktion ausgestattet. Diese Funktion beschränkt sich jedoch in der Regel darauf, dass der standardmäßig genutzte Internet-Browser gestartet wird und die Seite eines Suchdienstes erscheint. Damit handelt es sich um ein kleines Zusatzbonbon, das dem Anwender einige Umwege erspart. Kostenlos, aber nicht umsonst Niemand hat etwas zu verschenken. Auch wenn die meisten Desktop-Suchmaschinen kostenfrei erhältlich sind, verbergen sich oft einige Stolperfallen im Detail. Die vorliegenden Testkandidaten sind zwar keine Spyware-Programme, doch es empfiehlt sich ein kritischer Blick bei der Auswahl des gewünschten Werkzeugs. Einige Produkte bieten neben einer kostenlosen Home-Edition ein kostenpflichtiges Pendant für professionelle Anwender an. Das mag angehen und ist sicherlich kein Problem. Zudem darf davon ausgegangen werden, dass kostenlose Desktop-Suchmaschinen bei weitem nicht so viele Dateiformate unterstützen, wie die kommerziell erhältlichen Varianten. Immerhin sind die Lizenzen, die Hersteller kaufen müssen, um eine umfassende Unerstützung für unterschiedliche Dateiformate anbieten zu können, sehr teuer. Kritisch zu hinterfragen sind jedoch jene Tools, die von werbefinanzierten Anbietern stammen. Hier besteht die Gefahr, dass persönliche Daten der Anwender zum Zweck der statistischen Auswertung des Nutzungsverhaltens gesammelt werden. Wer nichts zu verbergen oder keine Probleme damit hat, kann diese Programme durchaus auch nutzen. Sensible Daten sollten dann aber gesondert geschützt werden."
  5. Beuth, P.: To bing or not to bing : Entdeckungen beim Selbstversuch (2009) 0.01
    0.0072057303 = product of:
      0.028822921 = sum of:
        0.028822921 = weight(_text_:und in 2872) [ClassicSimilarity], result of:
          0.028822921 = score(doc=2872,freq=14.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.2267586 = fieldWeight in 2872, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2872)
      0.25 = coord(1/4)
    
    Content
    "Ich binge, du bingst, er/sie/es bingt. Bis sich das nicht mehr komisch anhört, wird es wohl noch eine Weile dauern. Aber ein erster Test zeigt: Bingen hat durchaus das Potenzial, ein Verb zu werden. Dazu muss der neue Dienst aber so schnell wie möglich vereinheitlicht werden. Auf Deutsch ist bisher nur eine Beta-Version verfügbar, und die bietet nichts, womit Bing einen Google-User bekehren könnte. Vielversprechender ist die US-Version, aufrufbar über die Ländereinstellung am rechten oberen Bildschirmrand. Sie zeigt, was Bing alles kann. Oberstes Ziel und Prinzip von Microsoft ist offenbar, dem Nutzer nach Eingabe eines Suchbegriffs so viele Filter und Voransichten zu liefern, dass er möglichst beim ersten Klick auf einen Link genau dort landet, wo seine Anfrage auch wirklich beantwortet wird. Suche nach Orten: Wer nach "Frankfurt" sucht, bekommt von Bing eine Trefferliste, die nach Kategorien wie Tourismus, Karten und Restaurants geordnet ist. Neben jedem Link taucht beim "Mouse-Over" ("Drüberfahren" mit der Maus) ein Vorschaufenster mit den ersten Informationen über den Inhalt der jeweiligen Seite auf. Das hilft, wenn aus einem Linktitel in der Trefferliste nicht sofort ersichtlich wird, was sich dahinter verbirgt. Der Kategorisierung fallen allerdings wichtige Verweise zum Opfer, die Google sofort anbietet, etwa Links auf die Uni Frankfurt, die Buchmesse oder die Eintracht. Suche nach Bildern: Auch hier werden für jeden Suchbegriff verschiedene Filter angeboten. Ähnlich wie bei Google kann man etwa nur nach Gesichtern oder Illustrationen suchen. Das Blättern in den Suchergebnissen entfällt dagegen, beim Scrollen lädt Bing einfach immer neue Bilder nach. Ein Klick auf ein Bild führt den Nutzer nicht gleich auf die Zielseite, sondern lädt diese im Bing-Rahmen. So bleibt Platz für die Vorschau auf andere Suchergebnisse. Suche nach Videos: Hier hat Microsoft eine äußerst ansprechende Lösung gefunden. Suchergebnisse werden als Thumbnail, also als Kleinbild angezeigt - und ein einfaches Mouse-Over genügt, damit Auszüge des Videos in dieser Größe abgespielt werden. Das funktioniert als Vorschau so gut, dass als erstes die Pornofans jubelten: Mit Bing sei es wunderbar einfach, eine Sexfilm-Sammlung anzulegen. Dafür muss man nur den voreingestellten Jugendschutzfilter deaktivieren, was mit drei Klicks erledigt ist.
    Suche nach Personen: Beim "Ego-Bingen", also bei der Suche nach dem eigenen Namen, hat die Microsoft-Maschine noch Aufholbedarf. Profile von sozialen Netzwerken wie Xing etwa sind nicht immer unter den Bing-Treffern. Google findet außerdem mehr und relevantere Ergebnisse, sowohl bei weniger bekannten Menschen als auch bei Prominenten, weshalb man bei der Suche nach Personen mit dem Marktführer besser bedient ist. Suche nach News: Noch eine Baustelle, auf der Microsoft tätig werden muss. Die US-Version von Bing zeigt zu deutschen Nachrichtenthemen wie Arcandor nur englische Quellen. Zeitfilter, die Google News anbietet, fehlen ganz. Gar nicht sortierbar sind derzeit die Ergebnisse der deutschen News-Suche bei Bing. Dafür kann man sich wie schon beim Vorgänger Windows Live Search persönliche "Alerts" einrichten, also Benachrichtigungen, die automatisch verschickt werden, wenn es Neuigkeiten zu dem ausgewählten Thema gibt. Suche nach Dokumenten: Die erweiterten Einstellungen von Google ermöglichen es, etwa nur nach PDF-Dokumenten zu suchen. Bei Bing gibt es zwar auch eine erweiterte Suche, die ist aber erst in der Trefferliste der Standardsuche aufrufbar - und sie enthält weniger Filter. Wer die jeweiligen Operatoren kennt, in diesem Fall "filetype:pdf", kann sich allerdings auch von Bing ausschließlich PDF-Dokumente anzeigen lassen."
  6. Lehmkuhl, F.: Suchmaschinen : Griff in die Ideenkiste (2003) 0.01
    0.007003312 = product of:
      0.028013248 = sum of:
        0.028013248 = weight(_text_:und in 4558) [ClassicSimilarity], result of:
          0.028013248 = score(doc=4558,freq=18.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.22038865 = fieldWeight in 4558, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4558)
      0.25 = coord(1/4)
    
    Abstract
    Google dominiert mit einer effektiven Technologie dem Markt. Die Konkurrenz buhlt mit neuen Geschäftsmodellen und verbesserter Suche um Surfergunst
    Content
    "Die Macher der Suchmaschine Fireball wissen, was Surfer glücklich macht. Fakten, na klar, aber auch feminine Formen, vorzugsweise in Großaufnahme. Deshalb versprechen sie auf ihrer Website reichlich Detailansichten der Latinoschönheit Jennifer Lopez. Über 4000 Hingucker wirft die Software der Suchspezialisten auf Wunsch auf den Monitor: die Sängerin, knapp bekleidet, auf einem Motorrad; beim Filmkuss oder halb nackt im Strandsand. Wer will, kann gleich per Klick CDs mit Hits der Popdiva in Web-Shops bestellen. Mit frivolen Promi-Fotos, direkten Verbindungen zum Internet-Handel oder verbesserter Technik versuchen Fireball & Co., ihre leeren Kassen zu füllen und die Vorherrschaft von Google zu brechen. Das Spähprogramm der US-Firma gilt seit Jahren als effektivster Helfer beim Fahnden nach Wissen im Web. Google hat sich weltweit zum Marktführer entwickelt und hilft in Europa etwa 30 Prozent der Internet-Nutzer schnell bei der Suche", weiß Stefan Karzauninkat, Autor von suchfibel.de, einer Seite mit Erklärungen zu Suchdiensten aller Art. Die Pole-Position sichert sich das Unternehmen aus Kalifornien mit der Page-Rank-Technologie: In den Rankings landen nur Websites vorn, auf die möglichst viele Homepages verweisen. Hingegen durchforsten die Programme anderer Anbieter das Internet meist nach Schlagworten und kehren von ihren Touren oft mit kümmerlichen Ergebnissen oder gleich ganz erfolglos zurück. "Google hat mit Innovationen den Markt umgekrempelt", meint Suchmaschinenexperte Karzauninkat. Die Konkurrenz kopiert jetzt das Erfolgsmodell - in der Hoffnung, mit aufgefüllten Trefferlisten Nutzer zu gewinnen. "Wir haben von Google gelernt", gesteht Detlev Kalb, der beim Internet-Portal Lycos die europaweite Suche der Marken Fireball und Hotbot sowie auf der Lycos-Homepage verantwortet. Die überarbeitete Fireball-Seite, die noch in diesem Sommer online gehen soll, wird das Page-Rank-Popularitätskriterium integrieren und mit der eigenen aufgepeppten Technik verschmelzen. Viel versprechende Neulinge wie Teoma gehen noch einen Schritt weiter: Die Amerikaner haben das Popularitäts- um ein Expertenkriterium bereichert. Sie platzieren nur Homepages an der Spitze ihrer Link-Übersichten, die besonders viele Fachleute und Fachseiten empfehlen. "Wenn jemand etwas zum Thema Tennis wissen will, fragt er doch nicht wahllos seine ganzen Freunde", erklärt Sprecherin Alexa Rudin, "sondern solche, die etwas von dem Sport verstehen." Technische Innovationen allein freilich polieren die rot gefärbten Bilanzen nicht auf, über die fast alle Suchhelfer klagen. Viele von ihnen lassen deshalb Teile ihrer Rankings sponsern. Ganz oben finden sich die Unternehmen wieder, die am meisten zahlen. Auch Google setzt auf diese Finanzspritze. "Wir kooperieren mit 100 000 Werbetreibenden weltweit", sagt Mitgründer Sergey Brin.
    Erfolgreichster Verfechter dieses Geschäftsmodells ist Overture. Die weltweit agierende Firma mit Stammsitz im kalifornischen Pasadena erwirtschaftet das Gros ihres Umsatzes mit bezahlten Ergebnislisten. "Durchschnittlich 37 Cent bekommen wir von Firmen, wenn wir über einen Link einen unserer Nutzer an sie weiterleiten", erklärt Deutschland-Chef Manfred Klaus. Das Prinzip ist so lukrativ, dass sich Overture mit schwarzen Zahlen und kräftigen Investitionen zu einem der Hauptkonkurrenten von Google mausern konnte. So kaufte der Konzern den Daten-Guide Altavista. Für den norwegischen Suchtechnikanbieter Fast legten die Amerikaner 30 Millionen US-Dollar auf den Tisch - eine wichtige Akquisition, denn Tausende von Suchdiensten im Web arbeiten lediglich mit drei Techniken: Google, Yahoos Inktomi und Overtures Fast. Der Newcomer aus den USA sucht nun in Deutschland etwa für Seitenbesucher von T -Online, Freenet oder AOL. In die Tiefen des Web dringt jedoch keines der Systeme vor. "Auch Google kennt nur 25 Prozent des Netzes", erklärt Fachmann Karzauninkat. Weil beispielsweise viele Datenbanken ihre Türen für die großen Web-Fahnder nicht öffnen, schwenken viele Surfer auf Spezial-Suchmaschinen, etwa für Medizin oder Online-Shopping, um (siehe Kasten Seite 87). Als größte Gefahr, die exponierte Marktstellung einzubüßen, entpuppt sich für Google allerdings kein aufstrebender Widersacher, sondern neuerdings der eigene hohe Bekanntheitsgrad. Er reizt Verbreiter unerwünschter Massenwerbung. Ideales Einfallstor für sie ist die Page-Rank-Technik. "Spammer bauen Internet-Seiten, die möglichst oft aufeinander verweisen. Damit kommen sie ganz weit oben in die Trefferlisten", erklärt Stefan Karzauninkat. So stoßen Suchende bei Google nach Eingabe des gewünschten Begriffs zunehmend auf seitenweise WebsiteTipps. Gefüllt mit Marketingmüll."
  7. Puschwadt, O.: Auf Platz eins gegoogelt : Erfolgsgeschichte - Von der Garagenfirma zum Marktführer (2005) 0.01
    0.007003312 = product of:
      0.028013248 = sum of:
        0.028013248 = weight(_text_:und in 5177) [ClassicSimilarity], result of:
          0.028013248 = score(doc=5177,freq=18.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.22038865 = fieldWeight in 5177, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5177)
      0.25 = coord(1/4)
    
    Content
    "Thomas Schick ist begeisterter Internetsurfer. Er nutzt das World Wide Web mehrmals täglich - sowohl beruflich als auch privat. Ich hole mir die Informationen, die ich brauche, fast nur noch aus dem Netz", so der 30-jährige Düsseldorfer. Seine Haupt-Recherchequelle ist dabei die Suchmaschine Google. "Dort finde ich einfach alles", lautet sein kurzes Statement. Wie Schick greift der Großteil der Internetnutzer weltweit auf die mittlerweile beliebteste und meist genutzte Suchmaschine zu. 200 Millionen Abrufe täglich wurden im Jähr 2004 unter www.google.com und den mehr als 85 internationalen Ablegern registriert. Sie rangiert damit weit vor den Suchmaschinen von Yahoo oder Microsoft. Angeblich sollen mehr als 70 Prozent aller Anfragen im Internet über Google laufen. Am 7. September 1998 ging die von den beiden Studenten Larry Page und Sergey Brin entwickelte Suchmaschine als Nachfolger ihrer Suchsoftware Pagerank ins Netz. Mittlerweile gehört ihre einstige Garagen-Firma mit über 3000 Mitarbeitern zu den bekanntesten Marken weltweit und ist seit August 2004 sogar an der Börse notiert. Laut "Financial Times" gehört Google - gemessen am Börsenwert - inzwischen zu den hundert größten Unternehmen weltweit. Der Name Google leitet sich von dem mathematischen Begriff Googol ab, der für eine 1 gefolgt von 100 Nullen steht - also ein riesiger Wert. Hiermit soll auf die immense Zahl von Webseiten, auf die Google zugreift, bereits im Namen hingewiesen werden. In Wirklichkeit greift Google allerdings nach Angaben des Computerverlages heise.de "nur" auf etwas mehr als acht Milliarden Seiten zu. Bei geschätzten 500 Milliarden Webseiten Weltweit macht sich diese Zahl dann doch recht klein aus. Dennoch umfasst die Google-Suche weit mehr als die anderer Suchmaschinen: Doch nicht nur eine allgemeine Text-Suche ist bei Google möglich. Es gibt auch Funktionen, die nach Bildern suchen oder auf Wörterbücher, Fahrpläne der Bahn, Stadtpläne und Aktienkurse zugreifen. Auch die Shopping-Suchmaschine Froogle oder der Freemail-Dienst Gmail gehören mittlerweile zum Angebot. Die Omnipräsenz von Google in Deutschland lässt sich allein schon daran ablesen, dass der Begriff "googeln" sogar Einzug in den guten alten Duden gefunden hat. Dort findet man den Eintrag seit der 23. Auflage (2004). "Googeln" bedeutet laut Duden im Allgemeinen etwas im Internet suchen und im Besonderen die Suche in der Suchmaschine Google. Die Marke Google ist also zu einem Synonym für Internetrecherche schlechthin geworden. Dem minimalistischen Design der Startseite ist Google bis heute treu geblieben. An bestimmten Tagen oder zu Ereignissen - so zum Beispiel an Weihnachten oder zu den Olympischen Spielen - wird das Logo allerdings zum Thema des Tages passend verändert. Diese so genannten Google Doodles ersetzen dann das normale Logo. Sie werden alle von dem Koreaner Dennis Hwang entworfen.
    Das Erfolgsrezept von Google ist die ursprüngliche Suchsoftware Pagerank. Sie sucht mit atemberaubender Geschwindigkeit nicht nur nach Schlagworten, sondern auch nach Empfehlungen anderer Web-Seiten; ihrer Relevanz sowie ihrer Abfrage und listet sie danach auf. Jeder Link von außen, der auf eine Webseite verweist, wird als Votum für diese angerechnet. Je höher die Relevanz der verweisenden Webseite ist, desto mehr Gewicht hat ihre "Stimme". Dies hat allerdings auch zu viel Kritik geführt. Insbesondere deshalb, weil es möglich sein soll, die Ergebnisse einer Suche zu manipulieren. Das Werbeprogramm AdWords, bei dem Werbetreibende Kontext bezogen - also abhängig vom Suchbegriff - Anzeigen schälten, die am rechten Rand der Suchergebnisse auftauchen, sei von außen steuerbar, so Werbekunden. Ferner sollen auch bei den eigentlichen Suchergebnissen nicht immer die wirklich relevantesten an vorderster Stelle stehen, so die Kritiker. Laut Google wird die Technik ständig so verbessert, dass derartige Manipulationen kaum noch vorkommen können. Auch beim Jugendschutz muss sich bei Google noch einiges tun. Eine Internet-Recherche von Professor Marcel Machill von der Universität Leipzig ergab, dass die Eingabe des Begriffes "Teenies" den User zunächst auf pornographische Seiten führt. Doch laut Google will man auch dieses Problem schnellstmöglich beheben. Für Internet-User Thomas Schick ist die Kritik an Google allerdings nicht relevant. "Selbst wenn es so sein sollte, dass einige Ergebnisse weniger interessant für mich sind oder auf kommerzielle Webseiten führen - bei Google habe ich noch immer die größte Trefferquote, wenn ich im Netz recherchiere." Übrigens waren im Jahr 2004 die meist gesuchten Begriffe bei Google Routenplaner, Wetter und Telefonbuch."
    Footnote
    Mit einem Foto von Larry Page (links) und Sergey Brin
  8. Pasch, R.: Mit Sex zur CDU gelockt : Ortsverband operierte mit fragwürdigen Begriffen im Internet (2002) 0.01
    0.0069599473 = product of:
      0.02783979 = sum of:
        0.02783979 = weight(_text_:und in 861) [ClassicSimilarity], result of:
          0.02783979 = score(doc=861,freq=10.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.219024 = fieldWeight in 861, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=861)
      0.25 = coord(1/4)
    
    Content
    Ein Bibliothekar aus Magdeburg stieß beim Surfen im Internet darauf, dass man beim Eingeben der Begriffe "Sex" und "Judenvernichtung", aber auch bei Worten wie "Stalingrad" und "Lenin" oder "Pille" und "Reißverschluss" auf den CDU-Seiten landen konnte. Der Mann wandte sich daraufhin an die Presse. Ortsverbandsvorsitzender Hochapfel bemühte sich am Freitag um Schadensbegrenzung: "Es tut mir leid." Die Idee für die Liste stammt von Rolf von Briel, Vorstandsmitglied der Fuldataler CDU und für die Erstellung der Internet-Seiten verantwortlich. Er habe laut Hochapfel auf eine Liste der Gesellschaft für Deutsche Sprache zurück gegriffen, in der die meist benutzten Begriffe der vergangenen hundert Jahre enthalten seien. Und darunter befanden sich eben auch solche "mit denen wir gar nichts zu tun haben wollen", wie Hochapfel versicherte. Waren "Bioladen" oder "Pop" eher unverfänglich, führten bisher auch Begriffe wie "Deportation" oder "Führer" auf die Fuldataler CDU-Seiten. Über solche - auf Internetseiten im Normalfall unsichtbaren - Schlüsselbegriffe (Keywords) wird die Verbindung zu den Suchmaschinen hergestellt. Der Inhalt der Keyword-Liste entscheidet, an welcher Stelle eine Seite in den Ranglisten einer Suchmaschine auftaucht. In seinem Eifer, möglichst viele Surfer anzulocken, sei von Briel allerdings etwas zu "unkritisch" vorgegangen, tadelte der Vorsitzende Hochapfel am Freitag das fehlende Gespür seines Parteifreundes. Der Inhalt der CDU-Seiten selbst ist allerdings eher nüchtern: Informationen über die Partei, Bilder vom Vorstand, Wahlkampfparolen. Autor von Briel wollte sich am Freitag nicht zu seinem Vorgehen äußern. Über mögliche Konsequenzen für den virtuellen Fehltritt des Parteimitglieds solle bei einer Vorstandssitzung entschieden werden, sagte Hochapfel."
  9. Klems, M.: Finden, was man sucht! : Strategien und Werkzeuge für die Internet-Recherche (2003) 0.01
    0.0069599473 = product of:
      0.02783979 = sum of:
        0.02783979 = weight(_text_:und in 1719) [ClassicSimilarity], result of:
          0.02783979 = score(doc=1719,freq=10.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.219024 = fieldWeight in 1719, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1719)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: FR Nr.165 vom 18.7.2003, S.14 (T.P. Gangloff) "Suchmaschinen sind unverzichtbare Helferinnen für die Internet-Recherche Doch wenn die Trefferliste zu viele Links anbietet, wird die Suche schon mal zur schlafraubenden Odyssee. Wer angesichts umfangreicher Trefferlisten verzweifelt, für den ist die Broschüre Finden, was man sucht! von Michael Klems das Richtige. Klems klärt zunächst über Grundsätzliches auf, weist darauf hin, dass die Recherchehilfen bloß Maschinen seien, man ihre oft an Interessen gekoppelten Informationen nicht ungeprüft verwenden solle und ohnehin das Internet nie die einzige Quelle sein dürfe. Interessant sind die konkreten Tipps - etwa zur effizienten Browsernutzung (ein Suchergebnis mit der rechten Maustaste in einem neuen Fenster öffnen; so behält man die Fundliste) oder zu Aufbau und Organisation eines Adressenverzeichnisses. Richtig spannend wird die Broschüre, wenn Klems endlich ins Internet geht. Er erklärt, wie die richtigen Suchbegriffe die Trefferquote erhöhen: Da sich nicht alle Maschinen am Wortstamm orientierten, empfehle es sich, Begriffe sowohl im Singular als auch im Plural einzugeben; außerdem plädiert Klems grundsätzlich für Kleinschreibung. Auch wie Begriffe verknüpft werden, lernt man. Viele Nutzer verlassen sich beim Recherchieren auf Google - und übersehen, dass Webkataloge oder spezielle Suchdienste nützlicher sein können. Klems beschreibt, wann welche Dienste sinnvoll sind: Mit einer Suchmaschine ist man immer auf dem neuesten Stand, während ein Katalog wie Web.de bei der Suche nach bewerteter Information hilft. Mets-Suchmaschinen wie Metager.de sind der Joker - und nur sinnvoll bei Begriffen mit potenziell niedriger Trefferquote. Ebenfalls viel versprechende Anlaufpunkte können die Diskussionsforen des Usenet sein, erreichbar über die Groups-Abfrage bei Google. Wertvoll sind die Tipps für die Literaturrecherche. Eine mehrseitige Linksammlung rundet die Broschüre ab"
  10. Karzaunikat, S.: Google zugemüllt : Spam überschwemmt die Suchergebnisse (2003) 0.01
    0.0069599473 = product of:
      0.02783979 = sum of:
        0.02783979 = weight(_text_:und in 1963) [ClassicSimilarity], result of:
          0.02783979 = score(doc=1963,freq=10.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.219024 = fieldWeight in 1963, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1963)
      0.25 = coord(1/4)
    
    Content
    Die Suche mit Google, früher meist auf Anhieb erfolgreich, bereitet in letzter Zeit zunehmend Frust. Sucht man zum Beispiel mit den Begriffen "kfz kaufen lüneburg" nach Autohändlern in der Heidestadt, erhält man als ersten Treffer eine Site, die laut Inhaltsangabe in der Trefferliste die Begriffe "Eu-Auto Neuwagenmarkt kaufen Reimport-Auto Fahrzeug" enthält. Als Adresse gibt die Suchmaschine eu-reimport-auto.department1.de/kaufen/ an. Doch dieser Treffer passt nur scheinbar gut zu der Anfrage. Klickt man nämlich auf den Link, landet man nach mehreren Weiterleitungen auf verschiedenen anderen Sites, meistens auf einer allgemeinen Startseite von eBay, http://pages.ebay. de, auf der man dann vergeblich nach "lüneburg" und "kfz" Ausschau hält. Sucht man mit der Abfrage "diascanner test" nach Diascanner-Vergleichen, dann führt der erste Treffer zur Ergebnisseite einer anderen Suchmaschine namens Biveroo mit nutzlosen Verweisen, obwohl der Link angeblich auf die Site www.sisira.de führen soll. Die zweite Site in der Trefferliste listet unter der Domain diascanner.org eBay-Auktionen und Links des Pay-forPerformance-Anbieters Espotting - also gekaufte Links, Werbung. Testberichte? Auch hier Fehlanzeige. Insgesamt finden sich unter den ersten zehn Verweisen nur drei relevante. Surfer erhalten bei Google-Recherchen im Umfeld von Produkten und Dienstleistungen immer mehr unbrauchbare oder in anderer Weise ungewöhnliche Treffer: Webseiten, die mit der Abfrage kaum etwas zu tun haben, zum Teil nicht einmal den Suchbegriff enthalten, wirre Linksammlungen oder gar Ergebnisseiten anderer Suchmaschinen. Mitunter landet man nach dem Klick auch bei einer anderen Adresse, als Googie in seiner Ergebnisliste angibt. Immer seltener finden sich neutrale Informationen; statt dessen landet der Surfer immer häufiger in irgendwelchen Online-Shops oder auf E-Commerce-Portalen. Verseuchte Ergebnisse Die Verseuchung der GoogleSuchergebnisse durch aufdringliche Geschäftemacherei ist findigen Tricksern zu verdanken. Sie haben Wege gefunden, bei immer mehr Suchanfragen ihre Links unter den ersten Treffern zu platzieren. So fällt nun auch Google einer Entwicklung anheim, die viele andere Suchdienste bereits vor Jahren heimgesucht und weitgehend unbrauchbar gemacht hat. Dabei galt doch der geniale Google-Algorithmus zur Bestimmung der Trefferrelevanz ("Ranking") lange Zeit als immun gegen Manipulationsversuche. Der Suchmaschinenprimus zieht nicht nur die in den HTMLSeiten enthaltenen Schlüsselwörter heran, wie es die Suchdienste in der Vor-Google-Ära taten. Stattdessen bestimmen bei Google vor allem Verweise fremder Seiten und damit die Wertschätzung durch andere Webmaster darüber, welche Position eine Website in der Trefferliste erhält. Aber nicht nur die bloße Anzahl der Links, sondern auch der Rang der verweisenden Website fließt in die Bewertung ein. Daraus errechnet Google den so genannten Page Rank, benannt übrigens nach dem Erfinder Larry Page [11. Jedermann kann sich mit der erweiterten Version der Google-Toolbar für den Internet Explorer den Page Rank beliebiger Seiten anzeigen lassen.
  11. Lanvent, A.: Licht im Daten Chaos (2004) 0.01
    0.0069599473 = product of:
      0.02783979 = sum of:
        0.02783979 = weight(_text_:und in 2806) [ClassicSimilarity], result of:
          0.02783979 = score(doc=2806,freq=10.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.219024 = fieldWeight in 2806, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2806)
      0.25 = coord(1/4)
    
    Content
    "Bitte suchen Sie alle Unterlagen, die im PC zum Ibelshäuser-Vertrag in Sprockhövel gespeichert sind. Finden Sie alles, was wir haben - Dokumente, Tabellen, Präsentationen, Scans, E-Mails. Und erledigen Sie das gleich! « Wer diese Aufgabe an das Windows-eigene Suchmodul vergibt, wird zwangsläufig enttäuscht. Denn das Betriebssystem beherrscht weder die formatübergreifende Recherche noch die Kontextsuche, die für solche komplexen Aufträge nötig sind. Professionelle Desktop-Suchmaschinen erledigen Aufgaben dieser Art jedoch im Handumdrehen - genauer gesagt in einer einzigen Sekunde. Spitzenprogramme wie Global Brain benötigen dafür nicht einmal umfangreiche Abfrageformulare. Es genügt, einen Satz im Eingabefeld zu formulieren, der das Thema der gewünschten Dokumente eingrenzt. Dabei suchen die Programme über alle Laufwerke, die sich auf dem System einbinden lassen - also auch im Netzwerk-Ordner (Shared Folder), sofern dieser freigegeben wurde. Allen Testkandidaten - mit Ausnahme von Search 32 - gemeinsam ist, dass sie weitaus bessere Rechercheergebnisse abliefern als Windows, deutlich schneller arbeiten und meist auch in den Online-Postfächern stöbern. Wer schon öfter vergeblich über die Windows-Suche nach wichtigen Dokumenten gefahndet hat, kommt angesichts der Qualität der Search-Engines kaum mehr um die Anschaffung eines Desktop-Suchtools herum. Aber Microsoft will nachbessern. Für den Windows-XP-Nachfolger Longhorn wirbt der Hersteller vor allem mit dem Hinweis auf das neue Dateisystem WinFS, das sämtliche Files auf der Festplatte über Meta-Tags indiziert und dem Anwender damit lange Suchläufe erspart. So sollen sich anders als bei Windows XP alle Dateien zu bestimmten Themen in wenigen Sekunden auflisten lassen - unabhängig vom Format und vom physikalischen Speicherort der Files. Für die Recherche selbst ist dann weder der Dateiname noch das Erstelldatum ausschlaggebend. Anhand der kontextsensitiven Suche von WinFS kann der Anwender einfach einen Suchbefehl wie »Vertragsabschluss mit Firma XYZ, Neunkirchen/Saar« eingeben, der dann ohne Umwege zum Ziel führt."
    Footnote
    Darin auch 2 Teilbeiträge: (1) Know-how - Suchverfahren; (2) Praxis - Windows-Suche und Indexdienst
  12. Schetsche, M.; Lehmann, K.; Krug, T.: ¬Die Google-Gesellschaft : Zehn Prinzipien der neuen Wissensordnung (2005) 0.01
    0.0069599473 = product of:
      0.02783979 = sum of:
        0.02783979 = weight(_text_:und in 3488) [ClassicSimilarity], result of:
          0.02783979 = score(doc=3488,freq=10.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.219024 = fieldWeight in 3488, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3488)
      0.25 = coord(1/4)
    
    Abstract
    Suchmaschinen gelten bei Reisen durch den Datendschungel als nützliche Gefährten und können sogar Leben retten: Wie der Sender BBC im August 2004 berichtete, wurde der im Irak entführte Journalist John Martinkus auf Grund von Internet-Recherchen freigelassen. Die Entführer überprüften Martinkus' Aussagen per Google-Suche und stellten so sicher, dass dieser weder für ein US-Unternehmen oder den CIA arbeitet noch US-Amerikaner ist. Der australische Journalist kam mit einem gehörigen Schrecken davon; dass seine journalistischen Berichte online gelesen werden konnten, rettete ihm das Leben. Auf den ersten Blick irritiert und verwundert diese Episode zwar, beim zweiten Blick wird jedoch deutlich, dass das Internet inzwischen die Rolle ausfüllt, die Experten immer wieder prophezeit hatten: die eines globalen Gedächtnisses, einer Bibliothek menschlichen Wissens; zugänglich in allen Winkeln der Erde, gewinnt es in stets neuen - oft unvorhergesehenen - Zusammenhängen an Bedeutung. Die Internet-Recherche, da sind sich alle einig, ist heute zu einer zentralen Kulturtechnik geworden. Sie stellt ein Werkzeug dar, über das immer größere Erfahrungsbereiche des wissensgesellschaftlichen Alltags erschlossen werden. Dies verweist auf zwei andere Aspekte von Suchmaschinen: Wer das Internet mit seinen enormen Potenzialen nutzen will, kommt ohne sie nicht aus. Und das spiegelt sich zunehmend auch in ihrer wirtschaftlichen Bedeutung wider. Als börsennotierte Unternehmen besitzen sie einen enormen Wert - ohne ein anfassbares Produkt herzustellen, geschweige denn für ihre wichtigste Dienstleistung, das Suchen nach Informationen, Geld zu verlangen.
    Content
    Enthält die Kapitel: Mythos Google Wissen war gestern, googlen ist heute und die Prinzipien: 1. Die Suchmaschine als Universalschnittstelle 2. Die mediale Erschaffung der Wirklichkeit 3. Neue Wirklichkeit, neue Öffentlichkeit 4. Ungleichheit durch Gerechtigkeit 5. Unhintergehbare technische Normen 6. Wiederverzauberung der Welt 7. Die neue Ökonomie 8. Der Kampf um Aufmerksamkeit 9. Information als Transaktionsressource 10. Dissoziative UmOrdnung des Wissens
  13. Lokale Suche: T-Info landet Volltreffer in Deutschland : Beta-Version: Suchen.de (2006) 0.01
    0.0069599473 = product of:
      0.02783979 = sum of:
        0.02783979 = weight(_text_:und in 4979) [ClassicSimilarity], result of:
          0.02783979 = score(doc=4979,freq=10.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.219024 = fieldWeight in 4979, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4979)
      0.25 = coord(1/4)
    
    Abstract
    Suchmaschinen wissen auf fast jede Frage eine Antwort, aber den Bäcker um die Ecke finden sie noch nicht - zumindest nicht in Deutschland. Doch jetzt will die Telekom-Tochter T-Info auch hierzulande eine Suche anbieten, mit deren Hilfe Internet-Surfer die nächste PKW-Werkstatt oder einen Klempner mit 24-StundenService finden können. Der nahe liegende Name: Suchen.de. Die lokale Suche arbeitet wie eine aufgebohrte Version des Branchenbuches "Gelbe Seiten". Sie verraten der Site Ihren Wohnort und einen Suchbegriff und erhalten beispielsweise eine Liste mit Tanzschulen in Ihrer Nähe. Das allein macht den neuen Service freilich nicht revolutionär - beeindruckend ist vielmehr die Verschmelzung verschiedener Infoquellen zu einem Komplett- paket. Weil T-Info die Daten der Gelben Seiten, einer Websuche inch eines Routenplaners vereint, verrät es auch die Öffnungszeiten der Tanzschule, deren Telefonnummer und eine Anfahrtsskizze. T-Info: Beta der lokalen Suche kommt zur CeBIT CHIP konnte Suchende schon in Funktion erleben. Derzeit fehlen bei einigen Suchtreffern noch die nützlichen Zusatzinformationen; auch das Layout der Seite wirkt noch altbacken. Durchdacht: In einer separaten Bildschirmspalte listet Suchende Worte, die oft auf den gefundenen Seiten vorkommen. Wer dort auf "Tango" klickt, soll nur noch Tanzschulen sehen, die den Tanz auch lehren. Laut Antonio De Mitri, dem Pressesprecher von T-Info, wird das Aussehen der Seite noch überarbeitet. Eine Beta-Version der Suchmaschine will die Telekom-Tochter während der CeBIT freischalten - und konkurriert plötzlich mit bekannten Wehgrößen: Sowohl Google als auch das Internet-Portal Web.de möchten ihre Angebote noch in der ersten Hälfte 2006 mit einer lokalen Suche aufwerten. Peinlich für Google: Eigentlich wollte der Platzhirsch schon im vergangenen Jahr eine lokale Variante seines Dienstes starten. Derzeit existiert aber nach wie vor nur eine amerikanische Seite von "Google local". Konkurrent Yahoo präsentiert schon seit längerer Zeit eine ortsbezogene Suchfunktion in Kooperation mit dem Verzeichnis "Das Örtliche". Allerdings fehlen dem Angebot die Vernetzung der Informationen, und die Pflege der Daten lässt zu wünschen übrig: Als zweiten Treffer bei der Suche nach einer KFZ-Werkstatt in München bekommen Surfer den Link zu einem Krankentransport.
  14. Schröder, C.: Textschnipsel des Weltwissens : Verlagen bereitet die Digitalisierung von Büchern Sorge, Forscher plädieren für die ungehinderte Verbreitung ihrer Werke im Internet (2006) 0.01
    0.0069599473 = product of:
      0.02783979 = sum of:
        0.02783979 = weight(_text_:und in 5113) [ClassicSimilarity], result of:
          0.02783979 = score(doc=5113,freq=10.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.219024 = fieldWeight in 5113, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=5113)
      0.25 = coord(1/4)
    
    Content
    "Wem gehört das Weltwissen? Der ganzen Welt natürlich, so würde man spontan antworten. Also müsste theoretisch das Wissen der Welt auch der ganzen Welt jederzeit zugänglich sein - sofern dies technisch denn möglich wäre. Im Rechtsstreit des InternetRiesen Google mit der Wissenschaftlichen Buchgesellschaft (WBG), die ihren Sitz in Darmstadt hat, trafen nun diverse Interessen- und Rechtslagen aufeinander. Dass die Buchgesellschaft ihre Klage zunächst zurückgezogen hat, heißt noch lange nicht, dass die Auseinandersetzung beendet wäre. Der Hintergrund: Seit 2004 baut die Internet-Suchmaschine ihr Portal "Google Print" (www.print.google.com) auf. Dort können digitalisierte Auszüge, zunächst aus englischsprachigen Büchern, kostenlos angeklickt und gelesen werden können. Google wirbt gar bei den Verlagen, die Bücher in das Projekt einzubinden, weil dies die denkbar beste Werbung sei. Umstritten ist jedoch vor allem die so genannte Opt-Out-Regelung, wonach ein Verlag explizit Widerspruch anmelden muss, wenn er mit einer Teilveröffentlichung seiner Werke nicht einverstanden ist. Anders gesagt: Google nimmt sich zunächst das Recht, Bücher, wenn auch nur auszugsweise, ohne Genehmigung des Urhebers online verfügbar zu machen. Mit Unterstützung des Börsenvereins des Deutschen Buchhandels wollte die WBG gerichtlich verhindern, dass auch Werke aus Deutschland eingescannt werden. Die Klage wurde nun zurückgezogen, weil das Hamburger Gericht erstens keine Urheberrechtsverletzung erkennen konnte und sich zudem für nicht zuständig erklärte, weil das Einscannen selbst in den USA vorgenommen wird. Hintergrund Urheberrechtsnovelle Die Furcht der Verlage dürfte nicht unbegründet sein, gerade vor dem Hintergrund, dass in Deutschland zur Zeit der Entwurf einer Urheberrechtsnovelle heftig diskutiert wird, wonach es Bibliotheken erlaubt werden soll, ihre Bestände in digitalisierter Form beliebig oft ihren Besuchern zur Verfügung zu stellen. Das könnte im Extremfall zur Folge haben, dass beispielsweise die Anschaffung eines einzigen Exemplars eines Titels ausreichend wäre, um eine ganze Universität damit zu versorgen. So weit ist es allerdings noch nicht. Und auch Google Print dürfte in seiner jetzigen Form für keinen Verlag zu einer Gefahr werden - zwei bis drei Textschnipsel pro Buch ersetzen noch nicht den Kauf. Doch die Tendenz ist klar, und die Klage der WBG sollte mit Sicherheit auch Signalcharakter haben; man überlegt dort, nun vor dem Bundesgerichtshof in Karlsruhe einen Musterprozess anzustrengen. Den Interessen der Verlage stehen hingegen die von Forschern, gerade aus dem naturwissenschaftlichen Bereich, entgegen, die für das Recht auf ungehinderte Verbreitung ihrer Arbeiten im Internet plädieren. Google jedenfalls, das steht fest, wird weiterhin Konzepte entwickeln, um das Wissen der Welt unter dem Label "Google Print" zu systematisieren."
  15. deu: Suchmaschinen gegen den Infostau : Deutsches Forschungsnetz (2001) 0.01
    0.0067389403 = product of:
      0.026955761 = sum of:
        0.026955761 = weight(_text_:und in 6725) [ClassicSimilarity], result of:
          0.026955761 = score(doc=6725,freq=6.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.21206908 = fieldWeight in 6725, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=6725)
      0.25 = coord(1/4)
    
    Content
    "Das Web wuchert. Das Informationsangebot lässt zwar mit Maschinen nach Stichwörtern durchsuchen. Doch die Ergebnisse sind teils ernüchternd oder erschlagend: Die Fundlisten sind lang und trennen nur manchmal die Spreu vom Weizen. Da geben nicht nur Normalnutzer schnell auf. Auch Studierende streichen die Web-Segel. Nur wenige beschaffen sich wissenschaftliche Informationen aus dem Internet, ergab eine Studie der Sozialforschungsstelle an der Universität Dortmund. Zwar grast knapp zwei Drittel des akademischen Nachwuchses das Web mit den üblichen Suchmaschinen ab - durchaus auch nach fachlichen Informationen. Doch es herrscht allgemeine Unzufriedenheit mit den Ergebnissen der Recherchen. Wichtigster Kritikpunkt: ein umfassendes Auflisten aller Treffer ist meist nur hinderlich. Biologen etwa, die nach Veröffentlichungen über Eiweiße suchen, sind weniger an Küchenrezepten mit Eischnee interessiert - die sie aber mitserviert bekommen. Selbst die Recherche nach "Protein ohne Eiweiß", die bei einigen Suchmaschinen möglich ist, führt noch zu einem mittleren Informationsstau. Eine Maschine, die sich in Biologie auskennt und ausschließlich dieses Feld beackert, wäre gut. Im Auftrag des Bildungsministeriums entwickelt der Verein zur Förderung eines Deutschen Forschungsnetzes (DFN) nun solche fachspezifischen Suchmaschinen. Wie üblich, soll die Software unablässig im Netz stöbern - und die Funde nach einem Schlagwortkatalog festgelegten Fachgebieten zuordnen. Anfragen durchstöbern dann nur die entsprechende Sektion. Der Bezug der Dokumente untereinander, die Links auf den Seiten werden zur Bewertung herangezogen. Damit, hoffen die Forscher, sei ein effektives Ranking möglich: Die Dateien, auf die am häufigsten verwiesen wird, landen ganz oben. Die erfolgreiche allgemeine Suchmaschine Google arbeitet nach diesem Prinzip. Das Ministerium zahlt dafür 1,2 Millionen Mark. DFN-Chef Eike Jessen: "Spätestens im Frühjahr 2003 soll die innovative Suchsoftware für die Mitglieder des DFN-Vereins sowie für andere akademische Einrichtungen frei verfügbar sein.""
  16. Becker, A: Neue Suchmaschinen für Fortgeschrittene : Neue Such-Angebote: Die fünf Top-Newcomer im Überblick (2000) 0.01
    0.0067389403 = product of:
      0.026955761 = sum of:
        0.026955761 = weight(_text_:und in 1526) [ClassicSimilarity], result of:
          0.026955761 = score(doc=1526,freq=6.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.21206908 = fieldWeight in 1526, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1526)
      0.25 = coord(1/4)
    
    Abstract
    Die Hierarchie schien klar: Erst kommt die Suchmaschine Google - und dann lange nichts. Doch 5 Newcomer greifen jetzt den Marktführer an. Ihr Ziel heißt: Finden statt Suchen. - Mit 2 Abbildungen, u.a. einem Marktüberblick aus 02'2003
    Content
    Kart00.com - Anstatt seine Resultate traditionell als Liste darzustellen, zeichnet der Meta-Sucher eine Ergebniskarte. Vorteil: Die bildliche Darstellung sorgtfür einen überzeugenden Themenüberblick. Teoma.com - Die Maschine fahndet mit drei unterschiedlichen Methoden: via Volltextsuche, über Expertenseiten und mithilfe von Schlagwörtern. Vorteil: Durch die innovative 3D-Suche erzielt Teoma bei speziellen Recherchen beachtliche Ergebnisse. Wondir.com - Zu jeder Anfrage gibt es bei Wondir Antworten auf fünf Ebenen. Von einer Trefferliste bis hin zu einem Experten-MailKontakt. Vorteil: ideal für komplizierte und wissenschaftliche Themen. Turb10.com - Der neue britische Meta-Crawler durchforstet gleichzeitig sowohl das normale als auch das Deep Web. Vorteil: Dank Turb10.com muss niemand mehr für Deep-Web-Recherchen auf spezielle Zusatzprogramme zurückgreifen. Hotbot.com - Der Ex-Volitextdienst setzt jetzt auf Service. Über seine Startseite lassen sich vier Top-Dienste (u.a. Google, FAST) abfragen. Vorteil: Hotbot bietet vier Spitzenangebote auf einen Klick.
  17. Lehmann, K.; Machill, M.; Sander-Beuermann, W.: Blackbox Suchmaschine : Politik für Neue Medien. Interview mit Marcel Machill und Wolfgang Sander-Beuermann (2005) 0.01
    0.0067389403 = product of:
      0.026955761 = sum of:
        0.026955761 = weight(_text_:und in 3490) [ClassicSimilarity], result of:
          0.026955761 = score(doc=3490,freq=6.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.21206908 = fieldWeight in 3490, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3490)
      0.25 = coord(1/4)
    
    Abstract
    Google & Co. sind die zentralen Marktplätze im Internet; ohne sie würden sich nur wenige Menschen im Web zurechtfinden. Über 90 Prozent aller Internet-Nutzer greifen deshalb auf Suchmaschinen zurück - nicht immer als kundige Verbraucher, denn sowohl das WWW als auch die Suchmaschinen haben ihre Untiefen. Es beginnt beim Netz der Hyperlinks: Die Zahl der weltweit vorhandenen Webseiten ist technisch nicht zu bestimmen. Die Universität Bielefeld schätzt die Größe des frei zugänglichen WWW Anfang 2005 auf 10-15 Milliarden Seiten; Informationen in Datenbanken, auf geschlossenen und dynamischen Webseiten sowie die mit Webseiten verknüpften Dokumente hier nicht mit eingerechnet. Bei dieser Zahl wird klar, wie wichtig Suchmaschinen sind, um Informationen zu finden. Doch erfassen diese bei weitem nicht alles: Zwar verzeichnete Google im Januar 2005 laut eigener Aussage rund 8 Milliarden Webseiten, doch dürfte ein erheblicher Teil des WWW fehlen. Für Deutschland errechnete Andreas Pothe in einer Untersuchung für das Regionale Rechenzentrum für Niedersachsen, dass von den geschätzten 320 Millionen deutschen Webseiten nur 60 Prozent beim Marktführer Google zu finden seien. Schlusslicht Fireball kennt gerade einmal jede zweite deutsche Domain - und entsprechend weniger Webseiten.
  18. Batke, J.-M.: Wie sich Melodien finden lassen (2005) 0.01
    0.006602786 = product of:
      0.026411144 = sum of:
        0.026411144 = weight(_text_:und in 3495) [ClassicSimilarity], result of:
          0.026411144 = score(doc=3495,freq=4.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.20778441 = fieldWeight in 3495, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3495)
      0.25 = coord(1/4)
    
    Abstract
    Not macht erfinderisch, dachte sich wohl der Mann, der auf einen Passanten zustürzte, ihn fragte »Entschuldigen Sie, kennen Sie...« und ihm daraufhin Folgendes vorsang: »Schnief, schnief di schneuf, schnippeldischnief, dischneuf«. Gesucht ist offensichtlich der Titel eines Liedes, von dem weder Interpret noch Komponist, sondern nur die Melodie bekannt ist. Diese Szene, die in einer Folge aus Nonstop-Nonsens mit Dieter Hallervorden zu sehen war, ist längst Fernsehgeschichte. Heute ist es näher liegend, eine Suchmaschine zu befragen. Wer aber eine Suchmaschine wie Google nutzt, trifft auf ein Problem: um den unbekannten Titel zu beschreiben, ist lediglich die Eingabe von Text möglich; andere Eingabevarianten bieten Google & Co. nicht an. Sind Titel und Interpret wie im obigen Szenario aber unbekannt, wird es schwierig, eine Melodie nur in Textform zu beschreiben. Einfacher wäre es, eine Melodie zu singen oder zu summen.
  19. Google(TM) Scholar erleichtert institutionellen Zugang (2005) 0.01
    0.006602786 = product of:
      0.026411144 = sum of:
        0.026411144 = weight(_text_:und in 3973) [ClassicSimilarity], result of:
          0.026411144 = score(doc=3973,freq=4.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.20778441 = fieldWeight in 3973, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3973)
      0.25 = coord(1/4)
    
    Content
    "Seit Juni 2005 ermöglicht EBSCOs Linkresolver Link Source(TM) allen A-to-Z-Kunden ihre Online-Ressourcen über die Suchmaschine Google Scholar anzusteuern. So sind in akademischen Bibliotheken, die Google Scholar nutzen, Links auf Ebene der einzelnen Artikel für die laufenden Abonnements der Einrichtung eingerichtet. Diese Links führen zum Link Source Menu der Bibliothek, von wo aus der Nutzer direkten Zugriff auf den gewünschten Artikel hat. Der elektronische Volltext ist somit nur ein oder zwei Mausklicks von der Suchergebnisliste in Google Scholar entfernt. Durch die Kombiantion von Google mit Google(TM) Scholars Indexierung von Fachaufsätzen, Dissertationen, Büchern, Vorabdrucken, Abstracts und technischen Berichten erhalten Bibliotheken Gelegenheit, ihre Sammlungen besser nutzbar zu machen. EBSCO bietet diesen Service allen A-to-ZKunden, die einen OpenURL Linkresolver eines beliebigen Anbieters nutzen, ohne zusätzliche Kosten an."
    Source
    Information - Wissenschaft und Praxis. 56(2005) H.5/6, S.277
  20. Berry, M.W.; Browne, M.: Understanding search engines : mathematical modeling and text retrieval (1999) 0.01
    0.006602786 = product of:
      0.026411144 = sum of:
        0.026411144 = weight(_text_:und in 5777) [ClassicSimilarity], result of:
          0.026411144 = score(doc=5777,freq=4.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.20778441 = fieldWeight in 5777, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5777)
      0.25 = coord(1/4)
    
    Classification
    ST 230 [Informatik # Monographien # Software und -entwicklung # Software allgemein, (Einführung, Lehrbücher, Methoden der Programmierung) Software engineering, Programmentwicklungssysteme, Softwarewerkzeuge]
    RVK
    ST 230 [Informatik # Monographien # Software und -entwicklung # Software allgemein, (Einführung, Lehrbücher, Methoden der Programmierung) Software engineering, Programmentwicklungssysteme, Softwarewerkzeuge]

Years

Languages

  • d 463
  • e 38
  • More… Less…

Types

  • a 401
  • m 54
  • el 51
  • x 13
  • s 9
  • r 2
  • p 1
  • More… Less…

Subjects

Classifications