Search (500 results, page 17 of 25)

  • × theme_ss:"Suchmaschinen"
  1. Schlüter, C.: Kapitale Suchmaschine : Angesichts der Bedeutung von Google werden Warnungen vor einer Entdemokratisierung des Wissens laut (2006) 0.01
    0.008014987 = product of:
      0.03205995 = sum of:
        0.03205995 = weight(_text_:und in 5114) [ClassicSimilarity], result of:
          0.03205995 = score(doc=5114,freq=20.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.27102837 = fieldWeight in 5114, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5114)
      0.25 = coord(1/4)
    
    Content
    "Das hatte sich Andreas Auth anders vorgestellt. Der Direktor der Wissenschaftlichen Buchgesellschaft Darmstadt wollte mit einem Antrag auf einstweilige Verfügung das US-Internetportal Google daran hindern, ohne Genehmigung des Verlags Bücher zur Volltextsuche anzubieten. Doch auf Anraten des Landgerichts Hamburg, wo der Fall vorige Woche zur Verhandlung stand, zogen die Darmstädter den Antrag zurück. Zumal das Gericht erklärt hatte, dass die Frage nach der Scan-Erlaubnis nur in den USA zu klären sei. Gefahr für Vielfalt und Qualität Längst hat der weltweit erfolgreichste Suchmaschinenbetreiber begonnen, die kompletten Inhalte von Millionen Bänden aus amerikanischen und britischen Bibliotheken einzuscannen. In diesen Texten können Internetsurfer dann weltweit suchen. Sie bekommen als Antwort auf Suchanfragen aber nicht den kompletten Buchtext zu sehen, sondern nur kurze Schnipsel. Weil es sich vorwiegend um englischsprachige Literatur handelt, die da in absehbarer Zeit der globalen Internetcommunity zur Verfügung stehen soll, gibt es nicht nur juristische Bedenken. Befürchtet wird vor allem kulturelle Hegemonie: Der Vorrang der englischen Sprache werde andere Sprachen und damit auch andere Kulturen verdrängen. Überdies könne man Sprache, Bildung und Wissenschaft nicht einem privaten, letztlich seinen Aktionären und deren Renditeerwartungen verpflichteten Konzern überlassen. Sollen etwa die Auswahlkriterien für die ins Netz gestellten Bücher sich auf die Beliebtheit bei den Nutzern beschränken? Wird hehre Qualität durch schnödes Ranking ersetzt?
    Amerikanischer Kulturimperialismus also: Es ist kaum verwunderlich, dass sich vor allem in Frankreich Widerstand regt, gibt es hier doch eine Tradition in Sachen Kapitalismus- und Globalisierungskritik. Einer der Protagonisten, Jean-Noel Jeannaney, spricht in seinem Buch "Googles Herausforderung" von einer "Diktatur des angloamerikanischen Kanons". Der Präsident der französischen Nationalbibliothek warnt vor einer Entdemokratisierung des "Weltwissens". Die Alternative liege in der Gründung einer "Europäischen Digitalen Bibliothek". Vor gut einem Jahr verabredete Frankreich mit Deutschland die Entwicklung einer europäischen Suchmaschine. Doch der Google-Killer "Quaero" steht immer noch am Anfang. Überdies wird die Beteiligung privater Unternehmen (Bertelsmann, Siemens, Thomson-Brandt ...) der befürchteten Kommerzialisierung des "Weltwissens" nur bedingt Einhalt gebieten. Was man als Preis für den Rückzug des Staates aus seiner öffentlichen Verantwortung beklagen mag. Um staatlichen Schutz wird es künftig außer bei urheberrechtlichen Fragen vor allem beim Datenschutz gehen. Das Google-Portal verfügt über einen wahren Wissensschatz, was die Bedürfnisse seiner "Besucher" angeht: Jeder Klick auf einer der Google-Sites hinterlässt eine Datenspur, die nicht nur gespeichert wird, sondern auch Dritten angeboten werden könnte. Künftig wird Google über noch mehr Daten verfügen, nachdem das Unternehmen jetzt ein eigenes Bezahlsystem entwickelt hat, das den Einkauf im Netz noch einfacher machen soll. Dass im Februar der chinesische Ableger der Suchmaschine auf Geheiß der Pekinger Regierung unliebsame Webadressen sperrte, war jedenfalls keine vertrauensbildende Maßnahme - Freiheit und Kapitalismus gehören nicht notwendig zusammen. Wobei immer auch die Konzern-Maxime gilt: Besser wir sind da, als wenn es uns nicht gäbe. Zwar kann man, wie unlängst auf einer Tagung der Friedrich-Ebert-Stiftung, die demokratiegefährdenden "digitalen Informationsmächte" beschwören: "Was wird aus dem investigativen Journalismus, wenn Recherchen bei Google beginnen und bei Yahoo aufhören?" Doch langsam: Google ist immer noch die leistungsfähigste Suchmaschine, der Gebrauch von Google ist nach wie vor kostenlos, es gibt alternative, auch nicht-kommerzielle und so genannte Metasuchmaschinen, die verschiedene Suchdienste verwenden... Und sehr wahrscheinlich wird Google wie schon Microsoft dereinst eine ernst zu nehmende Konkurrenz erwachsen. Auf die open-source-community ist, wie das Nutzer-gestützte Online-Lexikon Wikipedia zeigt, wenn schon nicht steter Verlass, so doch in jedem Fall Hoffnung zu setzen."
  2. Winterschladen, S.; Gurevych, I.: ¬Die perfekte Suchmaschine : Forschungsgruppe entwickelt ein System, das artverwandte Begriffe finden soll (2006) 0.01
    0.008014987 = product of:
      0.03205995 = sum of:
        0.03205995 = weight(_text_:und in 5912) [ClassicSimilarity], result of:
          0.03205995 = score(doc=5912,freq=20.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.27102837 = fieldWeight in 5912, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5912)
      0.25 = coord(1/4)
    
    Content
    "KÖLNER STADT-ANZEIGER: Frau Gurevych, Sie entwickeln eine Suchmaschine der nächsten Generation? Wie kann man sich diese vorstellen? IRYNA GUREVYCH Jeder kennt die herkömmlichen Suchmaschinen wie Google, Yahoo oder Altavista. Diese sind aber nicht perfekt, weil sie nur nach dem Prinzip der Zeichenerkennung funktionieren. Das steigende Informationsbedürfnis können herkömmliche Suchmaschinen nicht befriedigen. KStA: Wieso nicht? GUREVYCH Nehmen wir mal ein konkretes Beispiel: Sie suchen bei Google nach einem Rezept für einen Kuchen, der aber kein Obst enthalten soll. Keine Suchmaschine der Welt kann bisher sinnvoll solche oder ähnliche Anfragen ausführen. Meistens kommen Tausende von Ergebnissen, in denen der Nutzer die relevanten Informationen wie eine Nadel im Heuhaufen suchen muss. KStA: Und Sie können dieses Problem lösen? GUREVYCH Wir entwickeln eine Suchmaschine, die sich nicht nur auf das System der Zeichenerkennung verlässt, sondern auch linguistische Merkmale nutzt. Unsere Suchmaschine soll also auch artverwandte Begriffe zeigen. KStA: Wie weit sind Sie mit Ihrer Forschung? GUREVYCH Das Projekt ist auf zwei Jahre angelegt. Wir haben vor einem halben Jahr begonnen, haben also noch einen großen Teil vor uns. Trotzdem sind die ersten Zwischenergebnisse schon sehr beachtlich. KStA: Und wann geht die Suchmaschine ins Internet? GUREVYCH Da es sich um ein Projekt der Deutschen Forschungsgemeinschaft handelt, wird die Suchmaschine vorerst nicht veröffentlicht. Wir sehen es als unsere Aufgabe an, Verbesserungsmöglichkeiten durch schlaue Such-Algorithmen mit unseren Forschungsarbeiten nachzuweisen und Fehler der bekannten Suchmaschinen zu beseitigen. Und da sind wir auf einem guten Weg. KStA: Arbeiten Sie auch an einem ganz speziellen Projekt? GUREVYCH Ja, ihre erste Bewährungsprobe muss die neue Technologie auf einem auf den ersten Blick ungewöhnlichen Feld bestehen: Unsere Forschungsgruppe an der Technischen Universität Darmstadt entwickelt derzeit ein neuartiges System zur Unterstützung Jugendlicher bei der Berufsauswahl. Dazu stellt uns die Bundesagentur für Arbeit die Beschreibungen von 5800 Berufen in Deutschland zur Verfügung. KStA: Und was sollen Sie dann mit diesen konkreten Informationen machen? GUREVYCH Jugendliche sollen unsere Suchmaschine mit einem Aufsatz über ihre beruflichen Vorlieben flittern. Das System soll dann eine Suchabfrage starten und mögliche Berufe anhand des Interesses des Jugendlichen heraussuchen. Die persönliche Beratung durch die Bundesagentur für Arbeit kann dadurch auf alternative Angebote ausgeweitet werden. Ein erster Prototyp soll Ende des Jahres bereitstehen. KStA: Es geht also zunächst einmal nicht darum, einen Jobfür den Jugendlichen zu finden, sondern den perfekten Beruf für ihn zu ermitteln? GUREVYCH Ja, anhand der Beschreibung des Jugendlichen startet die Suchmaschine eine semantische Abfrage und sucht den passenden Beruf heraus. KStA: Gab es schon weitere Anfragen seitens der Industrie? GUREVYCH Nein, wir haben bisher noch keine Werbung betrieben. Meine Erfahrung zeigt, dass angesehene Kongresse die beste Plattform sind, um die Ergebnisse zu präsentieren und auf sich aufmerksam zu machen. Einige erste Veröffentlichungen sind bereits unterwegs und werden 2006 noch erscheinen. KStA: Wie sieht denn Ihrer Meinung nach die Suchmaschine der Zukunft aus? GUREVYCH Suchmaschinen werden immer spezieller. Das heißt, dass es etwa in der Medizin, bei den Krankenkassen oder im Sport eigene Suchmaschinen geben wird. Außerdem wird die Tendenz verstärkt zu linguistischen Suchmaschinen gehen, die nach artverwandten Begriffen fahnden. Die perfekte Suchmaschine wird wohl eine Kombination aus statistischem und linguistisch-semantischem Suchverhalten sein. Algorithmen, die wir am Fachgebiet Telekooperation an der TU Darmstadt entwickeln, werden für den nächsten qualitativen Sprung bei der Entwicklung der Suchmaschinen von größter Bedeutung sein."
  3. Mostafa, J.: Bessere Suchmaschinen für das Web (2006) 0.01
    0.00793278 = product of:
      0.03173112 = sum of:
        0.03173112 = weight(_text_:und in 4871) [ClassicSimilarity], result of:
          0.03173112 = score(doc=4871,freq=60.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.26824853 = fieldWeight in 4871, product of:
              7.745967 = tf(freq=60.0), with freq of:
                60.0 = termFreq=60.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=4871)
      0.25 = coord(1/4)
    
    Abstract
    Die Onlinesuche im Internet bringt zwar viele, oft aber nur wenige nützliche Resultate. Nun sollen Websurfer dank verbesserter Software maßgeschneiderte Suchergebnisse erhalten - nicht nur bei Texten, sondern auch bei Bildern und Musikstücken
    Content
    "Seit wenigen Jahren haben Suchmaschinen die Recherche im Internet revolutioniert. Statt in Büchereien zu gehen, um dort mühsam etwas nachzuschlagen, erhalten wir die gewünschten Dokumente heute mit ein paar Tastaturanschlägen und Mausklicks. »Googeln«, nach dem Namen der weltweit dominierenden Suchmaschine, ist zum Synonym für die Online-Recherche geworden. Künftig werden verbesserte Suchmaschinen die gewünschten Informationen sogar noch zielsicherer aufspüren. Die neuen Programme dringen dazu tiefer in die Online-Materie ein. Sie sortieren und präsentieren ihre Ergebnisse besser, und zur Optimierung der Suche merken sie sich die persönlichen Präferenzen der Nutzer, die sie in vorherigen Anfragen ermittelt haben. Zudem erweitern sie den inhaltlichen Horizont, da sie mehr leisten, als nur eingetippte Schlüsselwörter zu verarbeiten. Einige der neuen Systeme berücksichtigen automatisch, an welchem Ort die Anfrage gestellt wurde. Dadurch kann beispielsweise ein PDA (Personal Digital Assistant) über seine Funknetzverbindung das nächstgelegene Restaurant ausfindig machen. Auch Bilder spüren die neuen Suchmaschinen besser auf, indem sie Vorlagen mit ähnlichen, bereits abgespeicherten Mustern vergleichen. Sie können sogar den Namen eines Musikstücks herausfinden, wenn man ihnen nur ein paar Takte daraus vorsummt. Heutige Suchmaschinen basieren auf den Erkenntnissen aus dem Bereich des information retrieval (Wiederfinden von Information), mit dem sich Computerwissenschaftler schon seit über 50 Jahren befassen. Bereits 1966 schrieb Ben Ami Lipetz im Scientific American einen Artikel über das »Speichern und Wiederfinden von Information«. Damalige Systeme konnten freilich nur einfache Routine- und Büroanfragen bewältigen. Lipetz zog den hellsichtigen Schluss, dass größere Durchbrüche im information retrieval erst dann erreichbar sind, wenn Forscher die Informationsverarbeitung im menschlichen Gehirn besser verstanden haben und diese Erkenntnisse auf Computer übertragen. Zwar können Computer dabei auch heute noch nicht mit Menschen mithalten, aber sie berücksichtigen bereits weit besser die persönlichen Interessen, Gewohnheiten und Bedürfnisse ihrer Nutzer. Bevor wir uns neuen Entwicklungen bei den Suchmaschinen zuwenden, ist es hilfreich, sich ein Bild davon zu machen, wie die bisherigen funktionieren: Was genau ist passiert, wenn »Google« auf dem Bildschirm meldet, es habe in 0,32 Sekunden einige Milliarden Dokumente durchsucht? Es würde wesentlich länger dauern, wenn dabei die Schlüsselwörter der Anfrage nacheinander mit den Inhalten all dieser Webseiten verglichen werden müssten. Um lange Suchzeiten zu vermeiden, führen die Suchmaschinen viele ihrer Kernoperationen bereits lange vor dem Zeitpunkt der Nutzeranfrage aus.
    An der Wurzel des Indexbaums Im ersten Schritt werden potenziell interessante Inhalte identifiziert und fortlaufend gesammelt. Spezielle Programme vom Typ so genannter Webtrawler können im Internet publizierte Seiten ausfindig machen, durchsuchen (inklusive darauf befindlicher Links) und die Seiten an einem Ort gesammelt speichern. Im zweiten Schritt erfasst das System die relevanten Wörter auf diesen Seiten und bestimmt mit statistischen Methoden deren Wichtigkeit. Drittens wird aus den relevanten Begriffen eine hocheffiziente baumartige Datenstruktur erzeugt, die diese Begriffe bestimmten Webseiten zuordnet. Gibt ein Nutzer eine Anfrage ein, wird nur der gesamte Baum - auch Index genannt - durchsucht und nicht jede einzelne Webseite. Die Suche beginnt an der Wurzel des Indexbaums, und bei jedem Suchschritt wird eine Verzweigung des Baums (die jeweils viele Begriffe und zugehörige Webseiten beinhaltet) entweder weiter verfolgt oder als irrelevant verworfen. Dies verkürzt die Suchzeiten dramatisch. Um die relevanten Fundstellen (oder Links) an den Anfang der Ergebnisliste zu stellen, greift der Suchalgorithmus auf verschiedene Sortierstrategien zurück. Eine verbreitete Methode - die Begriffshäufigkeit - untersucht das Vorkommen der Wörter und errechnet daraus numerische Gewichte, welche die Bedeutung der Wörter in den einzelnen Dokumenten repräsentieren. Häufige Wörter (wie »oder«, »zu«, »mit«), die in vielen Dokumenten auftauchen, erhalten deutlich niedrigere Gewichte als Wörter, die eine höhere semantische Relevanz aufweisen und nur in vergleichsweise wenigen Dokumenten zu finden sind. Webseiten können aber auch nach anderen Strategien indiziert werden. Die Linkanalyse beispielsweise untersucht Webseiten nach dem Kriterium, mit welchen anderen Seiten sie verknüpft sind. Dabei wird analysiert, wie viele Links auf eine Seite verweisen und von dieser Seite selbst ausgehen. Google etwa verwendet zur Optimierung der Suchresultate diese Linkanalyse. Sechs Jahre benötigte Google, um sich als führende Suchmaschine zu etablieren. Zum Erfolg trugen vor allem zwei Vorzüge gegenüber der Konkurrenz bei: Zum einen kann Google extrem große Weberawling-Operationen durchführen. Zum anderen liefern seine Indizierungsund Gewichtungsmethoden überragende Ergebnisse. In letzter Zeit jedoch haben andere Suchmaschinen-Entwickler einige neue, ähnlich leistungsfähige oder gar punktuell bessere Systeme entwickelt.
    Viele digitale Inhalte können mit Suchmaschinen nicht erschlossen werden, weil die Systeme, die diese verwalten, Webseiten auf andere Weise speichern, als die Nutzer sie betrachten. Erst durch die Anfrage des Nutzers entsteht die jeweils aktuelle Webseite. Die typischen Webtrawler sind von solchen Seiten überfordert und können deren Inhalte nicht erschließen. Dadurch bleibt ein Großteil der Information - schätzungsweise 500-mal so viel wie das, was das konventionelle Web umfasst - für Anwender verborgen. Doch nun laufen Bemühungen, auch dieses »versteckte Web« ähnlich leicht durchsuchbar zu machen wie seinen bisher zugänglichen Teil. Zu diesem Zweck haben Programmierer eine neuartige Software entwickelt, so genannte Wrapper. Sie macht sich zu Nutze, dass online verfügbare Information standardisierte grammatikalische Strukturen enthält. Wrapper erledigen ihre Arbeit auf vielerlei Weise. Einige nutzen die gewöhnliche Syntax von Suchanfragen und die Standardformate der Online-Quellen, um auf versteckte Inhalte zuzugreifen. Andere verwenden so genannte ApplikationsprogrammSchnittstellen (APIs), die Software in die Lage versetzen, standardisierte Operationen und Befehle auszuführen. Ein Beispiel für ein Programm, das auf versteckte Netzinhalte zugreifen kann, ist der von BrightPlanet entwickelte »Deep Query Manager«. Dieser wrapperbasierte Anfragemanager stellt Portale und Suchmasken für mehr als 70 000 versteckte Webquellen bereit. Wenn ein System zur Erzeugung der Rangfolge Links oder Wörter nutzt, ohne dabei zu berücksichtigen, welche Seitentypen miteinander verglichen werden, besteht die Gefahr des Spoofing: Spaßvögel oder Übeltäter richten Webseiten mit geschickt gewählten Wörtern gezielt ein, um das Rangberechnungssystem in die Irre zu führen. Noch heute liefert die Anfrage nach »miserable failure« (»klägliches Versagen«) an erster Stelle eine offizielle Webseite des Weißen Hauses mit der Biografie von Präsident Bush.
    Vorsortiert und radförmig präsentiert Statt einfach nur die gewichtete Ergebnisliste zu präsentieren (die relativ leicht durch Spoofing manipuliert werden kann), versuchen einige Suchmaschinen, unter denjenigen Webseiten, die am ehesten der Anfrage entsprechen, Ähnlichkeiten und Unterschiede zu finden und die Ergebnisse in Gruppen unterteilt darzustellen. Diese Muster können Wörter sein, Synonyme oder sogar übergeordnete Themenbereiche, die nach speziellen Regeln ermittelt werden. Solche Systeme ordnen jeder gefundenen Linkgruppe einen charakteristischen Begriff zu. Der Anwender kann die Suche dann weiter verfeinern, indem er eine Untergruppe von Ergebnissen auswählt. So liefern etwa die Suchmaschinen »Northern Light« (der Pionier auf diesem Gebiet) und »Clusty« nach Gruppen (Clustern) geordnete Ergebnisse. »Mooter«, eine innovative Suchmaschine, die ebenfalls diese Gruppiertechnik verwendet, stellt die Gruppen zudem grafisch dar (siehe Grafik links unten). Das System ordnet die UntergruppenButtons radförmig um einen zentralen Button an, der sämtliche Ergebnisse enthält. Ein Klick auf die UntergruppenButtons erzeugt Listen relevanter Links und zeigt neue, damit zusammenhängende Gruppen. Mooter erinnert sich daran, welche Untergruppen gewählt wurden. Noch genauere Ergebnisse erhält der Nutzer, wenn er die Verfeinerungsoption wählt: Sie kombiniert bei früheren Suchen ausgewählte Gruppen mit der aktuellen Anfrage. Ein ähnliches System, das ebenfalls visuelle Effekte nutzt, ist »Kartoo«. Es handelt sich dabei um eine so genannte Meta-Suchmaschine: Sie gibt die Nutzeranfragen an andere Suchmaschinen weiter und präsentiert die gesammelten Ergebnisse in grafischer Form. Kartoo liefert eine Liste von Schlüsselbegriffen von den unterschiedlichen Webseiten und generiert daraus eine »Landkarte«. Auf ihr werden wichtige Seiten als kons (Symbole) dargestellt und Bezüge zwischen den Seiten mit Labeln und Pfaden versehen. Jedes Label lässt sich zur weiteren Verfeinerung der Suche nutzen. Einige neue Computertools erweitern die Suche dadurch, dass sie nicht nur das Web durchforsten, sondern auch die Festplatte des eigenen Rechners. Zurzeit braucht man dafür noch eigenständige Programme. Aber Google hat beispielsweise kürzlich seine »Desktop Search« angekündigt, die zwei Funktionen kombiniert: Der Anwender kann angeben, ob das Internet, die Festplatte oder beides zusammen durchsucht werden soll. Die nächste Version von Microsoft Windows (Codename »Longhorn«) soll mit ähnlichen Fähigkeiten ausgestattet werden: Longhorn soll die implizite Suche beherrschen, bei der Anwender ohne Eingabe spezifischer Anfragen relevante Informationen auffinden können. (Dabei werden Techniken angewandt, die in einem anderen Microsoft-Projekt namens »Stuff I've seen« - »Sachen, die ich gesehen habe« - entwickelt wurden.) Bei der impliziten Suche werden Schlüsselwörter aus der Textinformation gewonnen, die der Anwender in jüngster Zeit auf dem Rechner verarbeitet oder verändert hat - etwa E-Mails oder Word-Dokumente -, um damit auf der Festplatte gespeicherte Informationen wiederzufinden. Möglicherweise wird Microsoft diese Suchfunktion auch auf Webseiten ausdehnen. Außerdem sollen Anwender auf dem Bildschirm gezeigte Textinhalte leichter in Suchanfragen umsetzen können." ...
  4. Blittkowsky, R.: ¬Das World Wide Web gleicht einer Fliege : Studien versuchen zu erklären, warum Suchmaschinen nicht immer fündig werden (2001) 0.01
    0.007891355 = product of:
      0.03156542 = sum of:
        0.03156542 = weight(_text_:und in 1090) [ClassicSimilarity], result of:
          0.03156542 = score(doc=1090,freq=38.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.26684773 = fieldWeight in 1090, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1090)
      0.25 = coord(1/4)
    
    Abstract
    Einer möchte wissen, auf welchen Webseiten sein Name vorkommt. Die andere sucht nach den neusten Sportergebnissen. Ein Dritter recherchiert den Wissensstand über Schrödingers Katze. Internetnutzer befragen jede Minute zu Hunderttausenden Suchmaschinen und Webkataloge. Die wurden, seit das Internet zum Masseninedium herangereift ist, zu Info- (Mono-) Polen für den Zugang zur heterogenen Welt des Web. Dahinter steckt viel Arbeit. Die Suchmaschinen schicken unentwegt Roboter und Agenten los, die Seiten lesen - und Inhalte oder Verweise an mächtige Datenbankservermelden. Täglich entstehen mehrere hunderttausend Webseiten; die Zahl der Adressen, die verarbeitet werden müsste, ist mittlerweile auf mehr als eine Milliarde gewachsen. Nicht nur deshalb wird die automatische Recherche zunehmend schwierig. Eine Untersuchung der Firmen Altavista, Compac und IBM, die die Verbindungen auf 500 Millionen Seiten auswertete, ergab: Im WWW wächst ein Bereich heran, den konventionelle Suchtechnologien nicht erfassen können. Das widerspricht früheren Studien, nach denen zwei beliebige Webadressen höchstens 19 Hyperlinks voneinander entfernt liegen - sich prinzipiell also alles finden lässt. Die Forscher um Altavista-Chefwissenschaftler Andrei Broder vergleichen den Aufbau des World Wide Weh mit der Form einer Fliege. Das Netz gliedert sich demnach in vier Bereiche. Etwa ein Drittel der Seiten fügen den zentralen Kein, um den sich die anderen Gebiete lagern. Den Knoten beschreiben die Fachleute als Giant Strongly Connected Components (SCC): Die Seiten sind untereinander eng verknüpft; es bestehen gute Linkverbindungen zwischen den Angeboten; sie sind leicht zu finden. Ein Viertel der Adressen macht eine Schicht aus, die sich als eine Schleife der Fliege sehen lässt. Es handelt sich vorwiegend um Anfangsseiten, Einstiegspunkte zu Webseiten und inhaltlich sortierende Kataloge.
    Von dort aus sind die zentralen Seiten im Knoten gut erreichbar. Eine zweite Schleife, ein weiteres Viertel aller Webseiten, bilden die Endpunkte - Angebote ohne Links. Sie sind nur über den Knoten erreichbar. Verbleibt etwa ein Fünftel aller Seiten, die gar nicht oder nur indirekt mit dem Knoten verknüpft sind. Letztere werden als Tendrils bezeichnet. Diese Webangebote basieren beispielsweise auf Datenbanken von Unternehmen, Verbänden oder Organisationen. Sie entstehen erst in den wenn sie abgerufen werden - oft in kryptischen Dateiformaten und mit Animationen, Bildern oder Audiodateien angereichert. Surfer können diese Informationen mit Recherchen in den Webseiten der Schleifen aufspüren. Die Agenten der Suchmaschinen dagegen sind darauf trainiert, ständig verfügbare Dokumente im html-Format zu finden. Ihnen entgeht dieser Teil des World Wide Web. Das US-Softwareunternehmen Bright Planet schätzt, das WWW umfasst 2000-mal so viele Seiten, wie alle Suchsysteme zusammen glauben. Auch wenn sie systembedingt nicht alle Seiten kennen: Insgesamt liefern die automatischen Maschinen mehr Ergebnisse als Kataloge wie Yahoo, Dino-Online oder Looksmart. Deren Macher beschäftigen Redaktionsstäbe, die Inhalte recherchieren, sichten und in die Verzeichnisse einordnen. Webkataloge bauen also auf die humane Intelligenz ihrer Rechercheure, die Themen und Seiten verknüpfen sowie Inhalte kommentieren und einordnen. Yahoo, Lieblingskind der New Economy, bringt es indes gerade einmal auf 15 Millionen katalogisierter Webseiten. Gleichwohl kauft Yahoo bei einigen Themen mancher Suchmaschine den Schneid ab: Eine vorstrukturierte, handverlesene Einarbeitung von Inhalten in die Rubriken eines Katalogs kann genauer Auskunft geben.
    Die Spitzenreiter unter den Suchmaschinen sehen sich im Zugzwang, ihren Service zu verbessern. Schließlich sollen die Kunden immer wieder Anfragen starten und damit indirekt die üppigen Werbepreise rechtfertigen. Alltheweb, Google und Altavista erkunden das Netz unterschiedlich. Alltheweb, betrieben vom norwegisch-amerikanischen Unternehmens Fast, setzt bei der Verwaltung der Index-Datenbank auf superschnelle Rechenleistungen und Servertechnologie, damit die richtigen Hyperlinks oben stehen. Etwa 500 Millionen indizierter Webseiten bedeuten für Alltheweb die Pole-Position. Die rein maschinelle Verarbeitung scheint ein gutes Konzept zu sein: Allthewebs Resultatslisten warten mit den besten mehrsprachigen Kommentaren auf. Die Suchmaschine Google, die ihren Namen der Zahl Googol verdankt und eine eins mit hundert Nullen bezeichnet, speichert alle Webseiten lokal auf einer Computerfarm mit 6000 Zentraleinheiten. Sie verwendet ein mathematisches Verfahren, um Webseiten nach inhaltlichen Kriterien zu ordnen. Larry Page und Sergej Brin, die Entwickler des kalifornischen Projekts an der Stanford University, setzen bei der internen Bewertung von Webseiten, dem Page-Ranking, auf die Einschätzungen der Internet-Surfer: Wenn sie einem Verweis auf eine andere Adresse folgen, treffen sie eine intuitive Entscheidung. Sie rufen ein Angebot auf, von dem sie bessere Informationen, eine konkrete Antwort auf ihre Frage erwarten. Page und Brin überlegten, die Summe der Surfentscheidungen kann ihren Inhalt indirekt qualifizieren: Je häufiger eine Webseite ausgewählt wird, desto höher kann ihre Qualität sein - in Bezug auf die inhaltliche Relevanz hinsichtlich eines Themas. Mit einem komplizierten Bewertungsverfahren filtern die Datenbankserver von Google permanent und ohne menschliches Zutun die Entscheidungen unzähliger Surfer Die Ergebnisse von Google gehören nachweisbar zu den besten, die Maschinen weltweit bieten. Altavista ist schon lange im Geschäft. Auch die Manager dieses Unternehmens setzen auf einen hohen technologischen Aufwand. Sie schicken Suchroboter, genannt Scooter, los, die Tag für Tag ungefähr 24 Millionen Dokumente überprüfen und gegebenenfalls der Datenbank hinzufügen. Das entspricht einer Kapazität von 800 DIN-A4-Seiten pro Sekunde. Die Datenbank erfasst alle Worte eines Dokuments. Der Vorteil der Volltext-Indizierung ist offenkundig: Jedes Dokument kann theoretisch auf Grund eines darin enthaltenen Worts sekundenschnell gefunden werden. Altavista kennt 50 Millionen deutschsprachiger Webseiten. Als Spezialität findet sie auch Produktinformationen und Markenbezeichnungen - und sicher auch das Neueste zu Schrödingers Katze
  5. Kohkemper, R.: Studenten-Charme im Big Business : 200 Millionen Anfragen pro Tag - die erfolgreichste Suchmaschine des Internet (2004) 0.01
    0.007891355 = product of:
      0.03156542 = sum of:
        0.03156542 = weight(_text_:und in 2324) [ClassicSimilarity], result of:
          0.03156542 = score(doc=2324,freq=38.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.26684773 = fieldWeight in 2324, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2324)
      0.25 = coord(1/4)
    
    Content
    "Heute schon gegoogelt? Wer im Internet irgendwas gesucht hat, bestimmt. Oder kennen Sie aus dem Eff-Eff noch andere Suchmaschinen? Richtig, Altavista gibt es noch - oder gab es? Nein, ist noch da, genauso wie Yahoo oder Lycos. Nur: Die Leute googeln lieber. Sechs Jahre erst gibt es google.com oder eben google.de, und längst ist Schau doch mal bei Google" nahezu synonym geworden für die Internetrecherche. 200 Millionen Anfragen in 88 Sprachen beantwortet Google heute - pro Tag. Begonnen hat das ganze 1998, und so wie es in der Computerbranche üblich scheint. In einer Garage - so soll ja auch Microsoft-Gründer Bill Gates angefangen haben. Auch Larry Page und Sergey Brin mieteten erstmal einen alten Schuppen im Silicon Vallev an, dem Zentrum für Computertechnologie im US=Staat Kalifornien. Geld hatten sie keines, nur einen Vorsatz: die beste Suchmaschine erfinden. Nun, im Gründungsjahr hatte es an derlei Helferlein im weltweiten Netz keinen Mangel. Aber eben mit Mängeln, meinten die beiden Doktoranden an der renommierten StanfordUniversität. Die heute 31 und 30 Jahre Google-Gründer waren damals genervt, dass die Suchmaschinen in schöner Regelmäßigkeit Unnützes bis Anzügliches ausspuckten, aber selten das, was man wirklich suchte. Nein, sie wollten eine intelligente Suchmaschine, die die Spreu vom Weizen trennt. Beseelt von der Idee schnorrten sie bei Freunden und Verwandten eine Million, Dollar zusammen - und gaben das Studieren dran. Wäre es nach ihren Familien gegangen, wären beide vermutlich wie ihre Väter Universitätsprofessoren geworden.
    In ihrer Garage also bauten die zwei ihre ersten Rechner auf, gebrauchte, die sie bei Frys, dem großen ElektronikDiscounter im Silicon Valley, billig gekauft hatten. Und sie luden die Maschinen mit kostenloser Software wie dem Betriebssystem Linux. Hinzu kam die von Page und Brins ausgetüftelte Google-Suchtechnik. Ihr zugrunde liegt die Überlegung, dass gute und wichtige Webseiten die sind, auf die oft verwiesen wird. Also schaffen es nur solche unter die Top Ten, die von möglichst vielen Links empfohlen worden sind (siehe Stichwort Suchmethode). Natürlich lädt auch dieses Systems zu Tricksereien ein. Allein in Deutschland, so schätzen Kenner der Szene, gibt es rund 100 Profis, die sich darauf spezialisiert haben, die Google-Ergebnisse zu fälschen: Suchmaschinenoptimierer nennen sie sich. Schon wenn 50 Internetseiten sich gezenseitig empfehlen, so heißt es, steige man bei den Google-Suchlisten weit nach oben. Die Garagen-Zeiten sind bei Google längst vorbei, der lässig studentische Charme soll geblieben sein, berichten Besucher von Mountain View, dem Gewerbegebiet eine Autostunde von San Francisco entfernt, besser bekannt als Silicon Valley. Dort, hinter der hellgelben Fassade eines zweitstöckigen Fabrikgebäudes, arbeiten mittlerweile 1000 Mitarbeiter aus 34 Ländern. Darunter auch Informatiker, die ausschließlich versuchen, den Suchmaschinenoptimierern immer neue Hürden zu bauen. Die beiden Zentralrechner allerdings, zusammengesetzt aus 10 000 Einzelrechnern, befinden sich woanders. Einer an der Ost-, derandere an der Westküste der USA. Die genauen Standorte werden nicht verraten. Aus Angst vor Sabotageakten. Einen dritten soll es demnächstin Irland geben. Alles schön und gut. Aber an Kreativltät hatte es Internet-Firmen meist nicht gefehlt, sondern an Einnahmen. Auch bei Google lief es zunächst schleppend. Doch Brin und Page konnten wenigstens ihre Suchtechnik verkaufen. Dann verfielen sie auf eine weitere Idee. Statt irgendwelcher Werbebotschaften, bemüht sich Google die zum Inhalt der Seite passenden zu platzieren. Wer also "Neuwagen" eintippt, soll eben auch Neuwagenwerbung auf seinem Schirm finden. Klickt er die auch noch an, verdient Google Geld. Die meisten Anzeigen bringen pro Klick zwar zuweilen nur 0,05 Cent, doch das läppert sich.
    Nun aber, so wird über den Grund des Börsengangs, vermutet, könnte der erkleckliche Gewinn - 2003 waren dies 105 Millionen Dollar bei 982 Millionen Dollar Umsatz - nicht mehr ausreichen. Schließlich haben Yahoo und vor allem Microsoft zum Sturm geblasen. Beide Unternehmen kündigten Suchtechniken an, die der von Google überlegen sein sollen, vor allem das vorsätzliche Fälschen von Rangfolgen soll nicht mehr so leicht möglich sein. Unterdessen scheint die geleckte Business-Welt, wie man sie der Branche gerne unterstellt, bei Google nicht angekommen zu sein. Die meisten Mitarbeiter tragen Jeans und T-Shirt. Man duzt sich. Google ist keine gewöhnliche Gesellschaft. Und wir wollen auch keine werden, schrieben Page und Brin in einem Brief an künftige Aktionäre. Doch ein wenig Luxus gönnt man sich und seinen Mitarbeitern schon: Einen Masseur für die kreativen Pausen. Und - ebenso für jeden umsonst - üppige Büfetts, arrangiert in weißen Partyzelten, hergerichtet von Koch Charly. Der versorgte einst die Band The Grateful Dead. Wie, kein Begriff mehr? Schauen Sie doch mal nach."
    SUCHMETHODE PageRank Technologie nennen die Google-Gründer ihre Such-Methode. Nach der Eingabe eines Suchbegriffes werden die 3 Milliarden Webseiten, die Google erreichen kann, damit verglichen. Der Kern der Such-Methode ist dabei, dass Google einen Link von der Seite A zu Seite B als ein "Votum" von der Seite A zu Seite B wertet. Wer also auf seiner Webseite mit einem Link eine andere Seite empfiehlt bzw. darauf verweist, verändert den Stellenwert einer Seite in der Google-Liste. Allerdings verlässt sich Google nicht allein auf die Voten anderer Seiten. Mitarbeiter des Anbieters schätzen die Wichtigkeit einer Seite über dieses Votum ein. Außerdem wird von Google die Seite bewertet, von der das Votum stammt. Ein Beispiel für die Manipulierbarkeit von Google: Wer im weltweiten Netz "miserable failure" ("erbärmlicher Versager") eingibt, landet bei der Biografie von George W. Bush. Zahlreiche Webmaster haben also einen Link zum Weißen Haus gesetzt und und mit dem Suchnamen "miserable failure" unterlegt.
  6. Sixtus, M.: Falsche Türen : Google kämpft gegen Tricks, mit denen sich Webseiten in den Suchlisten nach oben drängeln - und bestraft BMW (2006) 0.01
    0.007891355 = product of:
      0.03156542 = sum of:
        0.03156542 = weight(_text_:und in 4917) [ClassicSimilarity], result of:
          0.03156542 = score(doc=4917,freq=38.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.26684773 = fieldWeight in 4917, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4917)
      0.25 = coord(1/4)
    
    Content
    ""Das Suchen hat einen religiösen Charakter angenommen. Die Leute wollen gar nicht mehr finden, sie wollen suchen", sinnierte kürzlich der Netzpionier und Schriftsteller Peter Glaser. Vielleicht bleibt den Menschen nichts anderes übrig als eine Recherche ähnlich wie eine buddhistische Meditation anzugehen. Denn, dass sie finden, was sie suchen, wird immer weniger wahrscheinlich. "Deutschland ist momentan sicher das Spam-Land Nummer eins", bestätigt Stefan Keuchel, nationaler Sprecher von Google. Er meint damit nicht die Massenmails, die für raubkopierte Software und Genitalvergrößerungen werben, sondern SuchmaschinenSpam: Webseiten, die es nur gibt, um weit oben in den Trefferlisten aufzutauchen. Wer eine Suchmaschine nach Test- oder Erfahrungsberichten zu einem bestimmten Produkt bemüht, kennt das: Auf den ersten Seiten tummeln sich Preisvergleichsdienste, ominöse Branchenverzeichnisse, oder man wird ungefragt auf eine Internetauktion umgeleitet. Oft genug haben die Seiten nichts mit der Suchanfrage zu tun. Diese Form der Bauernfängerei ist ärgerlich und zeitraubend für die Nutzer einer Suchmaschine - und gefährlich für ihre Betreiber. Mit der sinkenden Qualität der Ergebnisse verlieren sie Vertrauen - und Werbekunden. BMW wollte mit dutzendfachen Wortwiederholungen täuschen Zwar ändern Google, Yahoo und die anderen ständig ihre Bewertungen, um die falschen Treffer zu verdammen. Allerdings beschränkten sie sich dabei bislang auf ihren englischsprachigen Heimatmarkt. Das soll sich nun ändern. Vor rund drei Wochen gab Software-Ingenieur Matt Cutts, bei Google für die Qualität der Suchergebnisse zuständig, in seinem Weblog bekannt, man wolle sich verstärkt dem nicht-englischsprachigen Internet widmen. Das erste prominente Opfer: BMW. Die Hauptadresse des bayerischen Autobauers www.bmw.de war in dieser Woche bei Google zeitweise nicht zu finden. Mittlerweile taucht sie dort wieder auf. Die Höchststrafe fing sich BMW ein, weil das Unternehmen mit Brückenseiten arbeitete. Das sind Phantomseiten, die mit dutzendfachen Wiederholungen von Worten wie Gebrauchtwagen, Neuwagen, Jahreswagen und natürlich BMW die Suchmaschinenroboter füttern sollen. Menschliche Internetnutzer sehen die Wörtersuppe nicht, sie werden automatisch auf eine andere Seite gelenkt. "Das ist einklarer Verstoß gegen unsere Richtlinien% sagt Google-Sprecher Keuchel. Auch BMW habe Regeln für seine Zulieferer. Naturgemäß sieht das München anders. Zwar gesteht Sprecher Markus Sagemann die umstrittenen Trickseiten ein, aber: "Wir haben den Leuten keine falschen Inhalte vorgespiegelt. Wer auf BMW-Gebrauchtwagen geklickt hat, ist auch dort gelandet." Und man solle das Thema bitte nicht groß reden: "Über Google kommen gerade einmal 0,4 Prozent unserer Besucher."
    Der Experte Philipp Lenssen hatte in seinem Weblog Anfang Februar als erster über die BMW-Praktiken berichtet. Er wundert sich: "Wenn wirklich nur so wenige Besucher via Google bei BMW landen, warum legen die dann Hunderte von Köder-Seiten aus?" Auch die Argumentation, man habe keine falschen Inhalte vorgespiegelt, hält er für verfehlt: "Welche Seiten für einen Suchbegriff relevant sind und welche nicht, bestimmt aus gutem Grund die Suchmaschine und nicht der Seitenbetreiber." Der empfinde seine Seiten stets als relevant. Einige Google-Fänger seien auf Begriffe wie BMW-Testberichte optimiert worden. "Da erwartet man doch eher, auf einer Seite neutraler Herkunft zu landen als direkt beim Hersteller." Allerdings ist es eher unwahrscheinlich, dass der Autobauer mit Methoden aus den virtuellen Rotlicht- und Spielbank-Vierteln auf Kundenfang gehen wollten. Der Griff in die Kiste der dunklen Tricks war eher eine unüberlegte Notlösung, denn zuvor waren große Teile der BMW-Seite überhaupt nicht in Suchmaschinen zu finden. Das wundert Lenssen nicht: "Die Navigation funktioniert nur mit eingeschaltetem Javascript, außerdem besteht die komplette Websites aus ineinander verschachtelten Frames", also Fenstern. Genauso gut hätte man ein "Für Suchmaschinen verboten!" auf die Site kleben können. "Die Seiten sollten einfach wieder bei einer Suche auftauchen", versucht sich BMW zu erklären. Das Sichtbarmachen der versteckten Inhalte sollte das Frankfurter Unternehmen Netbooster übernehmen. Vielleicht nicht die beste Wahl: Die Hauptadresse des Unternehmens fehlt bei Google ebenfalls. In Frankreich war die Firma bereits vor zwei Jahren negativ aufgefallen. Netbooster verweigert eine Stellungnahme. BMW scheint Opfer des Stan-Laurell-Syndroms geworden zu sein: dem Versuch, einen Fehler mit einem weiteren zu vertuschen. Die Unbeholfenheit im Umgang mit dem Internet verwundert Google-Sprecher Keuchel nicht: "Gerade die großen deutschen Unternehmen achten meist nur auf Design und Erscheinungsbild ihrer Seiten." Viele Manager verstünden nicht, wie das Netz und die Suchmaschinen funktionieren. "Und dann wundern sie sich, dass sie nicht zu finden sind", sagt Keuchel. Die Debatte könnte einem anderen Thema Auftrieb geben: barrierefreiem Webdesign. Als Faustregel gilt: Wer seine Seiten so gestaltet, dass sie ohne Zusatzprogramme oder Spezialfunktionen wie Javascript lesbar sind, macht es Suchmaschinen leicht, sie zu finden. Auch sonst könnte die Unstimmigkeit zwischen Google und BMW für ein reinigendes Gewitter sorgen. Viele Fachleute glauben, Suchmaschinen-Spammer würden aus Furcht vor dem drohenden GoogleBann nun ihre vorgeschalteten Seiten einsammeln. Dann könnte Suchen vielleicht wieder etwas mehr mit finden zu tun haben und etwas weniger mit Religion."
    Footnote
    BESSER SUCHEN - Alternativen nutzen: Auch die Konkurrenz von Google ist nicht schlecht. Klassiker sind search.msn.de und search.yahoo.de. Neu auf dem deutschen Markt ist ask.de. Das Unternehmen hat sich mit der Übernahme des vielversprechenden NewcomersTeoma frisches Fachwissen geholt. - Genauerformulieren: Liefert eine erste Anfrage zu viele irrelevante Treffer, lohnt sich ein Wechsel in den erweiterten Modus (bei Google und Yahoo: "erweiterte Suche", MSN: "Such-Assistent"). So kann man die Ergebnisse auf bestimmte Sprachen oder Länder eingrenzen. Wunder wirkt es oft, einzelne Worte (etwa "Auktion") aus der Trefferliste zu verbannen. Man kann auch bestimmte Domains aussieben. Das ist besonders hilfreich, wenn Suchmaschinen-Spammer mit Subdomains arbeiten, etwa mit shop.domain.de, kaufen.domain.de, sparen.domain.de.
  7. Henzinger, M.; Pöppe, C.: "Qualität der Suchergebnisse ist unser höchstes Ziel" : Suchmaschine Google (2002) 0.01
    0.007832993 = product of:
      0.03133197 = sum of:
        0.03133197 = weight(_text_:und in 851) [ClassicSimilarity], result of:
          0.03133197 = score(doc=851,freq=26.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.2648742 = fieldWeight in 851, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=851)
      0.25 = coord(1/4)
    
    Content
    Spektrum der Wissenschaft: Frau Henzinger, wie viele Seiten des World Wide Web erschließt Google heute? Monika Henzinger: Wir haben über zwei Milliarden Webseiten in unserer Datenbank. Hinzu kommen 700 Millionen Newsgroup-Beiträge, die weit in die Vergangenheit reichen, und 300 Millionen Bilder. - Spektrum: Und diese Inhalte haben Sie komplett gespeichert? - Henzinger: In komprimierter Form, ja. Spektrum: Ist das nicht schon das gesamte Web? - Henzinger: Bei weitem nicht! Eigentlich ist das Web unendlich. Es gibt Datenbanken, die beliebig viele Webseiten auf Anfrage erzeugen können. Natürlich macht es keinen Sinn, die alle in der Suchmaschine zu haben. Wir beschränken uns auf Seiten hoher Qualität. - Spektrum: Wie wählen Sie die aus? - Henzinger: Nach dem so genannten PageRank. Das ist eine Note, die wir jeder Seite geben, unabhängig von irgendeiner Anfrage, für die diese Seite relevant sein könnte. Und zwar ist die Qualität einer Seite - oder anders gesagt: die Hochachtung, die sie innerhalb des Web genießt - umso größer, je mehr andere Seiten auf sie verweisen und je höher die Qualität der verweisenden Seite ist. Der PageRank bestimmt auch wesentlich die Reihenfolge, in der Google dem Anfrager die Ergebnisse präsentiert. - Spektrum: Ist der PageRank manipulierbar, etwa durch ein Zitierkartell? - Henzinger: Es wird zumindest immer wieder versucht. Zum Beispiel ist "Britney Spears" ein sehr häufiger Suchbegriff. Deswegen versuchen viele, ihren PageRank hochzutreiben, um unter den Antworten auf "Britney Spears" auf den vordersten Plätzen zu landen, auch wenn sie bloß Turnschuhe verkaufen. - Spektrum: Und was tun Sie dagegen? - Henzinger: Wenn wir offensichtlichen Missbrauch sehen, nehmen wir die entsprechenden Seiten gezielt heraus - im Interesse unserer Benutzer, für die wir die Qualität wahren wollen. - Spektrum: Gibt es auch andere Maßnahmen als diese Einzelkorrekturen? - Henzinger: Ja. Aber die diskutieren wir nicht öffentlich, um den "Rüstungswettlauf" nicht anzuheizen. - Spektrum: Seit wann gibt es Google? - Henzinger: Die Firma existiert seit dreieinhalb Jahren. Seit reichlich zwei Jahren sind wir auf dem Markt. Die Kunde von uns hat sich durch Mundpropaganda verbreitet, und inzwischen kommt die Hälfte der Anfragen von außerhalb der USA, zwölf Prozent allein aus dem deutschsprachigen Raum. Wir beantworten über 150 Millionen Anfragen am Tag, und zwar direkt oder über unsere Partner. Wenn zum Beispiel die Suchmaschine Yahoo ein Stichwort nicht im eigenen Verzeichnis findet, reicht sie die Anfrage an uns weiter und gibt dem Benutzer unsere Antwort. - Spektrum: Mit welcher Hardware läuft das System? - Henzinger: Mit über zehntausend PCs, verteilt auf vier Datenzentren. Betriebssystem ist Linux. - Spektrum: Wie prüfen Sie, ob die aufgeftihrten Webseiten noch existieren? - Henzinger: Besonders ereignisreiche Webseiten besuchen wir täglich. Alle 28 Tage aktualisieren wir den Index - das ist die Liste, die zu jedem Wort die Seiten aufführt, auf denen es vorkommt. - Spektrum: Wie aufwendig ist dieses Indizieren? - Henzinger: Sehr aufwendig. Etwa eine Woche. - Spektrum: Wie viele Leute hat die Firma? - Henzinger: Ungefähr 300. Bisher haben wir unsere Belegschaft in jedem Jahr ungefähr verdoppelt. -
    Spektrum: Wie finanziert sich Google? - Henzinger: Überwiegend durch gewöhnliche Reklame: einzeilige Anzeigen, die nur aus durchlaufendem Text bestehen. Diese Werbung erscheint nur auf solche Fragewörter, die mit dem Produkt in Verbindung stehen, wir nennen das "keyword targeting". Auch kann jeder online eine Anzeige kaufen. Wenn Sie Ihrer Frau über Google zum Geburtstag gratulieren wollen, können Sie eine Anzeige schalten, die nur auf deren Namen hin erscheint. Zweitens durch Search Services. Zum Beispiel bezahlt uns Yahoo dafür, dass unsere Ergebnisse auf deren Seite erscheinen. Manche Firmen wollen auf ihrer Webseite eine Suchfunktion einrichten, aber nicht selbst programmieren. Für diese Unternehmen bauen wir dann einen eigenen Index und beantworten damit die Suchanfragen, die an sie gestellt werden. Schließlich verkaufen wir neuerdings unsere Produkte zur firmeninternen Nutzung in Intranets. Mit diesem Konzept sind wir eine der wenigen neuen Internet-Firmen, die ihr Geld verdienen. - Spektrum: Gibt es neue Projekte? - Henzinger: Zum Beispiel Spracheingabe. Der Benutzer spricht seine Frage in ein Mikrofon und bekommt die Antworten auf den Bildschirm, später vielleicht auch gesprochen. Oder unser News Search. Unsere Maschinen lesen Tageszeitungen und stellen Artikel zum gleichen Thema aus verschiedenen Ländern zusammen. Das ist interessant, weil die Berichterstattung zumeist national gefärbt ist. Ein regelmäßiger Vergleich kann den Horizont erweitern. Klicken Sie unter google.com auf "News and Resources" und dann "Check out the Google news search". Oder User Interfaces. Wie bringt man den Benutzer dazu, mehr als zwei Wörter einzutippen? Je mehr Wörter er ansagt, desto besser können wir ihn bedienen.
    Series
    Forschung und Gesellschaft
  8. Metzger, C.: Gratis-Bildmaterial aus dem Web (2005) 0.01
    0.007832993 = product of:
      0.03133197 = sum of:
        0.03133197 = weight(_text_:und in 3412) [ClassicSimilarity], result of:
          0.03133197 = score(doc=3412,freq=26.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.2648742 = fieldWeight in 3412, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3412)
      0.25 = coord(1/4)
    
    Abstract
    Schluss mit langweiligen Web-Seiten, wenig aussagekräftigen Homepages oder Sites mit mickrigem Hintergrund: Aus dem Internet laden Sie gratis das passende Bildmaterial. Wer viel mit Texten aller Art zutun hat, weiß: Bei manchen Schriftstücken ist es erst die ansprechende Gestaltung mit eingefügten Grafiken, die zum Lesen animiert. Doch Textillustrationen, Fotos und Grafiken dienen nicht nur dazu, die Eintönigkeit des Schriftbilds aufzulockern. Vielmehr unterstreichen passende Bildmotive an der richtigen Stelle die Kernaussagen des Dokuments - gedruckt wie auch im Web. Auch Digitalfotografen benötigen manchmal fremdes Bildmaterial - etwa, um es für eine Bildmontage einzusetzen oder um bestimmte Bildbereiche für eine Retusche zu kopieren. Web-Designer nutzen Bildelemente etwa bei der Seitengestaltung oder für aussagestarke Navigationselemente. Doch längst nicht immer ist im eigenen Fundus das passende Bild für die Dokumentengestaltung oder die kreative Fotobearbeitung vorhanden.
    Content
    Lizenzfreie Bilder mit einer Suchmaschine aufstöbern Im Internet gibt es fast auf jeder Website Bilder, die Sie im Browser auf Ihrer Festplatte speichern und in anderen Anwendungen weiterverarbeiten können. Entsprechend riesig ist das Gesamtangebot an Fotos, Grafiken und Clipart-Elementen. Allerdings dürfen Sie Grafikelemente, die in eine Website eingebaut sind, nur dann für eigene Zwecke einsetzen, wenn der Urheber das ausdrücklich gestattet. Diese Erlaubnis ist normalerweise mit einem Begriff wie "rechtefrei", "lizenzfrei", "zur freien Nutzung" oder -englischsprachig - "royalty-free" gekennzeichnet. Das Problem: Auf den meisten Websites finden Sie keine Urheberrechtshinweise zu den eingebetteten Bildern. Am einfachsten ist die Suche nach lizenzfreien Web-Bildern mit einer für Grafiken und Fotos optimierten Suchmaschine wie Google (www.google.de), Fotos.de (www. fotos.de) oder Picsearch (www.picsearch. com). Für die Foto-Indizierung verwenden Suchmaschinen normalerweise den Text auf der Web-Seite, auf der sich auch das betreffende Bild befindet. Dabei werden doppelte Fundstellen automatisch aussortiert und Bilder mit der höchsten Qualität an den Anfang der Ergebnisliste gestellt. In Google sind laut Betreiber derzeit 880 Millionen Grafiken registriert. Zum Bildersuchdienst gelangen Sie auf der Google-Startseite per Klick auf die Registerkarte "Bilder". Geben Sie einen oder mehrere Suchbegriffe - durch Leerzeichen getrennt - in das Suchfeld ein, und klicken Sie auf den Button "Google Suche". Die Fundstellenanzeige erfolgt in Form von Miniaturvorschaubildern. Ein Klick auf das gewünschte Motiv öffnet die Website mit dem Foto. Um eine Grafik auf Ihrer Festplatte abzuspeichern, klicken Sie mit der rechten Maustaste darauf und wählen anschlie ßend im Kontextmenü den Befehl "Bild speichern unter". Lizenzfreie Bilder oder ganze Online-Fotogalerien stöbern Sie auch ohne spezielle Bildersuchfunktion mit einer Standardrecherche in einer Suchmaschine wie Alltheweb (www.alltheweb.com) auf. Geben Sie dazu einen Begriff wie "Foto", "Bilder" oder "Picture" in Kombination mit "lizenzfrei" oder "royalty-free" in das Suchfeld der verwendeten Suchmaschine ein.
    Footnote
    Web-Bilderdienste - www.72px.de Das Angebot besteht aus kostenlosen Bildern für nichtkommerzielle Projekte. Als registrierter Nutzer können Sie eigene Fotos veröffentlichen. - www.fotodatabase.net Bei der kostenlosen Foto-Community kann jeder eigene Bilder beisteuern und deren zeitlich und räumlich unbegrenztes Nutzungsrecht für 9,90 Euro an Interessenten weiterverkaufen. - www.fotodatenbank.com Die Foto-Website bietet eine Kommentierungsmöglichkeit. Die private und kommerzielle Weiterverwendung der Bilder ist kostenlos, sofern ein Bildquellnachweis erfolgt. - www.fotos-direkt.de Die Nutzungsrechte an den hochauflösenden Bildern kosten 9,90 Euro, Fotos mit niedriger Auflösung sind kostenlos. Außerdem können Sie thematisch gebundene Foto-CDs für rund 40 Euro bestellen. - www.photobox.ru Auf der Foto-Website mit englischsprachiger Bedienung müssen Sie für die Bilderrechte je nach Auflösung zwischen 5 und 35 Euro bezahlen. - www.photocase.de Die Fotos ambitionierter Hobbyfotografen liegen in einer Mindestauflösungvon 1800 x1400 Pixeln vor. Downloads sind nach einem Bonuspunktesystem eingeschränkt. - www.pixelquelle.de Alle Bilder lassen sich gratis für kommerzielle wie für nichtkommerzielle Projekte nutzen. Außerdem gibt es eine FotoUpload-FUnktion. - www.sxc.hu Bei der Fototausch-Community für lizenzfreie Bilder kann jeder Besucher eigene Bilder beisteuern und Fotos anderer Anwender herunterladen und nutzen. - www.visipix.ch Die Website bietet Fotoreproduktionen von Gemälden. Insgesamt umfasst der Bestand an Bildern rund 90.000 Aufnahmen. Die meisten Motive sind sowohl für die private als auch für die kommerzielle Nutzung kostenlos. Eine Suchmaschine erleichtert das Aufspüren von Motiven.
  9. Hartkopf, A.: Wer hat den Kleinsten? : Preissuchmaschinen (2005) 0.01
    0.007832993 = product of:
      0.03133197 = sum of:
        0.03133197 = weight(_text_:und in 4728) [ClassicSimilarity], result of:
          0.03133197 = score(doc=4728,freq=26.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.2648742 = fieldWeight in 4728, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4728)
      0.25 = coord(1/4)
    
    Abstract
    In Zeiten von Lohnkürzungen und unbezahlter Mehrarbeit wird die Suche nach den niedrigsten Preisen immer wichtiger. Preissuchmaschinen bewerten, vergleichen und öffnen den Weg zu den wahren Schnäppchen im Internet.
    Content
    "Früher war es einfacher. Da ging man bei größeren Anschaffungen durch zwei oder drei Läden, notierte sich Preise und vielleicht Lieferbedingungen. Und kaufte. Keinen Münchner kratzte, ob der gesuchte Artikel in Leipzig oder Buxtehude deutlich billiger zu haben wäre. Erst das Internet brachte den Fernhandel richtig in Schwung. Die Datenbank macht's möglich. Tausende Einzelhändler bieten ihre Ware online an, und Sie können vergleichen. Preissuchmaschinen wollen den Usern eine möglichst breite Auswahl an Händlern und Produkten bieten. Idealerweise sollte das Shoppen dabei bis auf den finalen Klick, die Bestellung, auf einer Website vonstatten gehen können. Grundsätzlich gibt es zwei Wege, um an das begehrte Gut zu gelangen: Produktnamen eintippen oder sich durch eine Hierarchie von Kategorien durchklicken (Elektronik/Fernseher/ LCD/Lieblingsmarke). Den Weg der Tipper verfolgt am konsequentesten Google-Ableger Froogle. Eine Suche in Kategorien ist auf der Startseite nicht vorgesehen. Vielmehr setzt Froogle auf das von Google vertraute Look and Feel sowie die bewährte Suchtechnik, sparsame Oberfläche, einfache Ergebnisliste. Die Links führen direkt zu den Produkten. Rechts im Fenster gibt es eine Reihe von Textanzeigen, links ein paar Ansichtund Sortieroptionen. Auch das Preissegment lässt sich hier eingrenzen. Wer lieber nach Kategorien sucht, muss dafür in die erweiterte Suche wechseln. Interessant ist hierbei besonders die Möglichkeit, nach den gewünschten Wörtern entweder in den Produktnamen, den -beschreibungen oder in beiden gleichzeitig suchen zu lassen. Bei Froogle gelistete Händler geben standardisierte Informationen, so genannte Feeds, an den Preissuchdienst weiter. Für die Aktualität sind im Wesentlichen diese Feeds verantwortlich. Darüber hinaus setzt Froogle auf die von Google erprobte Suchtechnologie. Spider besuchen Websites, forschen nach Produkten und Preisen. Froogles Technik errechnet eine Rangfolge, nach der die Ergebnisse angezeigt werden. Händler haben keinen Einfluss auf die Rangfolge in den Ergebnislisten. Die Teilnahme bei Froogle ist für Händler kostenlos. Auch Kelkoo verfügt über die manchmal wichtige fehlertolerante Suche. Das seit 2003 in Deutschland aktive Unternehmen gehört seit März letzten Jahres zu Yahoo. Es listet derzeit über 6 Millionen Produkte aus rund 2000 Shops. Kelkoo kooperiert mit diesen ausgewählten Händlern. Je nach Modell können diese sich kostenlos registrieren lassen. Ihre Angebote erscheinen dann in den Ergebnislisten. Oder sie gehen eine kostenpflichtige PremiumPartnerschaft ein. Dafür erhalten Sie zusätzliche Leistungen wie Nennung der Lieferkosten oder Einbindung in den Preisvergleich (und nicht nur die Ergebnisliste). Auch die Händlerdaten werden beim Premium-Angebot in Kelkoos Shopübersicht eingebunden. Kelkoo aktualisiert seine Datenbanken (werk-)täglich, um immer auch die tagesaktuellen Angebote der Händler anzeigen zu können.
    Imperative Kategorien Für Tippfaule hält Kelkoo Produktkategorien mit leicht stylischen Namen wie "Beauty" oder "Accessoires" parat. Das trägt nicht immer zur besseren Orientierung bei. Wer sich nicht auskennt, kann sich jedoch die Unterkategorien anzeigen lassen. Im Anschluss an die Ergebnislisten tauchen sämtliche (über 100) Kategorien sogar ohne Hierarchie auf, dankenswerterweise alphabetisch geordnet. Die Ergebnisse sind direkt zu den Produkten auf den Händler-Sites verlinkt. Im Unterschied etwa zu Froogle gibt es bei Kelkoo eine Extra-Funktion für den Preisvergleich. Neuer Renner Recht jung im deutschen Markt ist PriceRunner.com. Die ursprünglich aus Schweden kommende Firma listet derzeit rund 300000 Produkte von ca. 3 500 Händlern. Die Preise sind tagesaktuell und werden durch offline ermittelte Preise aus Ladengeschäften ergänzt (derzeit in Berlin, Hamburg, Köln und München). Die Produktpalette mit detaillierten Informationen zu den Produkten reicht von Elektronik über Haushaltsgeräte bis zu Sportartikeln und Schmuck. Wer PriceRunner nutzen will, sollte sich registrieren lassen. Nur so ist die Teilnahme an der Community möglich. Registrierte können sich auch alarmieren lassen, wenn ein Produktpreis auf das gewünschte Niveau fällt. Die Suche nach einem Gerät ist über eine Eingabemaske oder übersichtlich gegliederte Produktkategorien möglich. Interessant sind dabei die vielfachen und einleuchtenden Optionen. Wer z. B. nach Fernsehern sucht, erhält im linken Teil der Seite eine Reihe von Aufklappmenüs. Anhand dieser kann er etwa den gewünschten Bildschirmtyp (Röhre, LCD, Plasma), die Größe oder die Soundeigenschaften auswählen. Das hilft, die Suche gehörig einzuschränken. Die Suchergebnisse lassen sich nach Preis, Beliebtheit des Produkts, Name usw. sortieren. Technisch verunsicherte Konsumenten erhalten verständlich geschriebene Tipps zum Kauf. Neben der Bewertung durch die PriceRunnerCommunity werden - so weit vorhanden - auch professionelle Tests verlinkt. Schließlich zeigt die Ergebnisliste mit dem Preis auch das Alter des Eintrags an. Selbst wenn die Großen auf dem Markt den Überblich über die mesten Produkte bieten, kann auch ein Preisvergleich bei kleinen Suchhilfen lohnen. Manche machen mit Zusatzangeboten auf sich aufmerksam. So stellt der Elektronikspezialist Guenstiger.de die Preisentwicklung seiner gelisteten Produkte grafisch dar. Diese Charts vermitteln einen Eindruck davon, ob es sich lohnen könnte, auf weiter sinkende Preise zu warten. Billiger.de zum Beispiel versucht, für Leute mit schmaler Brieftasche auch den Finanzierungsaspekt mit abzudecken. Sites wie Ciao oder Dooyoo räumen schließlich der Community großen Stellenwert ein. Der Erfahrungsaustausch wirkt in zwei Richtungen. Zum einen gewinnen Kaufwillige einen Eindruck von dem Artikel, den sie erstehen wollen. Zum anderen lernen sie manches über die Händler, deren Zuverlässigkeit und Kundenfreundlichkeit. Ein Suchportal für Testberichte von Fachzeitschriften bis zur Stiftung Warentest bildet Testberichte.de. Die Site bietet einen Überblick über professionelle Tests zu einer Vielfalt an Produkten."
  10. Gernert, J.: ¬Das Superhirn : Jerry Young brachte mit Yahoo Ordnung ins Netz, jetzt wird er von Microsoft umworben (2008) 0.01
    0.007832993 = product of:
      0.03133197 = sum of:
        0.03133197 = weight(_text_:und in 2617) [ClassicSimilarity], result of:
          0.03133197 = score(doc=2617,freq=26.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.2648742 = fieldWeight in 2617, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=2617)
      0.25 = coord(1/4)
    
    Content
    "Das Internet hat eine eigene Zeitrechnung. Alles geht rasend schnell. Mit Leuten, die im Netz Geschäfte machen, sei das ähnlich wie mit Hunden, hat Jerry Yang, der Gründer von Yahoo, einmal gesagt. Bei denen setzt man ein Lebensjahr mit sieben Menschenjahren gleich. Würde man denselben Faktor in der Internet-Branche verwenden, dann wäre Yang nicht 39 Jahre alt, sondern 273. Er ist also seit Ewigkeiten in dem Geschäft unterwegs. 1994, als das Internet nicht mehr als ein wirres Seitensammelsurium war, beschloss er mit seinem Studienkollegen David Filo, Ordnung in das Webwirrwarr zu bringen. Eine geniale Idee, wie sich zuletzt zeigte, denn Mircrosoft hat in der vergangenen Woche 44,6 Milliarden US-Dollar für die Übernahme von Yahoo geboten. In einer am Mittwoch veröffentlichten Email schrieb Yang, dass der Yahoo-Verwaltungsrat nach wie vor eine breite Palette möglicher strategischer Alternativen prüfe. Dies benötige ausreichend Zeit. Der Verhandlungspoker ist also eröffnet. Rückkehr an die Firmenspitze Yang und sein Partner Filo katalogisierten in der Anfangszeit die vorhandenen Internetseiten und wurden zu einem der erfolgreichsten Start-ups der 90er Jahre. Selbstbewusst setzten sie hinter den Firmennamen ein Ausrufezeichen. Mit Google kam aber irgendwann ein anderer Mechanismus der Internetsuche auf den Markt, wirtschaftlich überholte der Konkurrent Yahoo. Yang und Filo erlebten seitdem einige wirtschaftlich unruhige Zeiten. Zuletzt ging es eher bergab. Auf dem entscheidenden Online-Werbemarkt steht Google deutlich besser da. Software-Riese Microsoft will mit der Übernahme von Yahoo die Macht von Google brechen.
    Als Yang vor einigen Tagen auf einer Konferenz die Neuentwicklungen für Mobiltelefone vorstellte, stand er lange alleine auf der Bühne. Seinen blassen Kompagnon Filo holte er erst am Ende kurz dazu. Yang, gewohnt leger im blauen Pulli mit V-Ausschnitt und beiger Hose, begann seinen Vortrag mit einem Scherz: "Sie wollen den neuen Look von Yahoo sehen, das neue Gesicht. Ich werde Sie enttäuschen müssen. Es ist immer noch das alte." Nämlich seines. Er ist der Mann fürs Rampenlicht, zumindest wenn es sein muss. Im vergangenen Jahr hat Yang im Konzern wieder die Leitung übernommen. Der vorherige Chef wechselte wegen der schwachen Börsenkurse in den Aufsichtsrat. Den Titel "Chief Yahoo!" hatte der gebürtige Taiwanese ohnehin nie abgelegt. Das Silicon Valley gehört zu seiner Erfolgsgeschichte wie sein Lebenslauf. Mit seiner Mutter und seinem Bruder kam er im Alter von zehn Jahren im kalifornischen San José an, der selbsternannten Hauptstadt des High-Tech-Tals, in dem die Start-up-Millionäre wohnen. Apple, Ebay, Google, alle haben in dieser Gegend angefangen. Als Yang nach San José kam, soll er nur ein englisches Wort gekannt haben: Shoes. Er lernte schnell andere Wörter dazu, in der Schule war er ein Mathe-Ass. Und obwohl Stanford erklärte, ihn finanziell nicht umfangreich mit Stipendien unterstützen zu können, beschloss er, genau dort, auf dem Campus im Silicon Valley, sein Studium zu beginnen. Während seiner Promotion legte er zusammen mit David Filo ein Netzverzeichnis an, das sie "Jerry's Guide to the World Wide Web" nannten. Schon da stand sein Name im Vordergrund. Die Büros der beiden waren klein und recht unordentlich, aber bei Yang lagen zwischen den Büchern und Zetteln immerhin keine T-Shirts und dreckigen Socken wie bei Filo. Wahrscheinlich haben all diese Anekdoten dem Image der beiden eher geholfen als geschadet, jedenfalls bekamen sie eine Million Dollar von einem Wagnis-Kapital-Geber. Als sie wenig später an die Börse gingen, stieg der Kurs am ersten Tag um 154 Prozent. Ihre kleine Firma war trotz der überschaubaren Umsätze plötzlich 800 Millionen Dollar wert. Yang ließ seine Promotion ruhen. Bis heute. Trotzdem ist er alles andere als ein lässiger Abhänger. Er war immer smart, strebsam und arbeitete, wenn es sein musste, Tag und Nacht. Damit erfüllte er in den Jahren des Internet-Booms jenes Klischee, das asiatischen Einwanderern nachgesagt wurde. Nur hatte das jetzt keinen negativen Touch mehr. "Sie sind so etwas wie die Helden der Jahrhundertwende", schrieb das Time Magazin über erfolgreiche asiatische Einwanderer. Ein Beispiel: Jerry Yang.
    Daten in China weitergegeben Erfolgsorientierung allerdings hat den Finanzriesen Yahoo ausgerechnet in China nach Ansicht eines US-Politikers zu einem "moralischen Pygmäen" gemacht. Weil Yahoo belastende Informationen an die chinesische Regierung weitergegeben hatte, standen zwei Dissidenten vor Gericht. Im feinen, dunkelblauen Nadelstreifenanzug und ohne sein übliches Lächeln trat Yang im November bei einem Gerichtstermin vor die Mutter eines Verhafteten und verbeugte sich vor ihr. Aber geholfen hat sein Auftritt den Angeklagten nicht. Am Ende des Prozesses wurden die beiden Männer zu jeweils zehn Jahren Haft verurteilt. Das Vermögen des leidenschaftlichen Golfspielers wird heute auf 2,2 Milliarden Dollar geschätzt. 75 Millionen davon hat er im vergangenen Jahr der Stanford-Universität gespendet. Wie viele andere Einwanderer mit Wurzeln in China, die in den USA zu Millionären oder Milliardären geworden sind, würde er damit die Bedeutung der Uni als Karriereleiter unterstreichen, stellte die New York Times fest. Er ist auf dieser Leiter sehr hoch geklettert. Vielleicht reicht es gemeinsam mit Microsoft noch für ein paar mehr Sprossen. In Richtung Google."
  11. Averesch, D.: Googeln ohne Google : Mit alternativen Suchmaschinen gelingt ein neutraler Überblick (2010) 0.01
    0.007832993 = product of:
      0.03133197 = sum of:
        0.03133197 = weight(_text_:und in 3374) [ClassicSimilarity], result of:
          0.03133197 = score(doc=3374,freq=26.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.2648742 = fieldWeight in 3374, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3374)
      0.25 = coord(1/4)
    
    Content
    "Googeln hat es bis in den Duden geschafft. Kein Wunder, dass viele das Angebot aus dem kalifornischen Mountain View quasi als amtliche Internet-Suchmaschine betrachten und nutzen. Wegen seiner unzähligen Zusatzdienste vom Webmailer bis hin zu Onlinekarten hat sich Google aber auch den Ruf eines Datenkraken erworben. Auch deshalb wenden sich viele Nutzer den Suchmaschinen der Konkurrenz zu. So propagiert der Verein für freien Wissenszugang (Suma eV) aus Hannover, dass es wichtig sei, "mehrere, unabhängig voneinander arbeitende Suchmaschinen einzusetzen, um einen möglichst neutralen und umfassenden Überblick geeigneter Quellen zu erhalten". Schirmherr des Vereins ist der MP3-Erfinder Karlheinz Brandenburg. Bei einem Quasi-Monopol wie es Google innehat, bestehe "auf Dauer die Gefahr, dass die Ergebnisse der Informationssuche von Einflüssen nicht allgemein erkennbarer Mechanismen der Betreiber geleitet werden." Laut dem Internet-Statistikdienst Hitslink liefen in diesem Jahr bisher knapp 86 Prozent aller Suchanfragen weltweit über Google. Platz zwei belegt weit abgeschlagen Yahoo mit knapp sechs Prozent. Microsofts Suche Bing belegt - noch nicht einmal ein Jahr alt - mit gut drei Prozent bereits den dritten Rang. Vergleichsweise stark genutzt wird rund um den Globus auch noch die globale Suche von Ask. Hindernisse türmen sich vor wechselfreudigen Surfern jedenfalls nicht auf und Probieren kostet nichts. Jeder beliebige Suchdienst lässt sich bei Browsern wie Firefox oder Internet Explorer mühelos einbinden oder als Startseite festlegen.
    Wer den großen Google-Konkurrenten erst einmal im Blindtest auf den Zahn fühlen will, kann das unter http://blindsearch.fejus.com tun. Die Suchergebnisse werden im gleichen Design in drei Spal- ten nebeneinander dargestellt. Erst, wenn der Nutzer sein Votum abgegeben hat, in welcher Spalte die seiner Meinung nach besten Ergebnisse stehen, lüftet die Seite das Geheimnis und zeigt die Logos von Bing, Yahoo und Google an. Der Verein Suma zieht das Fazit, dass "The Big Three" qualitativ gleichwertig seien. Am Tempo gibt es bei den großen Suchmaschinen nichts zu bemängeln. Alle drei spucken ihre Ergebnisse zügig aus. Google und Yahoo zeigen beim Tippen Suchvorschläge an und verfügen über einen Kinder- und Jugendschutzfilter. Letzterer lässt sich auch bei Bing einschalten. Auf die Booleschen Operatoren ("AND", "OR" etc.), die Suchbegriffe logisch verknüpfen, verstehen sich die meisten Suchmaschinen. Yahoo bietet zusätzlich die Suche mit haus- gemachten Abkürzungen an. Shortcuts für die fixe Suche nach Aktienkursen, Call-byCall-Vorwahlen, dem Wetter oder eine Taschenrechnerfunktion finden sich unter http://de.search.yahoo.com/info/shortcuts. Vergleichbar ist das Funktionsangebot von Google, das unter www.google.com/intl/de/help/features.html aufgelistet ist. Das Unternehmen bietet auch die Volltextsuche in Büchern, eine Suche in wissenschaftlichen Veröffentlichungen oder die Recherche nach öffentlich verfügbarem Programmiercodes an. Bei den großen Maschinen lassen sich in der erweiterten Suche auch Parameter wie Sprachraum, Region, Dateityp, Position des Suchbegriffs auf der Seite, Zeitraum der letzten Aktualisierung und Nutzungsrechte einbeziehen. Ganz so weit ist die deutsche Suche von Ask, die sich noch im Betastudium befindet, noch nicht (http://de.ask.com). Praktisch ist aber die Voran-sicht der Seiten in einem Popup-Fenster beim Mouseover über das Fernglas-Symbol vor den Suchbegriffen. Die globale Ask-Suche (www.ask.com) ist schon weiter und zeigt wie Google direkt auch Bilder zu den relevantesten Foto- und Video-Suchergebnissen an.
    Unzählige kleinere und Spezial-Suchmaschinen bieten Einblicke in Ecken des Netzes, zu denen man mit den Großen eher nicht gelangt wä- re. Nach wie vor gibt es auch Verzeichnisdienste. die Seiten in genau beschriebenen Kategorien auflisten. Dazu gehört www.dmoz.org. Um mehrere Maschinen und Verzeichnisdienste gleichzeitig abzufragen, empfehlen sich Metasuchmaschinen. Eine der bekanntesten ist MetaGer, ein Projekt der Universität Hannover. Eine weitere interessante Metasuchmaschine, deren Ergebnisse aber auf Nordamerika zugeschnitten sind, ist www.clusty.com. Wie der Name andeutet, bündelt sie die Suchergebnisse zu logischen Clustern. Auch praktisch: Beim Klick auf die Lupensymbole hinter den Suchergebnissen öffnen sich beliebig viele Vorschauen direkt in der Web- seite. Ob das Googeln ohne Google irgendwann nichts besonderes mehr ist, hängt maßgeblich von den Surfern ab - davon ist man beim Verein für freien Wissenszugang überzeugt: Änderungen seien ,;weniger durch neue Technologien, sondern vor allem durch verändertes Nutzerverhalten aufgrund steigender Informationskompetenz zu erwarten."
  12. Hartknopf, A.: ¬Die Kugel für Google? : Alternative Suchwerkzeuge (2006) 0.01
    0.007680882 = product of:
      0.030723527 = sum of:
        0.030723527 = weight(_text_:und in 4733) [ClassicSimilarity], result of:
          0.030723527 = score(doc=4733,freq=36.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.25973052 = fieldWeight in 4733, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4733)
      0.25 = coord(1/4)
    
    Abstract
    Das Web wächst rasant und GoogLe findet offensichtlich immer weniger. Eine Reihe raffinierter Tools will Abhilfe schaffen.
    Content
    "Für viele ist es schon Gewohnheit: Wer im Web etwas sucht, geht zu Google. Der Suchdienst hat in kürzester Zeit die Netzwelt erobert. Wer heute im Netz etwas sucht, sagt: das googel ich. Doch nicht immer ist die Inanspruchnahme des Generalisten der Weisheit letzter Schluss. Eine Anzahl von Spezialisten versucht mit witzigen Angeboten, Google die Kugel zu geben. Sicher haben Sie so etwas auch schon erlebt: Kurz vor Feierabend sind Sie beim halbberuflichen Surfen auf eine supertolle Site mit Tipps zur Marathon-Vorbereitung gestoßen. Abends geben Sie bei Ihren Lauffreunden damit an. Die lachen Sie später aus, weil sie von den tollen Informationen nichts gefunden haben. Die Inhalte des Web ändern sich manchmal rasant schnell und vor allem zu unvorsehbaren Zeitpunkten. Wer nicht Gefahr laufen möchte, stundenlang mit wachsender Verzweiflung nach Inhalten zu suchen, von denen nur noch das persönliche Gedächtnis eine vage Ahnung behalten hat, kann jetzt bei Yahoo ein eigenes Webarchiv anlegen. Die "Mein Web" genannte Funktion speichert mit einem Wort gesagt die gefundenen Webseiten für Sie und macht sie so dauerhaft verfügbar. Gegen das Vergessen Nach der Anmeldung bei Yahoo ist dieser Dienst kostenlos nutzbar. Sie können in "Mein Web" Ordner anlegen und Ihre Lesezeichen so sortieren. Unterordner sind derzeit leider nicht möglich. Wer möchte, kann seine Browser-Lesezeichen importieren. Das funktioniert mit den Bookmarks von Internet Explorer, Firefox und Netscape. Auf diese Weise sind die Favoriten von jedem Internet-fähigen Rechner aus zugänglich. Über die Yahoo-Toolbar oder ein leicht zu installierendes Bookmarklet lassen sich von beliebigen StelLen im Web nun Seiten zu "Mein Web" hinzufügen. Yahoo macht eine Kopie des HTML-Codes und archiviert sie im gewünschten Ordner. Oder Sie benutzen die Yahoo-Suchmaske und speichern Treffer direkt aus der Ergebnisliste heraus. Sie können die gespeicherten Seiten nach Datum, Titel, URL und Art der Suche durchsuchen. Außerdem lassen sich beliebige Gruppen von Treffern veröffentlichen, sodass jeder über eine maskierte ID, die seine privaten Ordner schützt, darauf zugreifen kann. Unerwünschte Ergebnisse können blockiert werden und verschwinden so bei künftigen Suchen aus den Ergebnissen. Leider speichert "Mein Web" nur den HTMLCode der archivierten Seiten. Es kann also gut sein, dass verlinkte Bilder, Frames, Flash-Animationen usw. später nicht mehr verfügbar sind. Auch mit der richtigen Wiedergabe der gespeicherten Seiten tut sich das noch in der Betaphase befindliche "Mein Web" mitunter schwer. Beim ersten Ausprobieren wurde aus manchem Layout ein befremdliches Durcheinander. Vor allem deshalb begeistert der an sich sinnvolle Dienst noch nicht vollends.
    Dranbleiben Der amerikanische Dienst PubSub verkörpert gewissermaßen die Gegenidee zu Yahoos Seitenspeicher. Bei PubSub geht es in erster Linie darum, über neue Treffer zu einer Suchanfrage informiert zu werden. Google und andere Suchmaschinen sammeln Webseiten, um sie bei Suchanfragen zur Verfügung stellen zu können. PubSub sammelt Suchanfragen, um für diese zutreffende Seiten zur Verfügung stellen zu können. Die Treffer kommen von einer proprietären Suchmaschine, die nach eigenen Angaben über 17 Millionen Weblogs, 50.000 Newsgroups und sämtliche EDGAR-Filings umfasst. Bei letzteren handelt es sich um ein Projekt der amerikanischen Börsenaufsichtsbehörde SEC; die Online-Registratur (Electronic Data Gathering and Retrieval Project) umfasst eine Auflistung von Quartals- und Jahresberichten und den dazugehörigen Dokumenten von an der Börse notierten US-Firmen. Es handelt sich also in vielen Fällen um häufig aktualisierte Inhalte. PubSub speichert die nach einer kostenlosen Anmeldung gemachten Suchanfragen und aktualisiert die Ergebnisliste, sobald ein neuer Treffer zu den angefragten Begriffen eingetroffen ist. Aktuelle Ergebnisse lassen sich direkt auf der PubSub-Site, über einen RSS-Feed-Reader oder die für den Internet Explorer erhältliche proprietäre SideBar abfragen. Die im Grunde gute Idee führt jedoch (noch) zu bescheidenen Ergebnissen. Eine Sprachauswahl (vergleichbar Googles "Seiten auf Deutsch") ist nicht vorgesehen. Deutschsprachige Suchanfragen scheinen insgesamt so gut wie sinnlos. Selbst auf die Anfrage "George Bush" kamen auf den ersten Blick nur wenig relevante Treffer. Es bleibt also, wenigstens für Deutsch sprechende Nutzer, vorläufig fraglich, ob der noch junge Dienst wirklich zu einer sinnvollen Ergänzung zum Prinzip der Suchmaschinen beitragen wird.
    Das geht tief Ein kleiner Mythos wird häufig aus dem so genannten "deep web" gemacht. Gemeint sind damit all jene Inhalte, die Suchmaschinen niemals listen, weil ihre Crawler sie nicht erreichen - hauptsächlich aus Datenbanken dynamisch generierte Contents und damit eine riesige Menge von Seiten. Bis zu 500-mal größer soll das "unsichtbare" Web sein. Der Suchdienst Complete Planet will beim Entdecken des Verborgenen helfen. Er listet derzeit 70.000 Datenbanken in über 40 Kategorien von "Agriculture" bis "Weather". Zu jedem Angebot gibt es eine englische Zusammenfassung. Da es jedoch praktisch kaum machbar ist, die teilweise über 100 Datenbanken zu einem Thema auf diese Weise abzuarbeiten, lassen sich die Beschreibungstexte nach Stichworten durchsuchen. Diese Suche lässt sich auf die gesamte Complete-Planet-Datenbank ausweiten oder auf eine Kategorie beschränken. Wie häufig sind auch hier diejenigen im Vorteil, die ihre Infos aus dem englischen Sprachraum beziehen können. Turbo10 ist ein Suchdienst, der nach eigenen Angaben 804 "deep net engines" abfragt, über die zunächst wenig Genaues zu erfahren ist. Die sparsam aufgemachte Site schmeißt auch sonst nicht gerade mit Selbstauskünften um sich. Dafür bietet sie ein sehr übersichtlich organisiertes Ergebnisfenster. Die Ergebnisse werden nach "Clustern" sortiert: Zum Suchbegriff "dvd brenner" etwa lieferte Turbo10 u. a. die Kategorien "hardware", "shops" oder "tests". Auch die abgefragten Suchdienste lassen sich hier mit der Zahl ihrer Treffer auflisten. Interessant ist die Möglichkeit, sich aus der Liste dervon Turbo10 genutzten Suchmaschinen eine eigene Kollektion zusammenzustellen. Dazu muss der Benutzer allerdings seine E-Mail-Adresse herausrücken. Für die tiefgehenden Anfragen wird außerdem einiges an kostenpflichtiger Software angeboten, die das Suchen erleichtern soll.
    Im deutschsprachigen Bereich betätigt sich zum Beispiel Bingooo in diesem Feld. Spezialisierte 'Agenten' fragen Informationen aus Bereichen wie Einkaufen, Reisen, Wissen oder Nachrichten ab und geben sie aufbereitet wieder. Eine Trial-Version der Anwendung ist kostenfrei verfügbar. Das mit zusätzlichen Funktionen ausgestattete Programm kostet rund 57 Euro. Viel bekommen Als Beispiel einer Meta-Suchmaschine sei der Metaspinner erwähnt. Metaspinner richtet Ihre Anfrage an 18 einzelne Suchdienste, darunter Alltheweb, Altavista, T-Online (Google) und Yahoo. Wer möchte, kann aus diesen Diensten eine Auswahl treffen. Außerdem finden sich direkt in der Suchmaske Buttons zum Einbeziehen von Wikipedia, eBay, Preispiraten und Amazon in die Suche. Auf Wunsch lassen sich die Ergebnisse in Kategorien sortieren. Durch die zahlreichen Konfigurationsmöglichkeiten wirkt der Metaspinner einem typischen Problem der Metasuchmaschinen entgegen: Werviele Dienste anfragt, bekommt viele Ant-worten. Die manchmal sowieso schon mühevolle Suche nach brauchbaren Treffern kann bei Mehrfachanfragen nämlich noch mühevoller werden. Google ist also nicht alles. Es gibt im Netz eine Reihe von Tools, die vor allem bei Spezialinteressen oder-fragen helfen. Vieles davon ist jedoch auf das englischsprachige Web konzentriert. Für viele Einzelfragen schadet es nach wie vor nicht, die entsprechenden Datenbanken zu kennen. Neue Angebote wie Yahoos "Mein Web" weisen in eine interessante Richtung, sind aber noch verbesserungswürdig."
  13. Hosbach, W.: ¬Die Suche denkt mit : Moderne Suchtechnologien (2006) 0.01
    0.007680882 = product of:
      0.030723527 = sum of:
        0.030723527 = weight(_text_:und in 4885) [ClassicSimilarity], result of:
          0.030723527 = score(doc=4885,freq=36.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.25973052 = fieldWeight in 4885, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4885)
      0.25 = coord(1/4)
    
    Abstract
    Google und Co. sind auf dem Weg in die Sackgasse. Die Zukunft gehört der Suche mit Intelligenz und Bedeutung. Denn dann hat die Suche Sinn und Verstand
    Content
    "Stellen Sie sich vor, ein Fremder bittet Sie in seiner Sprache um Hilfe. Sie verstehen: "Drink" und "Bier". Wenn Sie in München leben, schicken Sie den Mann auf dem schnellsten Weg ins Hofbräuhaus. Google würde ebenso handeln: Die meisten Suchenden, die "Drink Bier" von sich geben, suchen das Hofbräuhaus (Popularitätsprinzip). Aber vielleicht wollte er wissen, wo er eine Flasche Bier kaufen kann oder ob Sie ein Bier mit ihm trinken möchten? Sie haben ihn Schlichtweg nichtverstanden. So geht es den Suchmaschinen auch. Umso erstaunlicher ist es, wie präzise deren Antworten oft sind. Wenn man aber etwas sucht, was nicht dem Popularitätsprinzip entspricht, was also vom Suchen der Vielen abweicht, so steht man vor Zehntausenden von Treffern. Besser wäre es, wenn die Suchmaschine versteht, was man sucht. Wenn sie etwas von der Bedeutung der Sucheingabe und der Bedeutung der Webseiten wüsste. Aber die steht in den Seiten nicht drin. Eine komplette Bedeutungshierarchie müsste dem jetzigen Web hinzugefügt werden. Im Kleinen gibt es Ansätze dazu unter dem Namen Semantic Web (www w3. org/2001/sw; in der Sprachwissenschaft beschäftigt sich die Semantik mit der Bedeutung). Der Autor fügt HTML-Dokumenten die Bedeutung in Form von XML-Metatags zu. Ein Beispiel für RDF ist RDF Site Summary (RSS). Eine RSS-Webseite (z.B. www.pc-magazin .de) bietet Nachrichten. Im Gegensatz zu einer normalen Nachrichtenseite sind über XML-Tags Bedeutungen zugefügt. <title> bedeutet: Hier folgt eine Überschrift, <description>: Hier folgt die Inhaltsangabe. Ein RSS Reader (z.B. Thunderbird) kann nun ganz klar erkennen, was eine Überschrift ist, und muss sie nicht über Standardelemente (<b>, <h1>) erraten. Eine andere semantische Anwendung könnte ein Musiker-Netz sein mit Bedeutungs-Tags für Instrumente, Konzerte, Terminen, Downloads etc. Hier könnte man mit entsprechenden Programmen (Browser-Extensions) sehr viel präziser suchen. Eine Besonderheit ist, das RSS auch über Hyperlinks arbeitet. Metainformationen müssen sich nicht auf der Seite selbst finden, sondern eine andere Seite kann sie aufführen. So erschließt sich eine Interessensgruppe fremde Ressourcen und bringt sie in einen eigenen Bedeutungszusammenhang, der vom Autor einer Seite vielleicht nicht gesehen oder nicht einmal gewollt wurde.
    Mehr Intelligenz Semantik bedeutet bislang Handarbeit. Das ist lästig und kostspielig. Der Computer soll die Bedeutung bitte selbst verstehen! Im Forschungsbereich der Künstlichen Intelligenz (KI) arbeiten Wissenschaftler auch an derVerbesserung der Suche. Die Forscher vom Fraunhofer Institut für Integrierte Publikations- und Informationssysteme unter der Leitung von Prof. Thomas Hofmann haben ein Verfahren vorgestellt, das Konzepte von Texten extrahiert. "Konzepte bilden eine Brücke zwischen der Ausdrucksweise in einem Dokument und der in der Anfrage", erläutert Hofmann seinen Ansatz. So findet der Suchende alle relevanten Dokumente, selbst wenn die Suchbegriffe nicht direkt vorkommen. Das funktioniert derzeit nur in einem thematisch begrenzten Raum, z.B. einem Webauftritt über Medizin, Handel, Hardware... Bevor die Suchmaschine die Dokumente indiziert, errechnet sie die Konzepte aus einer begrenzten Sammlung an Dokumenten. Diese hat der Betreuer des Systems so ausgewählt, dass sie für das Themengebiet und den Webauftritt charakteristisch sind. Mit Methoden der Statistik und Wahrscheinlichkeitsrechnung (Probabilistic Latent Semantic Analysis; kurz pLSA) extrahiert der Roboter einige hundert bis tausend Konzepte. Die bestehen aus Begriffen und deren Art, gemeinsam in Dokumenten aufzutreten (Häufigkeit, Ort, Beziehung etc.) Für das Beispiel Handel gibt es etwa ein Konzept für Import oder eines für Buchhaltung. Stehen die Konzepte fest, erstellt die Suchmaschine den Index, indem sie alle Dokumente der Domäne den Konzepten zuordnet. Wenn der Anwender nun sucht, so versucht die Suchmaschine, die Anfrage ebenfalls Konzepten zuzuordnen, und wählt dementsprechend die Ergebnisse aus. Hoffmanns System ist auf der Webseite www.medlineplus.com im Einsatz. Gibt der Anwender z.B. +bird +flu ein, so sucht die Suchmaschine genau die Worte - ohne +, jedoch mit Konzept. Die Frage, ob eine konzeptbasierte Suchmaschine für das ganze Web möglich ist, bezweifelt Hofmann derzeit: "Das ist eine Frage der Skalierbarkeit. Die statistische Analyse ist nicht ganz trivial und braucht eine entsprechende Rechenleistung. Auf lange Sicht wird das aber kommen.
    Im Web müsste die KI-Suchmaschine Hunderttausende von Konzepten bewältigen. Das ist kostspielig. Eine intelligente Suche wäre pro Anfrage vielleicht zehnmal teuerer als eine jetzige, bei vielen Millionen täglichen Anfragen ist das ein erheblicher Kostenfaktor. Dennoch laufen bei Google Entwicklungen in diese Richtung. Der Marktführer muss Technologieführer bleiben, um zu überleben. Mehr Sprache Die KI arbeitet daran, die Sprache immer besser zu verstehen, bis hin zur Möglichkeit, Fakten ausSätzen zu extrahieren. Das erfordert eine genaue gramma tikalische und semantische Analyse. Auch da haben sichstatistische Verfahren durchgesetzt, die eine große Menge an Sätzen auswerten. Das öffnet auch Wege zum automatischen Übersetzen von Sprachen, was wieder für die Suche relevant ist. An die Grenzen kommt die KI dann, wenn sie Fakten aus mehreren Dokumenten zusammensetzen soll- also Bedeutung im synthetischen Schluss aus verschiedenen Quellen extrahieren. Ebenso wenig kann die KI etwas über die Glaubwürdigkeit einer Quelle sagen. Das schaffen wir als Menschen ja oft kaum. Es gibt auch Methoden, mit denen Suchmaschinen den Suchenden besser verstehen. Sucht er z.B. nach Flügel, so weiß das Tool erst einmal nicht, ob ein Instrument, ein Gebäude, ein Vogel oder ein Flugzeug gemeint ist. Das könnte die Suchmaschine aber vermuten, wenn sie den Anwender besser kennt: Ist er Musiker oder Flugzeugkonstrukteur? Mit KI könnte sie das lernen, z.B. aus seinen bisherigen Suchanfragen (Orchester oder Triebwerke?). Sie könnte auch die Festplatte des Anwenders durchsuchen, um anhand der Dokumente festzustellen, womit der Suchende sich beschäftigt und was ihn interessiert. Das interessiert aber auch das Finanzamt und Adresshändler. Viele Anwender werden Probleme mit der Vertraulichkeit ihrer Daten sehen. Bei einer Internet-Suchmaschine müssten die Informationen als Profile auf dem Server liegen. Wer will das schon?"
  14. Puschwadt, O.: Wer suchet, der findet : Suchmaschinen - Es müssen nicht immer nur Google und Yahoo sein (2005) 0.01
    0.0076637934 = product of:
      0.030655174 = sum of:
        0.030655174 = weight(_text_:und in 3731) [ClassicSimilarity], result of:
          0.030655174 = score(doc=3731,freq=14.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.25915268 = fieldWeight in 3731, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3731)
      0.25 = coord(1/4)
    
    Content
    "Nobody is perfect - diese Weisheit trifft auch auf Suchmaschinen zu. Google, Yahoo und Co. finden zwar viel, aber nicht alles. Insbesondere bei Spezialthemen ist es ratsam, eine Meta-Suchmaschine wie Metacrawler (www.metacrawler.de), MetaGer (meta.rrzn.uni-hannover.de) oder Ixquick (www.eu.ixquick.com) zu Rate zu ziehen. Sie fragen gleichzeitig mehrere Suchmaschinen ab. Bei Metacrawler sind dies beispielsweise 22 internationale und 15 nationale Suchdienste. Ixquick durchstöbert gleichzeitig mindestens zehn der populärsten Suchmaschinen und dies in 17 Sprachen. Dadurch verbessert sich die Trefferquote natürlich erheblich. Eine weitere gute Möglichkeit, die spezielle Suche im Internet spürbar zu erleichtern, ist die Benutzung eines Webkataloges. Zu empfehlen sind Excite (www.excite.de), das Suchlexikon (www.suchlexikon.de) oder auch das englischsprachige Angebot iTools (www.itools.com). Diese Webkataloge können als "Verzeichnisse von Suchmaschinen" bezeichnet werden. Sie bündeln verschiedene Suchmaschinen zu bestimmten Themengebieten wie Wirtschaft, Freizeit, Computer oder Sport. Keine Suchmaschine im eigentlichen Sinne, aber dennoch sehr nützlich, um an Informationen oder auch Ratschläge im Netz zu kommen, ist Wikipedia (de.wikipedia.org). Das Internet-Lexikon hat sich den Beinamen "die freie Enzyklopädie" gegeben und dient als Sammelpunkt für Informationen und Wissen der User. Dies ist allerdings auch die Schwäche der Seite, denn um eine hundertprozentig verlässliche Antwort zu bekommen, sind die Angaben oft zu ungenau. Eine interessante Variante ist die News-Suchmaschine Paperball (www.paperball.de). Hierbei werden die Online-Ausgaben deutscher und internationaler, Tagesund Wochenzeitungen durchforstet. Man kann die Suche auch auf bestimmte Rubriken beschränken. Auf der Suche nach ehemaligen Mitschülern? Dann sind Sie bei StayFriends (www.stayfriends.de) genau richtig. Nach einer kostenlosen Anmeldung kann man nach verloren gegangenen Freunden aus der Schulzeit fahnden. Fast 1,8 Millionen Einträge sollen laut Anbieter bereits auf der Seite eingegangen sein. Der Nachteil: Wer sich nicht eingetragen hat, wird auch nicht gefunden. Wer gezielt nach Bildern sucht, wird bei Bomis (www.bomis.com) fündig. Hierbei werden nur Seiten durchstöbert, auf denen sich Bilder zu bestimmten Themen oder Personen befinden. Abschließend sei allen Internetnutzern noch eine ganz spezielle Seite ans Herz gelegt. Die Suchfibel (www.suchfibel.de) gibt wichtige Tipps für das richtige Suchen im Netz. Zum einen werden hier Ratschläge gegeben, die das Finden von Informationen im Web einfacher machen, zum anderen listet die Seite auch 2700 verschiedene Suchmaschinen - nach Stichwörtern geordnet - auf."
  15. Söllner, K.: Google Scholar und Windows Live Academic Search - aktuelle Entwicklungen bei wissenschaftlichen Suchmaschinen (2006) 0.01
    0.0076637934 = product of:
      0.030655174 = sum of:
        0.030655174 = weight(_text_:und in 5181) [ClassicSimilarity], result of:
          0.030655174 = score(doc=5181,freq=14.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.25915268 = fieldWeight in 5181, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=5181)
      0.25 = coord(1/4)
    
    Abstract
    Dass das World Wide Web als geeignete Quelle wissenschaftlicher Information angesehen werden kann, ist für viele Fächer inzwischen unumstritten. Weniger im Bewusstsein der Nutzer verankert ist die Erkenntnis, dass das Web nur in den Ausschnitten und in der Anordnung zur Kenntnis genommen werden kann, wie sie die Suchmaschinen präsentieren. Dieser Aspekt ist vor allem durch die allgegenwärtigen Rankingverfahren der führenden Suchmaschinenanbieter in den Hintergrund getreten. Dagegen ist die Suche in Internetkatalogen, die offensichtlicher nur Ausschnitte und eine unmittelbar nachvollziehbare Anordnung präsentieren, seit dem Siegeszug von Googles PageRank unpopulär geworden. Rankingverfahren, Abdeckung und Aktualität eines Suchmaschinenindex sind nicht nur Geschäftsgeheimnis der Betreiher, sondern angesichts ihres scheinbar reibungslosen Funktionierens für den normalen Nutzer uninteressant. Dass auch Kenntnisse einer strukturierten Suche oder Suchsyntax für das textbasierte Web meistenteils unnötig oder inadäquat sind, lässt die Websuche besonders einfach erscheinen - im Unterschied zu den Suchmasken und Syntaxkonventionen der Bibliotheks-0PACs und vieler Datenbankanbieter. Diese Einfachheit wird durch installierte Suchwerkzeuge a la Google Toolbar bzw. fest integrierte Suchschlitze wie im Mozilla-Browser Firefox bzw. im Internet Explorer 7.0 zum Standard für die großen Suchmaschinen, und durch entsprechende Such-Plugins auch für andere Suchen. Ein besonderer Wettbewerbsvorteil der Suchmaschinen gegenüber den Datenbankanbietern, der sich auch nicht durch Anpassungen beim Design kompensieren lässt, ist die Kostenfreiheit der Suche. Darüber hinaus erfüllen sie eine wesentliche Anforderung an sehr viele wissenschaftliche Themenstellungen: sie sind strikt interdisziplinär. Damit machen Sie aus der Not eine Tugend, denn eine fachliche Auswahl oder intellektuelle Auswertung findet in der Regel nicht statt. Die Defizite der großen Suchmaschinen liegen aus wissenschaftlicher Sicht betrachtet aber auch genau in diesem Bereich: unspezifische oder thematische Suchen führen zu Massen populärer Websites, nicht aber zum wissenschaftlichen Content, insbesondere etwa in der Medizin. Das Dilemma des häufig schlechten Rankings wissenschaftlicher Inhalte ist einer der Ausgangspunkte für den Ruf nach wissenschaftlichen Suchmaschinen.
  16. Summann, F.; Wolf, S.: Suchmaschinentechnologie und wissenschaftliche Suchumgebung : Warum braucht man eine wissenschaftliche Suchmaschine? (2006) 0.01
    0.0076637934 = product of:
      0.030655174 = sum of:
        0.030655174 = weight(_text_:und in 5958) [ClassicSimilarity], result of:
          0.030655174 = score(doc=5958,freq=14.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.25915268 = fieldWeight in 5958, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=5958)
      0.25 = coord(1/4)
    
    Abstract
    Bereits seit längerem ist bekannt, dass Studierende und Wissenschaftler zur Informationsrecherche Internet-Suchmaschinen bevorzugen [Klatt 2001]. Wissenschaftlich relevante Internet-Seiten gehen aber in der Vielzahl der von Google, Yahoo & Co erfassten Seiten unter. In den riesigen Treffermengen allgemeiner Suchmaschinen sind wissenschaftliche Quellen über die umfangreichen Ergebnisseiten verstreut und zudem in der Trefferanzeige nur schwer als solche zu identifizieren. Internet-Suchmaschinen indexieren nur frei zugängliche Internet-Seiten (das sogenannte "Visible Web"). Inhalte aus wissenschaftlich relevanten Fach-, Volltext- und Verbunddatenbanken (das "Invisible Web"), werden bisher nicht erfasst oder zumindest nicht in den allgemeinen Index der Suchmaschinen integriert. Aber auch ein Teil des sichtbaren Webs bleibt für die Suchmaschinen unsichtbar. OAI-Server, die eigentlich zum "Visible Web" gehören, werden - wenn überhaupt - häufig nur unvollständig indexiert, was allerdings auch an der oftmals wenig suchmaschinenfreundlichen Aufbereitung der Inhalte auf diesen Servern liegt. Die gängigen Windows-Office-Dateiformate werden zwar von den allgemeinen Suchmaschinen inzwischen recht zuverlässig indexiert, eine Reihe von in Forschung und Lehre verwendeten Datenformate werden aber bisher von Internet-Suchmaschinen nicht berücksichtigt (z.B. LaTex, OpenOffice). Unabhängig vom Dateiformat gibt es eine Grenze bei der Indexierung besonders großer Dateien. Dateien werden nur bis zu einer Größe von etwa 800 KB vollständig indexiert. Alle Inhalte, die in einer Datei über diesem Limit liegen, werden nicht mehr indexiert, was sich bei umfangreichen Volltexten negativ bemerkbar macht. Um alle relevanten Informationen zu einem Thema zusammentragen zu können, müssen Informationsrecherchen daher sowohl in Suchmaschinen als auch in Fachdatenbanken durchgeführt werden. Recherchen in den Datenbanken des "Invisible Web" erbringen zwar hochwertige Ergebnisse, dauern oft aber vergleichsweise lange. Die Antwortzeiten von Metasuchumgebungen, die ihre Suchanfragen über das Z39.50-Protokoll oder per HTTP an eine Vielzahl von Zieldatenbanken weiterreichen und anschließend die Ergebnisse zusammenführen, sind um ein Vielfaches höher als die der Internet-Suchmaschinen. Häufig ist auch die Hardwareausstattung der Zielserver nicht ausreichend oder die Lizenzverträge der Herstellerfirmen lassen nur eine begrenzte Anzahl gleichzeitiger User zu. Die Bielefeld Academic Search Engine (BASE) vereinigt die Vorteile von Suchmaschinen (einfache Nutzung, schnelle Antwortzeiten, Relevanzbewertung) und Datenbanken (Berücksichtigung bibliographischer Suchaspekte, hohe Qualität der Quellen).
  17. Korves, J.: Seiten bewerten : Googles PageRank (2005) 0.01
    0.0076637934 = product of:
      0.030655174 = sum of:
        0.030655174 = weight(_text_:und in 866) [ClassicSimilarity], result of:
          0.030655174 = score(doc=866,freq=14.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.25915268 = fieldWeight in 866, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=866)
      0.25 = coord(1/4)
    
    Abstract
    Mit der Entstehung des World Wide Web im Jahre 1989 und dem darauf folgenden rasanten Anstieg der Zahl an Webseiten, kam es sehr schnell zu der Notwendigkeit, eine gewisse Ordnung in die Vielzahl von Inhalten zu bringen. So wurde schon im Jahre 1991 ein erster Vorläufer der heutigen Websuchmaschinen namens Gopher entwickelt. Die Struktur von Gopher, bei der zunächst alle Webseiten katalogisiert wurden, um anschließend komplett durchsucht werden zu können, war damals richtungweisend und wird auch heute noch in den meisten anderen Websuchmaschinen verwendet. Von damals bis heute hat sich sehr viel am Markt der Suchmaschinen verändert. Seit dem Jahre 2004 gibt es nur mehr drei große Websuchmaschinen, bezogen auf die Anzahl erfasster Dokumente. Neben Yahoo! Search und Microsofts MSN Search ist Google die bisher erfolgreichste Suchmaschine der Welt. Dargestellt werden die Suchergebnisse, indem sie der Relevanz nach sortiert werden. Jede Suchmaschine hat ihre eigenen geheimen Kriterien, welche für die Bewertung der Relevanz herangezogen werden. Googles Suchergebnisse werden aus einer Kombination zweier Verfahren angeordnet. Neben der Hypertext-Matching-Analyse ist dies die PageRank-Technologie. Der so genannte PageRank-Algorithmus, benannt nach seinem Erfinder Lawrence Page, ist die wesentliche Komponente, die Google auf seinen Erfolgsweg gebracht hat. Über die genaue Funktionsweise dieses Algorithmus hat Google, insbesondere nach einigen Verbesserungen in den letzten Jahren, nicht alle Details preisgegeben. Fest steht jedoch, dass der PageRank-Algorithmus die Relevanz einer Webseite auf Basis der Hyperlinkstruktur des Webs berechnet, wobei die Relevanz einer Webseite danach gewichtet wird, wie viele Links auf sie zeigen und Verweise von ihrerseits stark verlinkten Seiten stärker ins Gewicht fallen.
    Diese Seminararbeit widmet sich der Darstellung des PageRank-Algorithmus sowie der Erläuterung von Verbesserungen, durch die der Algorithmus schneller und effizienter wird. Hierzu werden dem Leser in Kapitel 2 zunächst einige Grundlagen nahe gebracht. Anschließend wird im Hauptteil dieser Ausarbeitung in Kapitel 3 detailliert auf den PageRank-Algorithmus sowie auf drei Weiterentwicklungen eingegangen, welche die Verarbeitungseffizienz des Grundalgorithmus so erhöhen, dass dadurch ein themenspezifisches Ranking ermöglicht werden könnte. Abschließend werden die Ergebnisse in Kapitel 4 zusammengefasst und ein Ausblick auf die Zukunft gegeben.
    Content
    Ausarbeitung im Rahmen des Seminars Suchmaschinen und Suchalgorithmen, Institut für Wirtschaftsinformatik Praktische Informatik in der Wirtschaft, Westfälische Wilhelms-Universität Münster. - Vgl.: http://www-wi.uni-muenster.de/pi/lehre/ss05/seminarSuchen/Ausarbeitungen/JanKorves.pdf
  18. Hentschel, A.: Was Google & Co. wirklich finden (2007) 0.01
    0.0076637934 = product of:
      0.030655174 = sum of:
        0.030655174 = weight(_text_:und in 488) [ClassicSimilarity], result of:
          0.030655174 = score(doc=488,freq=56.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.25915268 = fieldWeight in 488, product of:
              7.483315 = tf(freq=56.0), with freq of:
                56.0 = termFreq=56.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=488)
      0.25 = coord(1/4)
    
    Content
    "Das Internet wächst und wächst: Im Juni wurde es laut einer Erhebung des englischen Branchendienstes Netcraft aus 122 Millionen Webservern gebildet - im Vergleich zum Vormonat ein Plus von vier Millionen. Wahre Größe zeigt das Web aber erst bei der Anzahl der einzelnen Webseiten: Es sind schätzungsweise 500 Milliarden! Ohne eine gute Suchmaschine geht da nichts, zumal sich die Inhalte ständig ändern: Blogs und Videoportale haben aus dem statischen Web ein dynamisches Medium gemacht, das die Suchtechnologien vor neue Hürden stellt. Die Webindizes müssen immer mehr und sich immer schneller verändernde Dokumenttypen analysieren. Und das sollten die Suchmaschinen zuverlässig tun, denn die Suche ist die wichtigste Anwendung im Internet: 80 Prozent aller deutschen Websurfer recherchieren in Suchmaschinen, statt direkt eine URL in das Browser-Fenster einzutippen. Bei der Wahl der Suchmaschine obsiegt offenbar die Macht der Gewohnheit: Die absolute Mehrheit der Deutschen sucht mit Google - 87 Prozent. Yahoo und Microsofts Live Search (ehemals MSN) bringen es auf mickrige drei Prozent Marktanteil, AOL und T-Online auf jeweils zwei Prozent.
    Wir wollten wissen, ob das scheinbar unerschütterliche Vertrauen in Google gerechtfertigt ist und haben fünf Suchmaschinen gegen Google antreten lassen: Neben Google befinden sich die beiden weiteren Großen Yahoo und Microsoft Live Search im Testfeld, sowie die Websuchen von Ask.com, Abacho und Seekport. Nicht dabei sind Portale wie T-Online oder AOL. Auch wenn diese für viele Nutzer das Einfallstor ins Internet sind: Sie nutzen keine eigenen Suchtechnologien, sondern bedienen sich bei Google oder Yahoo - die Testergebnisse wären hier also identisch gewesen. Soviel vorneweg: Google ist zu recht Marktführer. Denn kein Testkandidat lieferte durchgängig eine so hohe Trefferqualität. Das heißt allerdings nicht, dass die Konkurrenz so schlecht ist, wie es die nackten Marktzahlen vermuten ließen. Bei der Video- oder News-Suche beispielsweise ist Ask.com besser als Google. Eine komplette Enttäuschung ist Microsofts Live Search, die bei der Qualität der Suchergebnisse selbst vom kleinen Anbieter Abacho geschlagen wurde. Für den Test fütterten wir jede Suchmaschine mit insgesamt 25 Suchbegriffen. Je zehnmal stellten wir allgemeine Suchanfragen, je fünfmal suchten wir nach News, Bildern und Videos. Bei allgemeinen Fragen ist Google unschlagbar. Nur ein paar Beispiele: Sie suchen nach "Wetter in Merching" und bekommen oberhalb der Trefferliste die Wettervorhersage angezeigt - selbst für ein kleines Dorf. "Zugverbindung Hamburg München" führt Sie mit einem Klick zur Übersicht mit den nächsten Zügen. Der Wunsch nach "Download Firmware Plextor PX716" wird mit dem direkten Link zur Plextor-Webseite belohnt. "15,66 Dollar in Euro" zeigt direkt den aktuellen Umrechnungskurs an.
    Wie hat uns dagegen die Konkurrenz in die Irre geschickt: Statt Wetter in Merching bekamen wir die Seite der freiwilligen Feuerwehr (Ask.com), statt einer Zugverbindung das Angebot, einen Flug zu buchen (Seekport), statt Firmware Spam, statt Umrechnungskursen Börsennachrichten. Ein wenig schwächelte Google bei zwei Begriffen: "Aktienkurs Telekom" und "Strompreis Übersicht". Hier zeigte Yahoo bessere Ergebnisse - beispielsweise gleich oberhalb der Trefferliste einen Kurs-Chart für die T-Aktie. Für eine wichtige Frage blieben uns alle Suchmaschinen die Antwort schuldig: "Wie heißt der Soldat bei Biene Maja?" Auch bei der Bildersuche überzeugte Google auf der ganzen Linie - zu jedem unserer fünf Begriffe fanden wir genügend gute Treffer. Alle anderen leisteten sich dagegen Ausrutscher: So findet Ask Apples "iPhone" und das CD-Cover des Wir-sind-Helden-Albums "Soundso" nicht. Abacho, Yahoo und Live Search können mit Gilbert & Georges Kunstwerk "Are You Angry Or Are You Boring" nichts anfangen. Bei Seekport konnten wir uns die Mühe sparen - es gibt keine Bildersuche. Videos werden von Seekport ebenfalls ignoriert. Auch bei Abacho fehlt diese Spezialsuche, allerdings hilft die ordinäre Websuche bisweilen: Die Anfrage "Stromberg Herr Loermann" führte uns beispielsweise zum Videoportal Maxdome mit Trailern und dem Stream der Comedy-Serie. Ask, Live Search und Google unterscheiden sich in der Videosuche nur marginal. Bei Google werden Treffer aus dem eigenen Videoportal YouTube offenbar bevorzugt behandelt, dafür gibt es leichten Punktabzug. Ansonsten schwankt die Qualität der Ergebnisse je nach Suchbegriff. Mit "White Stripes Icky Thump" fanden wir bei dem Trio zuverlässig zum neuen Video der amerikanischen Rockband. Auch der "Apple 1984 Superbowl" Werbespot war für die drei kein Problem, lediglich bei der Stromberg-Episode blieben die Ergebnislisten nahezu leer.
    Leere Listen sahen wir bei der Yahoo-Video-Suche hingegen entschieden zu oft - sie enttäuschte weitgehend. Mit seiner News-Suche überzeugte Yahoo schon eher und landete hier nur knapp hinter Google. Google selbst hat manchmal Probleme mit News-Übersichten und interpretiert Schlagzeilen-Übersichten als eigene Artikel. Das führt zu falschen Ergebnissen. Die besten News-Treffer landeten wir bei Ask.com, allerdings ist die Suche versteckt - in einem Reiter unter Blog-Suche. Einmal gefunden, bekommt man aber zuverlässig sehr viele relevante Nachrichten. Abacho hat keine eigene News-Suche, immerhin wird der Index aber so schnell aktualisiert, dass wir zu unseren News-Fragen "Saul Friedländer Friedenspreis" oder "Telekom Verdi" wenigstens ein paar verwertbare Webseiten fanden. Bei Live Search hingegen erhielten wir bei tagesaktuellen Suchbegriffen praktisch keine brauchbaren News. Jede Suche fördert Unmassen von Treffern zu Tage. Auf die relevanten Ergebnisse eingrenzen lassen sich diese nur mit Filtern oder gezielteren Suchanfragen. Allgemein verbreiteter Suchmaschinen-Standard sind die Boolschen Verknüpfungen mehrerer Suchbegriffe (und/oder/nicht). Die Begrenzung der Suche auf bestimmte Sprachen oder Zeiträume lassen auch die meisten Testkandidaten zu (siehe Testtabelle, S 76). Vermisst haben wir bei Live Search, Abacho und Seekport die Möglichkeit, nach verschiedenen Dokumenttypen zu suchen. Mit Google und Yahoo lässt sich die Suche auf Word-, Excel-Dateien oder PDFs beschränken - bei Ask immerhin auf diverse Videoformate. Ein sehr nettes Feature bieten bisher erstaunlicherweise nur die kleinen Suchmaschinen an: die Seitenvorschau. Ask, Abacho und Seekport blenden auf Maus-klick den Treffer direkt auf der Suchmaschinenseite ein - so kann man sich schnell einen Eindruck verschaffen, ob einem die gefundene Webseite weiterhilft. Besonders schön ist die Lösung von Ask: Die Vorschau wird hier als kleines Popup eingeblendet, sobald man mit der Maus über den Vorschau-Link fährt. Begeistern konnten wir uns auch für die Video-Vorschau von Ask, die als einzige Suchmaschine einige Sekunden des Clips anzeigt, wenn man mit der Maus auf das Vorschaubildchen geht.
    Im Web stößt man schnell auf dubiose Seiten. Gut, wenn die Suchmaschine schon in der Trefferliste Porno und Schadcode aussortiert. Am sichersten surfen Sie diesbezüglich mit Google. Sie werden beim Testsieger bereits in der Trefferliste vor Seiten gewarnt, die im Verdacht stehen, Malware zu verbreiten. Das bietet sonst keine andere Suchmaschine. Außerdem können Sie einen dreistufigen Filter setzen, der nicht jugendfreie Seiten aus den Trefferlisten entfernt - ein Service, den bis auf Live Search und Seekport aber auch alle anderen bieten. Kritikpunkt: Diese erweiterten Sicherheitsfunktionen lassen sich nur nutzen, wenn Sie Cookies akzeptieren - obwohl es technisch auch anders lösbar wäre. Dahinter steckt nur das Interesse an genauen Nutzerprofilen. Weil wir eher für einen sensiblen Umgang mit Daten plädieren, gibt es dafür leichte Punktabzüge. Suchmaschinen wie Google und Ask sind an Simplizität nicht mehr zu übertreffen. Außer dem Suchfeld und Reitern für Bilder-, News- oder Produktsuche bleibt die Seite leer. Kritisch sehen wir die Kennzeichnung der Werbung. Die meisten Suchmaschinen hinterlegen die verkauften Links dezent farbig. Aber bisweilen so dezent, dass es bei schlecht kalibrierten Monitoren nicht zu sehen ist. Seekport und Abacho machen es anders - aber nicht besser. Sie grenzen die Werbung durch grafische Elemente ab, die eher verschleiern als verdeutlichen, dass es sich um gesponserte Links handelt. Die Hilfe-Funktionen sind durchweg brauchbar, bis auf eine kleine Ausnahme: Live Search verspricht in seiner Hilfe Funktionen, die es noch gar nicht gibt - immerhin erlauben diese offenbar einen Blick in die weiteren Planungen. Abachos Hilfe ist eher minimalistisch - mehr als die Boolschen Filter werden nicht erklärt. Google und Yahoo hingegen haben umfangreiche Dokumentationen. Wer sich ausführlich damit beschäftigt, kann durchaus zu besseren Ergebnissen gelangen. Bei Yahoo beispielsweise fanden wir den Hilfe-Hinweis auf den Yahoo-Service "Answers", bei dem andere Nutzer offene Fragen beantworten. Wir fragten dort noch einmal nach dem Namen des Soldaten bei Biene Maja. Die Antwort kam innerhalb von drei Minuten: Er heißt Paul Emsig."
  19. Streit, A. von: Rechnersuche (2003) 0.01
    0.0076637934 = product of:
      0.030655174 = sum of:
        0.030655174 = weight(_text_:und in 497) [ClassicSimilarity], result of:
          0.030655174 = score(doc=497,freq=14.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.25915268 = fieldWeight in 497, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=497)
      0.25 = coord(1/4)
    
    Content
    "Die Matrix, das wissen wir inzwischen, bestimmt unser Leben. Schlimm ist das nicht, denn ein Dahintreiben zwischen programmierten Lebenswelten kann ja ganz angenehm sein. Anders gesagt: Was sollten wir eigentlich ohne das Internet machen? Etwa unseren Lesestoff künftig wieder beim Buchhändler kaufen, ausrangierten Wohlstandsmüll auf Flohmärkten verkaufen und in Kneipen statt in Chaträumen nach potenziellen Lebenspartnern suchen? Alles hat seine Grenzen. Vor allem aber würde einleben ohne das Netz der Netze bedeuten: Wir müssten ohne Google auskommen. Dabei ist alles doch schon so schön programmiert. Google hilft uns, Dinge zu finden, von denen wir niemals etwas erfahren hätten: schlimme Fotos, versteckte Web-Seiten, Informationen, Freunde, Bombenbauanleitungen und inzwischen auch nach berechneter Wichtigkeit sortierte Medien-Nachrichten. Solange wir online sind, wartet das Google-Eingabefeld auf uns, verspricht Rettung in der Orientierungslosigkeit: "Google bringt Ordnung ins Web" zum Beispiel, "Google ermöglicht die Suche nach mehr als einer Milliarde URLs" und natürlich: "Google kann Sie glücklich machen!" Keine Sekte könnte das besser formulieren. Und während sich der Papst immer noch nicht für einen der möglichen Schutzheiligen des Internets entscheiden kann, macht sich die schmucklose Suchmaschinen-Software langsam aber sicher daran, seine glücksbringenden Algorithmen in immer mehr Bereiche unseres. Lebens zu verlinken. Denn Google kann. seit Neuestem, auch rechnen. Natürlich nicht wie ein ordinärer Taschenrechner, wer kann denn so etwas überhaupt noch bedienen? Stattdessen: 1 + 1 in die Eingabezeile geschrieben, Suchtaste gedrückt, und schon wirft Google das Ergebnis aus. Andere lassen sich Sinus, Tangens, Kosinus oder Potenzen berechnen, indem sie Sachen wie "8*0,6+2^5 tan2877" eingeben (was im Mathe-Unter-richt natürlich nach wie vor "(8 x 0,6) + ((25) tan(2 877))" geschrieben werden muss und -22,0915108 zum Ergebnis hat). Maßeinheiten-Fetischisten wandeln lieber Fuß in Meter um - und bekommen zur unschuldigen Anfrage "1 feet in meters" neben dem Ergebnis gleich noch 755 000 Webseiten angeboten. Was sollten wir nur ohne Google machen?"
  20. Herwig, C.: Stöbern im Datennetz : Die richtige Seite im Internet findet nur, wer seine Suchanfrage klug formuliert (2003) 0.01
    0.0076637934 = product of:
      0.030655174 = sum of:
        0.030655174 = weight(_text_:und in 2440) [ClassicSimilarity], result of:
          0.030655174 = score(doc=2440,freq=14.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.25915268 = fieldWeight in 2440, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2440)
      0.25 = coord(1/4)
    
    Content
    "Wer etwas sucht in den Weiten des Datennetzes und die genaue Adresse nicht kennt, der benutzt eine Suchmaschine. Ganz oben auf der Beliebtheitsskala steht dabei nach wie vor Google, für Deutschsprachige zu finden unter www.google.de. Gründe für die Popularität des zum Multi-MilliardenDollar-Unternehmen gewachsenen Studentenprojekts gibt es viele: Pragmatiker schwören einfach auf die guten Suchergebnisse, Freaks schätzen die "bells and whistles", das Drumherum, das die Suche komfortabel macht: - Für halbwegs Eindeutiges gelangt man kinderleicht ans Ziel: Die Suchbegriffe "Motor" und "Sport" fördern nur Dokumente zu Tage, die beide Stichworte enthalten. Ganz oben werden dabei die Seiten angezeigt, in denen beide Begriffe im Text direkt hintereinander stehen. Faustregel: Je mehr Begriffe Sie angeben, desto genauer sind hinterher die angezeigten Treffer. - Trickreicher wird es, wenn die Suchbegriffe nicht so eindeutig sind. Wer zum Beispiel etwas zu Hamlets berühmtester Textzeile sucht, sollte Anführungszeichen um den Suchbegriff verwenden: "Sein oder nicht sein" liefert nur die Dokumente, in denen die Begriffe exakt in dieser Schreibweise und Reihenfolge enthalten sind. Ergänzen Sie noch "hamlet" als zusätzlichen Suchbegriff (außerhalb der Anführungszeichen), werden die Seiten noch ergiebiger. - Sie erhalten völlig falsche Suchergebnisse, weil die Stichworte eine Doppelbedeutung haben? Ausschluss-Wörter sind die Lösung. Suchen Sie beispielsweise etwas zu Phaeton und denken dabei an das Automodell, aber sicher nicht an griechische Götter und Legenden? Verwenden Sie phaeton-auto-car-vw als Suche, um alle Seiten zu ignorieren, in denen es um dass falsche Thema geht; - Schwierig kann es auch werden, wenn Ihr Such-Stichwort dummerweise zu allgemein ist. Die Gerätebezeichnung is 380 (ein Kopfhörermodell) wird von Google nur mit der Meldung "'is' ist ein sehr häufiges Wort und wurde in der Suchanfrage ignoriert" quittiert. Abhilfe schafft die Suche mit "+is 380". - Sollen die Ergebnisse auf eine bestimmte Webseite oder Region begrenzt werden, kann ein weiterer Parameter helfen: "windows site:tippscout.de" liefert alle Seiten zum Thema Windows, aber eben nur von www.tippscout.de. Analog begrenzt "site:br" die Suche auf Seiten aus Brasilien, "-site:de" schließt deutsche Seiten von der Suche aus. - Sie interessieren sich fürs Grundgesetz, wollen aber keine seitenlangen Diskussionen, sondern nur das Dokument selbst lesen? Geben Sie den Dateityp an: "grundgesetz filetype:pdf° liefert das Gewünschte. Ebenso funktionieren natürlich doc, xls, jpg und andere Dateiarten. - Neben der Suchfunktion bietet Google noch etliche weitere Extras: Geben Sie doch einfach einmal Ihre Postleitzahl als Suchbegriff an. Google liefert den Link zu einem Stadtplan als Ergebnis.

Years

Languages

  • d 463
  • e 38
  • More… Less…

Types

  • a 401
  • m 54
  • el 51
  • x 13
  • s 9
  • r 2
  • p 1
  • More… Less…

Subjects

Classifications