Search (500 results, page 11 of 25)

  • × theme_ss:"Suchmaschinen"
  1. Lehrke, C.: Architektur von Suchmaschinen : Googles Architektur, insb. Crawler und Indizierer (2005) 0.01
    0.009579741 = product of:
      0.038318966 = sum of:
        0.038318966 = weight(_text_:und in 867) [ClassicSimilarity], result of:
          0.038318966 = score(doc=867,freq=14.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.32394084 = fieldWeight in 867, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=867)
      0.25 = coord(1/4)
    
    Abstract
    Das Internet mit seinen ständig neuen Usern und seinem extremen Wachstum bringt viele neue Herausforderungen mit sich. Aufgrund dieses Wachstums bedienen sich die meisten Leute der Hilfe von Suchmaschinen um Inhalte innerhalb des Internet zu finden. Suchmaschinen nutzen für die Beantwortung der User-Anfragen Information Retrieval Techniken. Problematisch ist nur, dass traditionelle Information Retrieval (IR) Systeme für eine relativ kleine und zusammenhängende Sammlung von Dokumenten entwickelt wurden. Das Internet hingegen unterliegt einem ständigen Wachstum, schnellen Änderungsraten und es ist über geographisch verteilte Computer verteilt. Aufgrund dieser Tatsachen müssen die alten Techniken erweitert oder sogar neue IRTechniken entwickelt werden. Eine Suchmaschine die diesen Herausforderungen vergleichsweise erfolgreich entgegnet ist Google. Ziel dieser Arbeit ist es aufzuzeigen, wie Suchmaschinen funktionieren. Der Fokus liegt dabei auf der Suchmaschine Google. Kapitel 2 wird sich zuerst mit dem Aufbau von Suchmaschinen im Allgemeinen beschäftigen, wodurch ein grundlegendes Verständnis für die einzelnen Komponenten geschaffen werden soll. Im zweiten Teil des Kapitels wird darauf aufbauend ein Überblick über die Architektur von Google gegeben. Kapitel 3 und 4 dienen dazu, näher auf die beiden Komponenten Crawler und Indexer einzugehen, bei denen es sich um zentrale Elemente im Rahmen von Suchmaschinen handelt.
    Content
    Ausarbeitung im Rahmen des Seminars Suchmaschinen und Suchalgorithmen, Institut für Wirtschaftsinformatik Praktische Informatik in der Wirtschaft, Westfälische Wilhelms-Universität Münster. - Vgl.: http://www-wi.uni-muenster.de/pi/lehre/ss05/seminarSuchen/Ausarbeitungen/ChristophLehrke.pdf
  2. Weiß, B.: Verwandte Seiten finden : "Ähnliche Seiten" oder "What's Related" (2005) 0.01
    0.009579741 = product of:
      0.038318966 = sum of:
        0.038318966 = weight(_text_:und in 868) [ClassicSimilarity], result of:
          0.038318966 = score(doc=868,freq=14.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.32394084 = fieldWeight in 868, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=868)
      0.25 = coord(1/4)
    
    Abstract
    Die Link-Struktur-Analyse (LSA) ist nicht nur beim Crawling, dem Webseitenranking, der Abgrenzung geographischer Bereiche, der Vorhersage von Linkverwendungen, dem Auffinden von "Mirror"-Seiten, dem Kategorisieren von Webseiten und beim Generieren von Webseitenstatistiken eines der wichtigsten Analyseverfahren, sondern auch bei der Suche nach verwandten Seiten. Um qualitativ hochwertige verwandte Seiten zu finden, bildet sie nach herrschender Meinung den Hauptbestandteil bei der Identifizierung von ähnlichen Seiten innerhalb themenspezifischer Graphen vernetzter Dokumente. Dabei wird stets von zwei Annahmen ausgegangen: Links zwischen zwei Dokumenten implizieren einen verwandten Inhalt beider Dokumente und wenn die Dokumente aus unterschiedlichen Quellen (von unterschiedlichen Autoren, Hosts, Domänen, .) stammen, so bedeutet dies das eine Quelle die andere über einen Link empfiehlt. Aufbauend auf dieser Idee entwickelte Kleinberg 1998 den HITS Algorithmus um verwandte Seiten über die Link-Struktur-Analyse zu bestimmen. Dieser Ansatz wurde von Bharat und Henzinger weiterentwickelt und später auch in Algorithmen wie dem Companion und Cocitation Algorithmus zur Suche von verwandten Seiten basierend auf nur einer Anfrage-URL weiter verfolgt. In der vorliegenden Seminararbeit sollen dabei die Algorithmen, die hinter diesen Überlegungen stehen, näher erläutert werden und im Anschluss jeweils neuere Forschungsansätze auf diesem Themengebiet aufgezeigt werden.
    Content
    Ausarbeitung im Rahmen des Seminars Suchmaschinen und Suchalgorithmen, Institut für Wirtschaftsinformatik Praktische Informatik in der Wirtschaft, Westfälische Wilhelms-Universität Münster. - Vgl.: http://www-wi.uni-muenster.de/pi/lehre/ss05/seminarSuchen/Ausarbeitungen/BurkhardWei%DF.pdf
  3. Lütgert, S.: ¬Der Googlehupf als Quantensprung : Content heißt jetzt Context - Warum man mit Websites noch nie Geld verdienen konnte. Linksverkehr (2001) 0.01
    0.009579741 = product of:
      0.038318966 = sum of:
        0.038318966 = weight(_text_:und in 1671) [ClassicSimilarity], result of:
          0.038318966 = score(doc=1671,freq=56.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.32394084 = fieldWeight in 1671, product of:
              7.483315 = tf(freq=56.0), with freq of:
                56.0 = termFreq=56.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1671)
      0.25 = coord(1/4)
    
    Content
    "Selbst die wenigen Shareholder, die mit ihren Websites tatsächlich Geld machen, bestätigen heute, dass sich mit Websites eigentlich kein Geld verdienen lässt. Warum das aber so ist, bleibt einem Großteil der Betroffenen auch weiterhin ein Rätsel. Niemand habe an den User gedacht, sagen die einen, der User habe gefehlt. Nein, die Bandbreite sei zu knapp gewesen, erwidern die anderen, und jetzt, wo sie vorhanden sei, könne sie niemand bezahlen. Der sogenannte Content aber, da sind sich alle einig, der Content war da. Dieser Content hat millionenteuer auf den Webservern gelegen und terabyteweise' (das belegen alle Studien) auf seine User gewartet. Am Content hat es nicht gelegen, der Content hat gestimmt. Tatsächlich lässt sich das eCommerce-Wissen von 1997 bis 1999 auf die Formel bringen: "Content ist King" - eine Phrase, die zu dieser Zeit auf keinem der einschlägigen Kongresse fehlen durfte und die wie ein Mantra durch die Managementseminare geisterte: Was allerdings Content genau sein sollte - außer eben King - blieb nebulös. Offensichtlich war damit so etwas wie Inhalt gemeint, doch ist die Aura des Content-Begriffs mit der gleichermaßen abstrakten wie banalen Übersetzung in "Inhalt" kaum zu erklären. Jede Tütensuppenfirma verkauft letztlich nichts anderes als "Inhalt", ohne sich gleich als Content-Provider darzustellen. - Über den Gipfeln von AltaVista -
    Es musste also noch etwas anderes in dieser Anrufung des Content mitschwingen, eine verborgene und doch umso entschiedenere Abgrenzung vom digitalen Nicht-Content, der bloßen "Form", den inhaltsleeren Hüllen und körperlosen Oberflächen des Internet, deren Scheitern und Ende hier verkündet werden sollte. Der bis' dahin als hohl, flach und uneigentlich geltende Cyberspace, sollte mit einer neuen Substanz gefüllt werden, und zwar nicht mit einer bestimmten, sondern mit Substanz schlechthin. Diese Metaphysik des Content fand ihre perfekte Repräsentation in den Berggipfeln von AltaVista - dem Logo jener Suchmaschine, die 1997-99 beinahe jede und jeder von uns benutzt haben dürfte. Zu sehen waren Berge von Content: zwei am linken oberen Bildrand aufragende, schneebedeckte Gipfel, die über einem im Vordergrund gelegenen Hochplateau thronten, das nach rechts sanft abfiel, in einen blau-weiß gepixelten Nebel überging und sich schließlich in den nur unwesentlich helleren Horizont auflöste. Von rechts nach links wurde, gezeigt: das digitale Rauschen, seine Transformation in' Bedeutung, deren Erhebung zu Inhalt und schließlich der Triumph jenes Prinzips, das über diesen Content stets den Überblick behält: AltaVista (der Blick vom Gipfel, auf spanisch). Dieses Bild unterschied sich nicht nur, radikal von den meist bis zur Unkenntlichkeit abstrahierten Emblemen der Konkurrenz, sondern zeigte zugleich das Internet als Ganzes: in jenem Moment, als Content King war und über ein Königreich herrschte, das keine Grenzen kannte. Natürlich hatten auch die Betreiber von AltaVista darauf gewettet, dass sich mit Websites Geld verdienen ließe. Ihre Idee bestand darin, mehr Inhalte auffindbar zu machen als jede Suchmaschine zuvor, und das mit dem Verkauf von Werbebannern zu finanzieren, die auf noch mehr Inhalte verweisen sollten. Dass sich aber mit Websites kein Geld verdienen lässt - und das zeigt sich gerade an AltaVista - liegt weder an fehlenden Usern noch an fehlender Bandbreite (von beiden hatte die Suchmaschine mehr als genug), sondern eben genau am Content, genauer: an dessen sprichwörtlicher Flüchtigkeit. Content nämlich ist nicht bloß personalintensiv (also teuer) in der Herstellung und nur schwer in eine verkäufliche Form zu bringen, sondern hat zudem die Tendenz, sich sowohl permanent wieder in Rauschen aufzulösen wie am rechten Bildrand des AltaVista-Logos), als auch ständig zu solchen Massen von Bedeutung zusammenzuklumpen (linker Bildrand), dass er ins rein Tautologische umkippt. Die beiden letzgenannten Phänomene wurden schließlich zu einem inhaltlichen Problem der Suchmaschine selbst:
    Der gesuchte Content ließ sich zwar finden, war aber entweder so unscharf, dass er sich sofort wieder verlor, oder so massenhaft vorhanden, dass jede Auswahl von vornherein sinnlos wurde. Und so war der Tag, an dem wir den Kopf von König Content haben rollen sehen, keiner der zahlreichen schwarzen Montage bis Freitage, an denen im Jahr 2000 der Neue Markt zusammenbrach, sondern schon jener Tag im November 1999, als AltaVista sein Logo abschaffte. In, der offiziellen Erklärung der Presseabteilung hieß es damals: "Das BlauWeiß des Bergmotivs wird als kalt und abweisend wahrgenommen, woraus sich die Notwendigkeit zusätzlicher Farben ergibt, um eine wärmere Markenpersönlichkeit herzustellen. Mit den Bergen verbindet sieh zwar die positive Assoziation von Stärke, doch werden euch die Berge als kalt; entfernt, bedrohlich und unpersönlich empfunden, was AltaVistas Begehren zuwiderläuft, eine offene und persönliche Beziehung zu seinen Kunden herzustellen. Zudem werden die Berge, häufig mit Mineralwasser assoziiert, was in keiner Weise synonym ist mit einer führenden, globalen Internet-Marke." AltaVista hatte sich von einem auf den anderen Tag in alta:vista verwandelt, ein gleichermaßen freundliches wie sinnloses Newsportal auf gelbem Grund, mit dem sich selbstverständlich genauso wenig Geld verdienen ließ.
    Und doch hatten die Marketing-Strategen im Moment ihrer Selbstaufgabe unbewusst das zentrale Dilemma der Content-Regimes benannt: dass Content nämlich noch in seinen wärmsten, direktesten und personalisiertesten Formen als "kalt, entfernt, bedrohlich und unpersönlich empfunden" wird - als eine abstrakte, ungreifbare und wolkige Substanz. In Wirklichkeit verabscheuen die Leute Content sogar, und zwar nicht nur als theoretisches Konzept oder als die überaus geschwätzige Rede, die das eBusiness über sich selbst hält, sondern auch in fast jeder seiner konkreten Ausformungen: sei es als endlos über den Bildschirm scrollende Fließtexte, die sie sowieso nicht lesen, oder als ständig hin und her zu kopierende Musik, die sie ohnehin nicht interessiert. Überall dort, wo sich das herumgesprochen hat, heißt der große Hoffnungsträger heute längst nicht mehr Content, sondern Context. Und so liegt es auf der Hand, dass die Suchmaschine, die AltaVista beerbt hat - nämlich Google -'nicht mehr hauptsächlich Inhalte ausgibt, sondern vor allem Zusammenhänge. Google sortiert die Ergebnisse nicht mehr nach ihrer Treffergenauigkeit, sondern nach der Verlinkungsdichte, was dann zwar keinen Content mehr zum Vorschein bringt, dafür aber wundersamerweise stets genau jene Infopartikel und Fakten, denen die Suche galt. Und sogar das Logo von Google rellektiert diesen Paradigmenwechsel, indem es sich, je nach Trefferzahl, zu einem bunten Goooogle oder Goooooooogle aufbläht, was sowohl eine potentiell endlose Reihe inhaltlicher Nullen darstellt als auch die Serie jener kontextuellen Einkreisungen, aus denen sich das sogenannte Surfen letztlich zusammensetzt."
  4. Bayer, M.: Ungewollt reiche Ernte (2006) 0.01
    0.009579741 = product of:
      0.038318966 = sum of:
        0.038318966 = weight(_text_:und in 4418) [ClassicSimilarity], result of:
          0.038318966 = score(doc=4418,freq=14.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.32394084 = fieldWeight in 4418, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4418)
      0.25 = coord(1/4)
    
    Content
    "Lange hatte Google überlegt, und das Ergebnis schien so viel versprechend: "Gu Ge" nennt sich die Suchmaschine in China. Die Bezeichnung ist ein lautmalerisches Kunstwort, das ein wenig an das internationale Original erinnert - und dessen Bedeutung sich nur in Annäherungen beschreiben lässt. Manche übersetzen nüchtern "Tal" und "Lied", andere deuten freier und sprechen vom "Lied der reichen Ernte". So in etwa hat sich das Google-Chef Eric Schmidt auch vorgestellt: Man habe sich von 1800 lautähnlichen. Wörtern für "Gu Ge" entschieden, weil es die reiche Ernte symbolisiere, die eine Suche mit Google einfahren könne. Klar: Poetischer als "lange Ergebnislisten" klingt "Gu Ge" allemal. Aber vielen Chinesen gefällt die Konstruktion trotzdem nicht. Vor allem jungen Surfern kommt der Name zu altbacken daher: Zwei Wochen nach der Präsentation von "Gu Ge" lassen mehr als 10 000 Nutzer in einem Diskussionsforum ihren Unmut über den Namen aus. Chinesische Namen für Google Die Diskussion verläuft freilich nicht immer sachlich. Viele Chinesen sind bitter enttäuscht darüber, dass das USUnternehmen - das gerne seine "transparente, gleichberechtigte und offene" Kultur herauskehrt - mit den staatlichen Zensurbehörden zusammenarbeitet. Kritik an Menschenrechtsverletzungen oder an der kommunistischen Führung etwa können Surfer im Reich der Mitte nicht mit Google ernten. Dafür ernten die Suchmaschinenmacher nun gehässige Alternativvorschläge für den Namen ihres chinesischen Ablegers. "Ge Ge" ist dabei und steht für älterer Bruder oder "Gu Gu" für die Tante, die alles beaufsichtigt. Auch "Gou Gou" wird genannt - was so viel wie Hündchen bedeutet; manche fordern auch "Good Gou" - ein englisch-chinesischer "guter Hund". Nicht wenige wollen schließlich "Gou Le" - und sagen damit: "Es reicht uns.""
  5. Lewandowski, D.: Suchmaschinen verstehen : 3. vollständig überarbeitete und erweiterte Aufl. (2021) 0.01
    0.009579741 = product of:
      0.038318966 = sum of:
        0.038318966 = weight(_text_:und in 4016) [ClassicSimilarity], result of:
          0.038318966 = score(doc=4016,freq=14.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.32394084 = fieldWeight in 4016, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4016)
      0.25 = coord(1/4)
    
    Abstract
    Suchmaschinen dienen heute selbstverständlich als Werkzeuge, um Informationen zu recherchieren. Doch wie funktionieren diese genau? Das Buch betrachtet Suchmaschinen aus vier Perspektiven: Technik, Nutzung, Recherche und gesellschaftliche Bedeutung. Es bietet eine klar strukturierte und verständliche Einführung in die Thematik. Zahlreiche Abbildungen erlauben eine schnelle Erfassung des Stoffs. Rankingverfahren und Nutzerverhalten werden dargestellt. Dazu kommen grundlegende Betrachtungen des Suchmaschinenmarkts, der Suchmaschinenoptimierung und der Rolle der Suchmaschinen als technische Informationsvermittler. Das Buch richtet sich an alle, die ein umfassendes Verständnis dieser Suchwerkzeuge erlangen wollen, u.a. Suchmaschinenoptimierer, Entwickler, Informationswissenschaftler, Bibliothekare sowie Online-Marketing-Verantwortliche. Für die dritte Auflage wurde der Text vollständig überarbeitet sowie alle Statistiken und Quellen auf den neuesten Stand gebracht.
    Content
    Vgl. die Anzeige in Open Password Nr.959 vom 11.08.2021: Einer der wenigen "Bestseller" der Informationsbranche, der nunmehr in die dritte Auflage geht. Das Buch wurde in Details überarbeitet sowie aktualisiert. Dazu wurden die Literaturangaben "vielfach erheblich" ergänzt. Dazu der Verfasser Dirk Lewandowski in seinem Vorwort: "Ich habe aber darauf geachtet, dass dieses Buch nicht das Schicksal vieler einführender Werke widerfährt, nämlich, dass es immer weiter anwächst, letztlich aber keine gut lesbare Einführung mehr darstellt." Veränderungen ergaben sich zum Teil, weil "ich durch die vielen Rückmeldungen auch zahlreiche Hinweise bekommen (habe), welche Teile noch verständlicher gemacht werden sollten, wo ergänzt, und wo gestrichen werden sollte."
  6. Beuth, P.: Wie Google, nur belesen : Suchmaschine, die sich selbst nicht kennt - Cuil vs. Google (2008) 0.01
    0.009483461 = product of:
      0.037933845 = sum of:
        0.037933845 = weight(_text_:und in 6083) [ClassicSimilarity], result of:
          0.037933845 = score(doc=6083,freq=28.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.3206851 = fieldWeight in 6083, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6083)
      0.25 = coord(1/4)
    
    Content
    "Als kleines Internet-Start-Up gleich den Marktführer Google anzugreifen, ist wie barfuß gegen einen Öltanker zu treten: Man kann sich nur wehtun. Umso verwegener ist der Plan, wenn sich das Start-Up unter anderem aus ehemaligen Angestellten von Google zusammensetzt, die es besser wissen müssten. Sie tun es trotzdem. Cuil heißt ihre neue Suchmaschine, was wie "cool" ausgesprochen wird und auf Gälisch so viel wie Wissen bedeutet. Und weil gegen den Branchenprimus nur Klotzen hilft, nennen die Davids gleich mal eine Hausnummer: 120.000.000.000. So viele Seiten will Cuil indiziert haben: 120 Milliarden - und damit nach eigenen Angaben bis zu viermal mehr als Goliath Google. Zudem arbeitet Cuil etwas anders als Google: Die Suchergebnisse werden nicht als lange Linkliste präsentiert, sondern in Spalten geordnet, als Teaser mit Bild. Bewertet wird nicht wie bei Google die Anzahl der Links auf die jeweiligen Treffer, also die Popularität einer Webseite. Vielmehr wird deren gesamter Inhalt von Cuil automatisch durchsucht. Dabei soll die neue Maschine erkennen, ob ein Wort mehrere Bedeutungen hat und als Ergebnis entsprechende Kategorien anbieten. Das beste Argument für einen Gewohnheitswechsel ist jedoch die Datenschutz-Politik der Neulinge: Im Gegensatz zu Google speichert Cuil nicht, über welche IP-Adresse eines Rechners wann und wonach gesucht wurde. "Wir wollen das Web analysieren, nicht die Nutzer", sagen sie. Um bei Google unerfasst zu bleiben, kann der User immerhin einen kleinen Umweg nutzen: die Seite scroogle.org schaltet sich zwischen Nutzer und Google, löscht dessen Cookie und liefert anonymisiert die gewohnten Googletreffer. Der sorgsame Umgang mit Userdaten gehört zu den Alleinstellungsmerkmalen, die die Herausforderer dringend nötig haben. Immerhin beschäftigt Google 20.000 Mitarbeiter und investiert jedes Jahr gewaltige Summen in die Verbesserung seiner Suchtechniken. Zuletzt hat Microsoft deshalb die kleine Firma Powerset und deren halb-semantische Suchmaschine aufgekauft: Powerset versteht simpel formulierte Fragen wie "Wer ist...?" und "Was ist ein...?" und beantwortet sie mit passenden Treffern - durchsucht bislang aber nur Wikipedia und die Datenbank Freebase. Das bringt bei Google keinen um den Schlaf, ist aber ein Vorgeschmack auf künftige Suchmaschinen. Natürlich laboriert auch Cuil noch an Kinderkrankheiten. So sind die Server unter dem ersten Ansturm sofort zusammengebrochen. Zudem zeigt Cuil zu vielen Seiten Bilder, die gar nichts mit dem Treffer zu tun haben. Den bislang entscheidenden Minuspunkt aber gibt es für die schlechten Suchergebnisse: Da tauchen an prominenter Stelle veraltete Seiten und irrelevante Informationen auf, die gesuchten Hauptseiten dafür manchmal gar nicht. Bestes Beispiel ist peinlicherweise Cuil selbst. Der Suchbegriff führt zu Immobilienanzeigen in Irland und Downloads der irischen Band The Chieftains. Umso ärgerlicher für Cuil, dass der alte Tanker Google bereits jede Menge Infos über die neue Konkurrenz ausspuckt."
  7. Söhler, M.: "Dumm wie Google" war gestern : semantische Suche im Netz (2011) 0.01
    0.009483461 = product of:
      0.037933845 = sum of:
        0.037933845 = weight(_text_:und in 4440) [ClassicSimilarity], result of:
          0.037933845 = score(doc=4440,freq=28.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.3206851 = fieldWeight in 4440, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4440)
      0.25 = coord(1/4)
    
    Abstract
    "Casablanca" bringt bei der Google-Suche Millionen Ergebnisse. Ist die Stadt gemeint oder der Film? Suchmaschinen sind dumm und schnell. Schema.org will das ändern.
    Content
    "6.500 Einzelsprachen so zu verstehen, dass noch die dümmsten Maschinen sie in all ihren Sätzen, Wörtern, Bedeutungen nicht nur erfassen, sondern auch verarbeiten können - das ist ein komplexer Vorgang, an dem große Teile des Internets inklusive fast aller Suchmaschinen bisher gescheitert sind. Wem schon der gerade gelesene Satz zu komplex erscheint, dem sei es einfacher ausgedrückt: Erstmal geht es um "Teekesselchen". Wörter haben oft mehrere Bedeutungen. Einige kennen den "Kanal" als künstliche Wasserstraße, andere kennen ihn vom Zappen am Fernsehgerät. Die Waage kann zum Erfassen des Gewichts nützlich sein oder zur Orientierung auf der Horoskopseite einer Zeitung. Casablanca ist eine Stadt und ein Film zugleich. Wo Menschen mit der Zeit zu unterscheiden lernen, lernen dies Suchmaschinen von selbst nicht. Nach einer entsprechenden Eingabe listen sie dumpf hintereinander weg alles auf, was sie zum Thema finden können. "Dumm wie Google", könnte man sagen, "doof wie Yahoo" oder "blöd wie Bing". Damit das nicht so bleibt, haben sich nun Google, Yahoo und die zu Microsoft gehörende Suchmaschine Bing zusammengetan, um der Suche im Netz mehr Verständnis zu verpassen. Man spricht dabei auch von einer "semantischen Suche". Das Ergebnis heißt Schema.org. Wer die Webseite einmal besucht, sich ein wenig in die Unterstrukturen hereinklickt und weder Vorkenntnisse im Programmieren noch im Bereich des semantischen Webs hat, wird sich überfordert und gelangweilt wieder abwenden.
    - Neue Standards Doch was hier entstehen könnte, hat das Zeug dazu, Teile des Netzes und speziell die Funktionen von Suchmaschinen mittel- oder langfristig zu verändern. "Große Player sind dabei, sich auf Standards zu einigen", sagt Daniel Bahls, Spezialist für Semantische Technologien beim ZBW Leibniz-Informationszentrum Wirtschaft in Hamburg. "Die semantischen Technologien stehen schon seit Jahren im Raum und wurden bisher nur im kleineren Kontext verwendet." Denn Schema.org lädt Entwickler, Forscher, die Semantic-Web-Community und am Ende auch alle Betreiber von Websites dazu ein, an der Umgestaltung der Suche im Netz mitzuwirken. "Damit wollen Google, Bing und Yahoo! dem Info-Chaos im WWW den Garaus machen", schreibt André Vatter im Blog ZBW Mediatalk. Inhalte von Websites sollen mit einem speziellen, aber einheitlichen Vokabular für die Crawler der Suchmaschinen gekennzeichnet und aufbereitet werden. Indem Schlagworte, so genannte Tags, in den Code von Websites eingebettet werden, sind Suchmachinen nicht mehr so sehr auf die Analyse der natürlichen Sprache angewiesen, um Texte inhaltlich zu erfassen. Im Blog wird dies als "Semantic Web light" bezeichnet - ein semantisches Web auf niedrigster Ebene. Aber selbst das werde "schon viel bewirken", meint Bahls. "Das semantische Web wird sich über die nächsten Jahrzehnte evolutionär weiterentwickeln." Einen "Abschluss" werde es nie geben, "da eine einheitliche Formalisierung von Begrifflichkeiten auf feiner Stufe kaum möglich ist."
    - "Gemeinsames Format für strukturierte Daten" Aber warum sollten Google, Yahoo und Bing plötzlich zusammenarbeiten, wo doch bisher die Konkurrenz das Verhältnis prägte? Stefan Keuchel, Pressesprecher von Google Deutschland, betont, alle beteiligten Unternehmen wollten "ein deutliches Zeichen setzen, um die Qualität der Suche zu verbessern". Man entwickele "ein gemeinsames Format für strukturierte Daten, mit dem Dinge ermöglicht werden, die heute noch nicht möglich sind - Stichwort: semantische Suche". Die Ergebnisse aus Schema.org würden "zeitnah" in die Suchmaschine integriert, "denn einen Zeitplan" gebe es nicht. "Erst mit der Einigung auf eine gemeinsame Sprache können Suchmaschinen einen Mehrwert durch semantische Technologien generieren", antwortet Daniel Bahls auf die Frage nach Gemeinsamkeit und Konkurrenz der Suchmaschinen. Er weist außerdem darauf hin, dass es bereits die semantische Suchmaschine Sig.ma gibt. Geschwindigkeit und Menge der Ergebnisse nach einer Suchanfrage spielen hier keine Rolle. Sig.ma sammelt seine Informationen allein im Bereich des semantischen Webs und listet nach einer Anfrage alles Bekannte strukturiert auf."
  8. Kaeser, E.: ¬Das postfaktische Zeitalter (2016) 0.01
    0.009469626 = product of:
      0.037878502 = sum of:
        0.037878502 = weight(_text_:und in 3080) [ClassicSimilarity], result of:
          0.037878502 = score(doc=3080,freq=38.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.32021725 = fieldWeight in 3080, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3080)
      0.25 = coord(1/4)
    
    Abstract
    In der digitalen Welt wäscht ein Permaregen der Informationen ganz zentrale Standards wie Objektivität und Wahrheit aus. Die Folge: eine Demokratie der «Nichtwissenwollengesellschaft».
    Content
    "Es gibt Daten, Informationen und Fakten. Wenn man mir eine Zahlenreihe vorsetzt, dann handelt es sich um Daten: unterscheidbare Einheiten, im Fachjargon: Items. Wenn man mir sagt, dass diese Items stündliche Temperaturangaben der Aare im Berner Marzilibad bedeuten, dann verfüge ich über Information - über interpretierte Daten. Wenn man mir sagt, dies seien die gemessenen Aaretemperaturen am 22. August 2016 im Marzili, dann ist das ein Faktum: empirisch geprüfte interpretierte Daten. Dieser Dreischritt - Unterscheiden, Interpretieren, Prüfen - bildet quasi das Bindemittel des Faktischen, «the matter of fact». Wir alle führen den Dreischritt ständig aus und gelangen so zu einem relativ verlässlichen Wissen und Urteilsvermögen betreffend die Dinge des Alltags. Aber wie schon die Kurzcharakterisierung durchblicken lässt, bilden Fakten nicht den Felsengrund der Realität. Sie sind kritikanfällig, sowohl von der Interpretation wie auch von der Prüfung her gesehen. Um bei unserem Beispiel zu bleiben: Es kann durchaus sein, dass man uns zwei unterschiedliche «faktische» Temperaturverläufe der Aare am 22. August 2016 vorsetzt.
    - Das Amen des postmodernen Denkens Was nun? Wir führen den Unterschied zum Beispiel auf Ablesefehler (also auf falsche Interpretation) zurück oder aber auf verschiedene Messmethoden. Sofort ist ein Deutungsspielraum offen. Nietzsches berühmtes Wort hallt wider, dass es nur Interpretationen, keine Fakten gebe. Oder wie es im Englischen heisst: «Facts are factitious» - Fakten sind Artefakte, sie sind künstlich. Diese Ansicht ist quasi das Amen des postmodernen Denkens. Und als besonders tückisch an ihr entpuppt sich ihre Halbwahrheit. Es stimmt, dass Fakten oft das Ergebnis eines langwierigen Erkenntnisprozesses sind, vor allem heute, wo wir es immer mehr mit Aussagen über komplexe Systeme wie Migrationsdynamik, Meteorologie oder Märkte zu tun bekommen. Der Interpretationsdissens unter Experten ist ja schon fast sprichwörtlich.
    - Als eine regelrechte Sumpfblüte aus dem Szenario des «Bullshits» präsentiert sich der republikanische Präsidentschaftskandidat Donald Trump. Aber Künstlichkeit des Faktischen bedeutet nun gerade nicht Unverbindlichkeit. Dieser Fehlschluss stellt sich nicht nur für die Erkenntnistheorie als ruinös heraus, sondern vor allem auch für die Demokratie. Zur Erläuterung benütze ich drei politische Szenarien: jenes der Wahrheit, jenes der Macht und jenes des «Bullshits». Im Szenario der Wahrheit überprüfen wir eine Aussage, bis wir den robusten Konsens für einen Entscheid gefunden haben: Die Aussage ist wahr oder falsch, tertium non datur. Lügner werden überführt, wie US-Aussenminister Colin Powell, der 2003 in der Uno die Intervention im Irak mit falschen faktischen Behauptungen begründete. Dieser Makel haftet ihm bis heute an. Dies gerade auch - und das muss man ihm zugutehalten -, weil Powell das Szenario der Wahrheit anerkennt. George W. Bush und seine Kamarilla im Irakkrieg etablierten dagegen das Szenario der Macht.
    Ron Suskind, Journalist bei der «New York Times», zitierte 2004 einen Chefberater der Regierung Bush. «Er sagte, Typen wie ich gehörten, wie das genannt wurde, der <realitätsbasierten> Gemeinschaft an», schreibt Suskind. Aber so funktioniere die Welt nicht mehr: «Wir sind jetzt ein Weltreich», so der Berater, «und wenn wir handeln, schaffen wir unsere eigene Realität. Und während Sie in dieser Realität Nachforschungen anstellen, handeln wir schon wieder und schaffen neue Realitäten, die Sie auch untersuchen können, und so entwickeln sich die Dinge. Wir sind die Akteure der Geschichte, und Ihnen, Ihnen allen bleibt, nachzuforschen, was wir tun.» Als eine regelrechte Sumpfblüte aus dem Szenario des «Bullshits» präsentiert sich der gegenwärtige republikanische Präsidentschaftskandidat Donald Trump. Mit demonstrativer Schamlosigkeit produziert er Unwahrheiten und Widersprüche und schert sich einen Dreck um die Folgen. Paradoxerweise macht ihn diese Unglaubwürdigkeit umso glaubwürdiger, weil er sich im «Bullshit» geradezu suhlt. Er tritt auf mit dem Habitus: Seht doch, ich bin der, als den ihr Politiker schon immer sehen wolltet - ein Behaupter, Wortverdreher, Lügner! Ich bin nur ehrlich - ehrlich unehrlich! Das postfaktische Zeitalter lässt sich nun einfach dadurch charakterisieren, dass in ihm das Szenario der Wahrheit gegenüber den beiden anderen Szenarien immer mehr an Gewicht verliert. ...
    - Bewirtschaftung von Launen Bewirtschaftung von Launen: Das ist die politische Verlockung des postfaktischen Zeitalters. Ihr kommt die Internetgesellschaft als «Nichtwissenwollengesellschaft» entgegen. Wir fragen nicht, wie man objektives Wissen gewinnt und wie es begründet ist. Wir googeln. Wir haben die Suchmaschine bereits dermassen internalisiert, dass wir Wissen und Googeln gleichsetzen. Das führt zum gefährlichen Zustand erkenntnistheoretischer Verantwortungslosigkeit. Google-Wissen ist Wissensersatz. Es treibt uns das «Sapere aude» Kants aus: Wagnis und Mut, nach Gründen zu fragen, eine Aussage zu prüfen, bis wir herausgefunden haben, ob sie stimmt oder nicht. Demokratie ist der politische Raum, der uns das Recht für dieses Fragen und Prüfen gibt. In ihm beugt sich die Macht dem Argument, nicht das Argument sich der Macht. Allein schon indem man dies ausspricht, muss man zugeben, dass von einem gefährdeten Ideal die Rede ist. Die Zersetzung der Demokratie beginnt mit der Zersetzung ihrer erkenntnistheoretischen Grundlagen. Das heisst, sie ist bereits im Gange. Zeit, dass wir uns bewusstmachen, was auf dem Spiel steht."
  9. Patalong, F.: Life after Google : II. Hilfreiche Geister (2002) 0.01
    0.00940712 = product of:
      0.03762848 = sum of:
        0.03762848 = weight(_text_:und in 1163) [ClassicSimilarity], result of:
          0.03762848 = score(doc=1163,freq=54.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.3181036 = fieldWeight in 1163, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1163)
      0.25 = coord(1/4)
    
    Content
    "Wie war zu Köln es doch vordem / Mit Heinzelmännchen so bequem! / Denn, war man faul, - man legte sich / hin auf die Bank und pflegte sich! / Heut' wühlt man sich im Web so bunt / Aug und Zeigefinger wund / Nur kluge Surfer sagen sich / Mein Roboter tut das für mich! August Kopisch (1799 bis 1853, hier leicht "upgedated") wusste, was Menschen sich wünschen: Mehr als alles andere die Befreiung von der lästigen Routine des Alltags. Für die sorgten dereinst zu Köln die Heinzelmännchen, heute muss im Web der Bot herhalten. Und siehe da. Auch der erleichtert das Surfer-Leben ganz ungemein. Da ist es eigentlich verwunderlich, dass dienstbare Geister, die Routine-Suchanfragen verkürzen oder verbessern, von so verhältnismäßig wenigen Surfern eingesetzt werden. Wozu soll ein Bot gut sein? Bots gibt es viele. Im Internet versteht man unter dem Kurzwort für Robot ganz allgemein ein Dienstprogramm, das dem Surfer Aufgaben abnimmt und für ihn erledigt. Das können Bots sein, die ständig für die Wahrnehmung einer Website bei Suchmaschinen sorgen, jeden Morgen ein vordefiniertes Sample von Schlagzeilen aus festgelegten Medien zusammentragen oder aber die Rechercheanfragen des Surfers gleich bei einer ganzen Reihe von Suchdiensten abliefern, die Ergebnisse einsammeln, auf einer Html-Seite darstellen und am Ende dann noch die wirklich guten unter ihnen archivieren. Das macht Sinn und schafft Ordnung: Viele Suchanfragen stellt man immer wieder; sei es, weil man beruflich in einem bestimmten Themenfeld unterwegs ist; sei es, weil man sich nach Monaten zwar an eine tolle Website, aber nicht an ihre Adresse erinnert. Dagegen helfen natürlich auch Bookmarks, aber deren sinnvolle Verwaltung will auch erst einmal gelernt sein. Das Tolle an Bots, die auch gleich die Recherche-Archivierung mit erledigen, ist, dass sie ihre Ergebnisse immer im Kontext einer Suchintention darstellen - und zwar nach Relevanz gewichtet. Das hat was. Praktisches Beispiel: Copernic Marktführer in diesem Bereich ist seit Jahren der Software-Client Copernic , dessen Schnupperversion "Basic" nach wie vor kostenlos zu haben ist, während die kostenpflichtige (und weit leistungsfähigere) Vollversion leider immer teurer wird. Vor zwei Jahren war das Programm für rund 20 Dollar zu haben, heute kostet es schon 60 Dollar, die Erhöhung auf 80 Dollar ist bereits angekündigt: Wenn der Satz "Was nichts kostet, taugt nichts" einen Umkehrschluss erlaubt, dann muss sich Copernic seinen heutigen Wert wohl irgendwie verdient haben. Was also bietet so ein Bot? Selbst in der kostenlosen Version schon eine ganze Menge. Da funktioniert Copernic zunächst einmal wie eine Metasuchmaschine: Das Programm leitet eine Suchanfrage an eine Reihe von Suchmaschinen weiter, sammelt Ergebnisse und gewichtet sie. Doppler löscht das Programm, ebenso "zerschossene" Links, denn die prüft das Programm gleich mit, und am Ende steht da eine als Web-Seite aufbereitete Ergebnisliste, die unter dem Stichwort der Suchanfrage auch gleich archiviert bleibt. Und mehr: Copernic fügt in die Darstellung der gefundenen Webseiten "Textmarker" ein, um die Fundorte der Such-Stichworte zu kennzeichnen. Eine Verfeinerung der Suche ist auch über die weitergehende Einengung der Suchbegriffe bei gleichzeitiger Begrenzung der Suche auf die bereits gefundenen Webseiten möglich: Das ist eine Art teilmanuelle, aber hochgradig individuelle Relevanz-Abwägung, ohne gleich alle Texte querlesen zu müssen. In der kostenpflichtigen Vollversion sucht Copernic in einer Unzahl von Datenbanken, Searchengines, bei Shops und auf Unternehmenswebsites, in Archiven und Newsangeboten. Viele der mit einem solchen Bot möglichen Recherchen wären unter Einsatz von Searchengines nur sehr schwer zu leisten.
    Ordnung ist die halbe Suche. Gut, wenn man sie selbst nicht halten muss Doch damit ist das Heinzelmännchen noch lang nicht fertig. Das kostenpflichtige "Pro"-Programm verfügt auch über Sammel- und Monitoringfunktionen: Man kann den Bot beauftragen, regelmäßig bestimmte Inhalte zusammenzusuchen. Man kann ihn anweisen, bestimmte Webseiten zu beobachten und immer dann Laut zu geben, wenn sich dort etwas Neues tut: Ein ideales Tool beispielsweise zur Konkurrenzbeobachtung. Wer will, kann sich neben zahlreichen Standard-Suchportfolios auch eigene Suchprofile aus verschiedenen Quellen zusammenstellen. Im Auftrag des Users würde Copernic dann beispielsweise jeden Tag um 12.00 Uhr die Technik-News von Heise, Chip und SPIEGEL ONLINE auf einer Übersichtsseite zusammentragen. Alternativen: Bingooo, BullsEye und Co. Das kostenlose Programm Bingooo kann es zumindest mit der Schnupperversion von Copernic aufnehmen. Die deutsche Entwicklung gewann im Laufe des letzten Jahres einen wachsenden Fankreis: Faktisch kann Bingooo leicht mehr als die kostenlose Copernic-Version, arbeitet die Resultate aber nicht ganz so gut auf. Auch das Handling der Software wirkt im Vergleich mit der inzwischen im Windows-XP-ähnlichen Bonbon-Design daherkommenden, sehr klar strukturierten Copernic-Oberfläche kompliziert. Bingooo gilt selbst Fans darum als Chaos-Client mit viel Kraft. Als Trumpf kann Bingooo aber mit einem Pfund wuchern, das die Konkurrenz nicht zu bieten hat: Der Bot vermag auch auf Festplatten und in Firmennetzen zu suchen. Als viel versprechender Newcomer gilt auch BullsEye , das sich anschickt, Copernic echte Konkurrenz zu machen. Das Programm, zumal in seiner Profi-Version, lässt keine Wünsche übrig, kostet dann aber auch satte 199 Dollar. Schnuppern und probieren ist erlaubt, die Nutzung aber nur für 15 Tage kostenfrei. Wo gibt es Bots? Dabei gibt es teils Gutes, teils Bewährtes für Null bis wenig Dollar im Web: WebFerret etwa gehörte einmal zur Top-Klasse. Der Metasucher mit dem niedlichen Logo bietet solide Technik und das Standardprogramm, das man auch von Metaengines erwartet. Dafür ist er bequem und einfach zu handhaben: der Rest wird dann zur Geschmackssache. Für alltägliche, nicht sonderlich spezialisierte Suchen immer noch eine brauchbare Möglichkeit. Neben solchen allgemeinen Suchwerkzeugen gibt es auch einige ganz spezielle Entwicklungen. LexiBot etwa verspricht, gezielt das so genannte "Deep Web" inklusive der schwer zugänglichen Datenbanken zu erschließen. Das kostet dann allerdings auch schon wieder 289 Dollar für eine Lizenz. Einen ganzen Strauß kostenfreier wie kostenpflichtiger "Search Tools" verzeichnet wieder Searchenginewatch , das sich einmal mehr als nützliche und aktuell informierte Seite erweist. Die meisten der Entwicklerfirmen bieten über ihre Websites Downloadmöglichkeiten, schneller geht es oft über Download.com: Einfach den Namen der entsprechenden Software eingeben, schon ist man da.
    Fazit Searchbots sind hochgradig nützliche Werkzeuge für Menschen, die entweder oft und viel, oder einfach gern systematisch im Internet suchen. Ihre besondere Stärke liegt in den Archivfunktionen der Bots: Es ist überraschend, wie oft man auf "alte" Recherchen zurückgreift. Anders als bei Bookmarks überprüfen die wirklich guten Bots zudem ständig die Validität der Links. "Verschwindet" etwas aus dem Web, warnen sie das an - und löschen den entsprechenden Vermerk. Grundsätzlich lässt sich sagen, dass solche Bots all das können, was gute Metasearcher zu bieten haben - plus einiger unterschiedlicher Bonbons für den Nutzer. Wer sich den Umgang mit Bots einmal angewöhnt, will in der Regel auch nicht mehr darauf verzichten. Ansonsten gilt wie immer: Probieren geht über studieren. "Jeder Jeck", sagt man in Köln, "ist anders", und das gilt auch für Surfer: Den richtigen Bot für alle gibt es nicht. Aber für jeden gibt es einen richtigen. Im dritten Teil des Web-Wanderführers "Life after Google" : Suchen und finden kann man auch ganz anders. In aller Welt arbeiten die Entwickler an neuen Suchmethoden, vieles ist "in Beta" schon zu sehen. Ein Ausblick: Wie könnten sie aussehen, die Suchmaschinen der nächsten Generation - und was lässt sich schon nutzen?"
  10. Souron, S.: Wir wollens wissen (2006) 0.01
    0.00940712 = product of:
      0.03762848 = sum of:
        0.03762848 = weight(_text_:und in 59) [ClassicSimilarity], result of:
          0.03762848 = score(doc=59,freq=54.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.3181036 = fieldWeight in 59, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=59)
      0.25 = coord(1/4)
    
    Content
    "Wenn man es genau nimmt, existiert die Internet-Adresse www.blinde-kuh.de nur wegens eines Mädchens namens Pia. Als Pia Müller (rundes Foto) elf Jahre alt war, setzte sie sich gerne auf die Knie ihres Vaters und spielte am Computer. Ihr Vater saß damals stundenlang vor dem Bildschirm. Auf der Suche nach Seiten, auf denen etwas über Philosophie stand, surfte er jeden Tag im Internet. Das Netz war damals noch lange nicht so groß wie heute. Noch nicht mal die "Tagesschau" hatte damals eine eigene Internet-Seite. Pia interessierte die Philosophie reichlich wenig, sie liebte Pferde, Dinosaurier und das Weltall. Wenn sie auf dem Schoß ihres Vaters saß, durfte sie mit ihm zusammen das Netz erobern - immer auf der Suche nach Pferdeseiten, Dino-Links und Weltraumbildern. "Die URL-Adressen von diesen Seiten haben wir dann auf einer Diskette gespeichert, damit ich sie immer wieder finden konnte", erinnert sich Pia. Die Diskette hat sie bis heute aufgehoben. Das, was darauf gespeichert ist, ist did` Keimzelle der ,,Blinden Kuh". Heute ist die Suchmaschine eine der beliebtesten Internet-Seiten für Kinder zwischen zehn und vierzehn Jahren in Deutschland. Zwölf Millionen Mal wurde sie in diesem Jahr bereits angeklickt, das sind etwa 50 000 Klicks am Tag. In diesem Jahr wurde das Team um Pia und ihren Vater, den Geschäftsführer Stefan Müller, mit dem Grimme Online Award ausgezeichnet. Der Preis wird jedes Jahr für herausragend gestaltete Internet-Seiten vergeben. Die Mischung aus Spielangeboten und Suchfunktion wurde besonders gewürdigt, aber auch der Sicherheitsaspekt erwähnt. Denn die Redaktion achtet darauf, dass niemand zu Schmuddelseiten weitergeleitet wird. Wer die Seite öffnet, dem wird ein breites, aktuelles Angebot präsentiert. Hinter eher brav gezeichneten Symbolen verbergen sich Themenschwerpunkte wie Umwelt und Technik oder Tiere und Pflanzen. Dazu noch Rätsel und Spiele, Sicherheitshinweise mit Tipps, wie man sich beispielsweise vor Viren schützt. Und Nachrichten. "Die werden im Durchschnitt alle zehn Minuten aktualisiert. Auch wenn andere Kinderseiten Neuigkeiten verkünden, müssen die kurze Zeit später in der Suchmaschine zu finden sein", sagt Pias Vater. Aktualität ist ihm wichtig.
    Was noch bemerkenswert ist: Auf der Homepage ist keine Werbung zu sehen. Auch das hatte die Jury bei der Preisverleihung lobend erwähnt. Aber bei genauer Betrachtung fällt doch auf, dass geworben wird: Seit Bundeskanzlerin Angela Merkel und Fa milienministerin Ursula von der Leyen das Projekt mit Geld unterstützen, ist eine Zeichnung zu sehen, auf der die Familienministerin poträtiert wird. Sie sitzt freundlich winkend an ihrem Schreibtisch. Es gibt sogar einen direkten Link zu der Kinderseite von Frau Merkel - nicht aber zu anderen Politikern, die sich um Kinderfragen kümmern. Pia ist heute 21 Jahre alt, sie trägt Jeans und Turnschuhe und erzählt ein bisschen schüchtern ihre Geschichte. Manchmal wird sie von ihrem Vater unterbrochen. Er weiß ja eigentlich viel besser, wie alles angefangen hat, dann verstummt Pia für ein paar Sekunden und schaut auf ihre Turnschuhe. Wenn ihr Vater dann wieder ruhig ist (was ein bisschen dauern kann, denn er erzählt sehr gerne), redet Pia weiter, und als sie mit ihrer Geschichte fertig ist, entschuldigt sie sich höflich: "Ich muss jetzt wieder an den Computer." Wie ihr Vater arbeitet auch Pia in der Redaktion. Sie ist Redaktionsassisétin, Das Büro liegt am Rande des Hamburger Schanzenviertels, dort wo abends die Studenten gerne zum, Feiern hingehen. Am Eingang zur Redaktion wird man von einer riesigen schwarz-weiß gefleckten Papp-Kuh begrüßt, deren Pupillen mit Farbe übermalt wurden. Eine Kollegin von Pia ist Birgit Bachmann. Zusammen mit Pias Vater hat sie am Anfang ehrenamtlich gearbeitet. Sie weiß noch genau, wieso der Name Blinde Kuh gewählt wurde. "Blinde Kuh ist ein uraltes Suchspiel für Kinder. Und weil unsere Seite für Kinder gemacht ist, die etwas suchen, sind wir auf diesen Namen gekommen." Das war vor zehn Jahren, seither ist die Blinde Kuh immer weiter gewachsen.
    Stefan Müller hat früher als Software-Entwickler gearbeitet und Computer-Programme geschrieben. Jeden Morgen geht er in sein Büro, setzt sich an seinen Computer, der sich hinter einem Tresen versteckt. Davor stehen ein altes Sofa und ein kleiner Tisch - falls mal Gäste vorbeikommen. Müller surft acht Stunden im Netz und fährt den Computer erst abends wieder herunter. "Und eigentlich bin ich dann immer noch nicht fertig", sagt er. "Diese Suchmaschine ist echt ein großer Tüdelkram." "Tüdelkram" ist eines von Müllers Lieblingsworten. Er spricht ein bisschen wie Käpt'n Blaubär - dass er aus Norddeutschland kommt, hört man deutlich heraus. Der "Tüdelkram" ist also die größte Aufgabe der "Blinden Kuh". Denn wenn Kinder ein Suchwort in die Suchmaschine eingeben, "dann sollen "Seiten herauskommen, die nur für Kinder gemacht sind". Etwa 1200 Seiten schaut sich die Redaktion pro Tag an, bewertet sie und nimmt geeignete Seiten in die Suchmaschine auf. Bei "Lilipuz", "Logo" und "Geolind" werden die Mitarbeiter oft fündig, manchmal schreiben, aber auch Kinder, denn in den vergangenen zehn Jahren hat sich das Suchverhalten verändert. "Am Anfang waren die jungen User passiv, heute wollen sie selber Dinge tun", sagt Stefan Müller. Bei der Online-Zeitung der Blinden Kuh "Kids-'e-zine", können Kinder selbst Geschichten schreiben. Frau Bachmann, die auch für die Witze zuständig ist, bekommt beispielsweise pro Tag etwa zehn zugeschickt, "die besten, schaffen es auf die Seite", sagt sie. Witze wie dieser: Was ist blau und klebt an einem Stein? Schlumpfkacke. Tabuthemen gibt es bei der Blindem Kuh nicht. Auch Suchworte wie "Sex" oder "Tod" liefern Treffer. Und in weltpolitischen Krisenzeiten versucht die Redaktion, die Nutzer auf den neuesten Stand zu bringen. Als die Amerikaner im Irak einmarschierten, schnellte die Suchanfrage für "Krieg", "Soldaten" und "Irak" in die Höhe. Noch stärker waren die Reaktionen beim Kosovo-Krieg. Die "Blinde Kuh" gab es noch nicht so lange, doch viele Kinder diskutierten bereits im Chat, wie sie den Gleichaltrigen im ehemaligen. Jugoslawien helfen könnten. "Und dann hatten die Kinder auf einmal die Idee mit den Spielzeugpaketen", erinnert sich Bachmann. Die Redaktion rief zusammen mit anderen Kinderseiten ihre User dazu auf, Spielzeug zu sammeln und an eine Hamburger Adresse zu schicken. Von dort aus würden die Sachen mit einem Konvoi in den Kosovo geschickt. Die Reaktionen waren überwältigend: "Wir hatten allein einen ganzen Raum voll mit Barbie-Puppen, sagt Müller. Die Kinder im Kosovo haben sich gefreut, sogar das Fernsehen hat über die Aktion berichtet."
  11. Schwacher Start der lokalen Suche in Deutschland (2005) 0.01
    0.009159986 = product of:
      0.036639944 = sum of:
        0.036639944 = weight(_text_:und in 3380) [ClassicSimilarity], result of:
          0.036639944 = score(doc=3380,freq=20.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.3097467 = fieldWeight in 3380, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3380)
      0.25 = coord(1/4)
    
    Content
    "Der Markt der lokalen Suche gilt für den Wettbewerb um Kunden als besonders bedeutsam (siehe Password 11/2003). Mittlerweile haben alle großen Suchmaschinen in den USA eine eigene lokale Suche laufen; die Angebote werden wohl noch in diesem Jahr für die größeren nationalen Märkte adaptiert. Yahoo kann sich rühmen, als erste der großen Suchmaschinen auch den deutschen Markt zu bedienen. Das Angebot selbst lässt allerdings zu wünschen übrig. Gegenüber dem Webangebot von Das Örtliche bestehen keinerlei Mehrwerte; vielmehr wird beim Anklicken eines Eintrags aus der Trefferliste schlicht auf die Original-Seite von Das Örtliche weitergeleitet, wo man sich dann auch einen Stadtplan anzeigen lassen und sich von einem Routenplaner die Anfahrt berechnen lassen kann. Das Yahoo-Angebot ist ausgesprochen schwach - zumal, wenn man es mit den Konkurrenzangeboten und dem US-Angebot von Yahoo vergleicht. In Deutschland bietet meinestadt.de seit Langem lokale Angebote inklusiv Branchenbuch und weitere Dienste wie Veranstaltungskalender und lokaler Stellensuche. Und für die privaten Telefonnummern lässt sich entweder das gedruckte Telefonbuch oder ein Angebot wie eben das Örtliche verwenden. Wirft man einen Blick in die USA, zeigt sich, in welche Richtung das Angebot von Yahoo eigentlich hätte gehen sollen. Die US-Seite von Yahoo bietet neben den Angaben aus Telefon- und Branchenbuch auch Fotos, eine Direktanzeige auf dem Stadtplan, Besprechungen (die von Partnerangeboten und YahooNutzern kommen), eine Verbindung zum Routenplaner und bei Restaurants teilweise sogar die Speisekarte. All dies wird übersichtlich auf einer Ergebnisseite präsentiert. Die Daten können in das von Yahoo angebotene Adressbuch übernommen oder per SMS auf ein Handy übertragen werden. Google bietet bei seiner lokalen Suche in den USA neben den Brachenbuch-Einträgen und Karten ergänzende Informationen aus dem Web-Index an. Auch hier werden alle Informationen direkt auf den Google-Seiten angezeigt, die von Partnern kommenden Informationen wie das Kartenmaterial werden entsprechend eingebunden. Vor dem Hintergrund der bereits bestehenden Angebote und vor allem dem eigenen US-Angebot von Yahoo bleibt völlig unklar, warum Yahoo für den deutschen Markt eine so schwache Lösung vorstellt. Zwar handelt es sich auch hier wieder um ein Beta-Angebot (so wie so ziemlich jede Neuerung auf dem Suchmaschinen-Markt, die noch jünger als ein paar Jahre ist), dies ist allerdings keine Entschuldigung für einen so schwachen Service."
  12. Neue Suchmaschine von Q-Sensei ermöglicht mehrdimensionales Navigieren (2009) 0.01
    0.009159986 = product of:
      0.036639944 = sum of:
        0.036639944 = weight(_text_:und in 2825) [ClassicSimilarity], result of:
          0.036639944 = score(doc=2825,freq=20.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.3097467 = fieldWeight in 2825, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2825)
      0.25 = coord(1/4)
    
    Content
    "Mit dem Ziel, wissenschaftliche Informationen auf eine neue, effizientere Art und Weise zugänglich zu machen, startet die neue Suchmaschine von Q-Sensei, die im Vergleich zu anderen Suchdiensten ein tiefergehendes, komfortableres und präziseres Finden ermöglicht. Die neue Suchmaschine bietet ein multilineares Interface, welches es den Nutzern erlaubt, jederzeit ihre Suche zu steuern, eigene Parameter zu definieren und einen umfassenden Überblick im Zugriff auf Wissen zu behalten. Q-Sensei bietet aktuell Zugang zu sieben Millionen wissenschaftlichen Artikeln, die mit großer Genauigkeit effektiv durchsucht werden können. Erreicht wird das durch die Analyse der Suchergebnisse, wodurch passend zu jeder Suchanfrage automatisch relevante Suchvorschläge angezeigt werden. Diese können wiederum selbst durchsucht werden, was den Nutzern größere Freiheiten bei der Suche bietet als dies bei anderen Suchmaschinen der Fall ist. Die Q-Sensei Technologie verbindet verschiedene Kategorien von Suchvorschlägen, wie z.B. Autor, Stichworte, Sprache und Jahr der Veröffentlichung miteinander, wodurch ein mehrdimensionales Navigieren möglich wird. Durch die Möglichkeit, Suchvorschläge beliebig miteinander zu kombinieren, hinzuzufügen und zu entfernen, können Nutzer ihre Suche jederzeit bequem erweitern und anpassen und so auch Literatur finden, die ihnen ansonsten entgangen wäre.
    Sobald Nutzer die gewünschten Ergebnisse gefunden haben, können sie auf weitere Informationen zu jedem Treffer zugreifen. Dazu zählen Zitate, Webseiten von Herausgebern oder verwandte Wikipedia-Artikel. Außerdem werden weitere verwandte Themen oder Einträge aus der Q-Sensei-Datenbank angezeigt, die als Ausgangspunkt für eine neue Suche dienen können. Ferner haben alle Nutzer die Möglichkeit, Einträge mit eigenen Daten anzureichern oder zu ändern, sowie weitere relevante Informationen wie Webseiten von Autoren oder Zitate im Wiki-Stil einzutragen. Die Q-Sensei Corp. wurde im April 2007 durch den Zusammenschluss der in Deutschland ansässigen Lalisio GmbH und der US-amerikanischen Gesellschaft QUASM Corporation gegründet. Q-Sensei hat seinen vorübergehenden Sitz in Melbourne, FL und betreibt in Erfurt die Tochterfirma Lalisio."
    Source
    Information - Wissenschaft und Praxis. 60(2009) H.3, S.127
  13. mho: Google erweitert Suchfunktion um Informationsdatenbank (2012) 0.01
    0.009159986 = product of:
      0.036639944 = sum of:
        0.036639944 = weight(_text_:und in 136) [ClassicSimilarity], result of:
          0.036639944 = score(doc=136,freq=20.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.3097467 = fieldWeight in 136, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=136)
      0.25 = coord(1/4)
    
    Content
    "Google hat seine Suchmaschine um eine Datenbank erweitert, die die Suchergebnisse um Fakten zu verschiedensten Objekten und Personen ergänzt. Diese semantische Suchfunktion, die vorerst nur Nutzern in den USA zur Verfügung steht, soll Suchbegriffe inhaltlich erkennen und Zusammenhänge zu anderen Themen herstellen. Damit soll Google noch besser erkennen, wonach die Nutzer suchen und möglichst auch gleich weitere Fragen beantworten. In einem Blogeintrag [http://googleblog.blogspot.de/2012/05/introducing-knowledge-graph-things-not.html] erläutert Google-Manager Amit Singhal die neue Funktion, die unter der Bezeichnung "Knowledge Graph" [http://www.google.com/insidesearch/features/search/knowledge.html] firmiert und in einem Video [http://www.youtube.com/watch?v=mmQl6VGvX-c] vorgestellt wird. Dabei handele es sich um eine große Informationsdatenbank, die derzeit über 500 Millionen Objekte und mehr als 3,5 Milliarden Informationen über die Beziehungen zwischen ihnen enthalte. Darunter fänden sich Sehenswürdigkeiten, berühmte Personen, Städte, Sportmannschaften, Gebäude, Orte, Filme, Himmelsobjekte, Kunstwerke oder Ähnliches. Anhand der Suchanfragen und der Ergebnisse wird die Datenbank immer weiter verbessert, verspricht Google. Dank dieser Neuerung verspricht Google seinen Nutzern drei merkliche Verbesserungen. So könne die Suchmaschine nun besser erkennen, wonach genau gesucht werde, beispielsweise das Gebäude Taj Mahal oder der US-Musiker mit gleichem Namen. Weiterhin könne Google durch den Knowledge Graph wichtige Inhalte besser zusammenfassen, beispielsweise die Lebensdaten einer berühmten Person und ihre Leistungen. Auch bereits getätigte Suchen andere Nutzer könnten künftige Suchergebnisse dadurch beeinflussen. So sei für für Suchende etwa von Interesse, welche Bücher Charles Dickens geschrieben habe. Bei dem Architekten Frank Lloyd Wright sei jedoch weniger die Literatur interessant, als die von ihm gestalteten Gebäude.
    Zu guter Letzt kündigt Google seinen Nutzern dank der neuen Informationsdatenbank überraschende Erkenntnisse an: Verantwortlich dafür seien Verbindungen, an die Nutzer nicht gedacht hätten. Beispielsweise würde die Anzeige der Namen der engsten Verwandten von Matt Groening ganz neue Einblicke in die Inspiration für seine Simpsons liefern. Außerdem könne Google nun öfter bereits die nächste Frage beantworten, die ein Nutzer der Suchmaschine stellen würde. Eine Suche nach Tom Cruise könne dank des Knowledge Graph beispielsweise jede dritte der danach gestellten Fragen bereits beantworten. Die neue Funktion wurde auch für die Suche auf Smartphones und Tablets angepasst, wie Junyoung Lee in einem eigenen Blogeintrag [http://insidesearch.blogspot.de/2012/05/knowledge-graph-for-mobile-and-tablet.html] erläutert. Integriert werde sie hier in die Browsersuche und in die Apps, sowohl auf Android als auch iOS. Eingeführt wird die neue Funktion derzeit schrittweise für englischsprachige Nutzer in den USA, wie Amit Singhal mitteilt. Zu anderen Sprachen und Ländern macht er keine Angabe."
  14. Neubauer, R.: Google ist auch eine weltweite Werbefläche : 100 000 Firmen bezahlen die Suchmaschine für zielgerichtete Reklame / Konkurrent Yahoo geht mit Overture in die Offensive (2003) 0.01
    0.009138492 = product of:
      0.036553968 = sum of:
        0.036553968 = weight(_text_:und in 843) [ClassicSimilarity], result of:
          0.036553968 = score(doc=843,freq=26.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.3090199 = fieldWeight in 843, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=843)
      0.25 = coord(1/4)
    
    Content
    "Gary Weiner's Schuhhandel mit Namen Shoedini ist kaum ein Markenname in den USA. Und Ge'Lena Vavra auch nicht. Beides sind kleine Unternehmen, deren Kundenstamm bis vor wenigen Jahren reichlich begrenzt war und deren Website einer Stecknadel im berühmten Heuhaufen, sprich World Wide Web, glich. Berühmt sind beide auch heute nicht. Doch die Geschäfte laufen flotter denn je - dank Google. Denn Weiner und Vavra, ein Anbieter italienischer Anzüge, entschieden sich für bezahlte Links auf der Suchmaschine. Sie zahlen Google zwischen 21 Cent und 1,50 Dollar, sobald ihr kommerzieller Link angeklickt wird. Und das Geschäft boomt, behauptet Vavra, die den Absatz von zehn Anzügen im Monat auf 120 steigerte. Auch Weiner ist zufrieden und gibt inzwischen 40 Prozent seines Werbebudgets für Links, so genannte Adwords oder Keywords bei Google aus. Sie gehören zu einem wachsenden Heer von mehr als 100 000 Unternehmen, die die Suchmaschine als Werbefläche nutzen. Das ist verständlich: Nicht nur mauserte sich Google, gegründet 1998 von zwei Studenten der Stanford University, zur beliebtesten Suchmaschine der Welt mit 200 Millionen Anfragen pro Tag. Sie stieg auch ganz nebenbei zu einer riesigen weltweiten Werbefläche im Internet auf. Und das, obwohl die Gründer beim Start von Google Werbung auf ihrer Website naiverweise als "heimtückisch" abgelehnt hatten. Doch einige hundert Millionen Dollar an Umsätzen später (Experten schätzen, dass Google dieses Jahr etwa 700 Millionen Dollar einnimmt), ist davon längst nicht mehr die Rede. Im Gegenteil: Google hat eine sprudelnde Geldquelle angezapft. Zwei Milliarden des zehn Milliarden Dollar schweren Werbemarktes in den USA werden inzwischen im Internet umgesetzt - Tendenz steigend. Und Google hat aus einer InternetSuchmaschine ein Geschäft mit Zukunft gemacht, vielleicht sogar den nächsten Goldrausch im Web initiiert. Denn anders als die nervige Bannerwerbung oder die Popups, die das Surfen zur Qual machen, ist die Werbung bei Google kontextabhängig und zielgerichtet. Nur wer "Hugo Boss" eintippt, sieht Vavras Anzeige für Anzüge. Nicht jedoch derjenige, der nach einem Tauchshop Ausschau hält. Dass die Konkurrenz diesem Erfolg nicht tatenlos zusehen würde, versteht sich. Vor allem Yahoo und der MicrosoftOnlinedienst MSN, ebenfalls Größen in der lnternet-Werbung, wappneten sich. in den vergangenen Monaten gegen die Vormachtstellung von Google, dessen Umsätze nur von dem Internet-Werbedienstleister Overture übertroffen werden. "Google hat einen Standard gesetzt, dem nun alle anderen nacheifern", meint der Branchenexperte Safa Rashtchy. So überraschte es nicht, als Yahoo kürzlich die Übernahme von Overture für 1,6 Milliarden Dollar ankündigte, nachdem der Online-Pionier in diesem Jahr bereits den Suchtechnik-Spezialisten Inktomi gekauft hatte. Mit dem neuen Deal verhindert er nicht nur, dass sich Microsoft die Firma unter den Nagel reißt, Yahoo stärkt auch die eigene Position im Kampf um die Web-Vorherrschaft. Denn Overture ist einer der führenden Anbieter bezahlter Suchergebnisse, die üblicherweise an vielfrequentierte Drittanbieter geliefert werden. Mit der Overture-Transaktion will Yahoo Google in die Schranken weisen und die Erweiterung des Modells auf ausländische Märkte - vor allem in Europa und Asien - ermöglichen. Zugleich dürfte der Deal zu einer weiteren Konsolidierung in der Branche führen. So wird spekuliert, dass Microsoft gezwungen wird, seine Position mit dem Zukauf kleinerer Firmen zu stärken. Ask Jeeves ist ebenso im Gespräch wie Looksmart. Microsoft, so eine fantasiereichere Variante, könnte aber auch leicht fünf Milliarden Dollar für den Erwerb von Google lockermachen. Eine Idee, die die Wagniskapitalgeber und die Gründer von Google jedoch als unrealistisch vom Tisch wischen."
  15. Neubauer, R.: Meine Glotze, deine Glotze : Google sichert sich die Internet-Videoplattform You Tube für 1,65 Milliarden Dollar / 72 Millionen Nutzer lassen die Werbeeinnahmen explodieren (2006) 0.01
    0.009138492 = product of:
      0.036553968 = sum of:
        0.036553968 = weight(_text_:und in 6057) [ClassicSimilarity], result of:
          0.036553968 = score(doc=6057,freq=26.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.3090199 = fieldWeight in 6057, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6057)
      0.25 = coord(1/4)
    
    Abstract
    "Xchylerjfk" mag You Tube. Die junge Frau, die hinter diesem verqueren Internet-Namen steckt, mag die Website für Amateurvideos "so, wie sie ist". Und so sehr, dass sie nun ganz aufgeregt ein Kurzvideo für You Tube gedreht hat und darin schimpft: "Sie wollen die Welt beherrschen." Gemeint ist Google, der neue Eigentümer von You Tube. Denn die Internet-Suchmaschine Google übernimmt für 1,65 Milliarden Dollar You Tube (übersetzt etwa: deine Glotze), eine Website, die in weniger als zwei Jahren von einer Idee, ausgeheckt beim Abendessen, zum kulturellen Massenphänomen aufstieg. "Wir wollten unabhängig bleiben", begründete der 29 Jahre alte You-Tube-Chef Chad Hurley in der Nacht zum Dienstag gegenüber der Agentur Reuters, warum er und sein Mitbegründer Steve Chen (27) Google den Zuschlag gaben. Google habe Selbstständigkeit versprochen und sein technisches Wissen könne You Tube dem Ziel näher bringen, die unterhaltsamste Video-Seite im Internet zu sein. "Jetzt haben wir mit Google die Ressourcen hinter uns, um diese Vision zu verwirklichen`; sagte Hurley. Hurley verriet nicht, wie viel Geld er und Chen bei der Übernahme einstreichen. Ein dritter Mitbegründer - Jawed Karim - hatte You Tube verlassen, kurz bevor das Jungunternehmen erstmals 3,5 Millionen Dollar Startkapital von Sequoia Capital ergatterte - diese Firma hatte auch Google in der Start-phase mit Kapital versorgt. Laut Wall Street Journal besitzt Sequoia Capital knapp ein Drittel von You Tube. Der Kauf ist die teuerste Neuerwerbung in der achtjährigen Firmengeschichte und sichert Google die führende Rolle im wachsenden Online-Markt für Videos. Schräge Videoclips boomen ebenso im Internet wie so genannte Social Networks, etwa die Kennenlern-Plattform My Space. Etablierte Medien und Internetfirmen wollen ein Stück vom Kuchen.
    Goldgräber-Stimmung Erst im August hatte Google und My Space einen Deal für 900 Millionen Dollar abgeschlossen, der Google erlaubt, auf der Community Website Werbung zu verkaufen. Als Interessenten für You Tube waren Gerüchten zufolge auch Internetgiganten wie Yahoo und Ebay im Gespräch. Ausgelöst hat die jüngste Goldgräber-Stimmung Robert Murdoch, dessen News corporation im vergangenen Jahr My Space für 580 Millionen Dollar erstand - in bar. Was damals eine ungeheure Summe erschien, sieht nach dem Deal mit Google wie ein Schnäppchen aus. Analysten schätzen den Wert von My Space bereits auf zwei Milliarden Dollar. Gründe für den Kauf gibt es genug. Da sind zum einen die "Eyeballs", die Zahl der Nutzer von You Tube: 72 Millionen monatlich. Auch wollte Google angeblich nicht den gleichen Fehler wie vergangenes Jahr machen, als es sich My Space entgehen ließ. Drittens ist die YouTube-Gemeinde nach Untersuchungen aktiver, enthusiastischer, kommentar- und austauschfreudiger als die User bei der Google-Konkurrenz. Hinzu kommt "stickiness". You-Tube-Fans verweilen länger auf der Seite als in vergleichbaren Fällen. Ein wichtiger Aspekt für Werbedollars, mit denen Google sein Geschäft macht. Es ist eine einfache Rechnung: Dieses Jahr werden in den USA schätzungsweise 16 Milliarden Dollar in die Internet-Werbung fließen, 28 Prozent mehr als 2005. Dennoch gibt es Kritiker. Probleme könnten die Urheberrechte machen, denn viele You-Tube-Nutzer laden Ausschnitte aus Fernsehsendungen, Musikvideos und Filmen hoch, die geschützt sind. Erst Stunden, vor Bekanntgabe der Übernahme gaben Google und You Tube eine Reihe von Vertriebsverträgen mit Warner Musik, Sony BMG und Universal bekannt.
  16. Charlier, M.: Pingpong mit Pingback : Lass mich Deine Suchmaschine sein: Webseiten finden neue Wege der Vernetzung (2003) 0.01
    0.008957369 = product of:
      0.035829477 = sum of:
        0.035829477 = weight(_text_:und in 1475) [ClassicSimilarity], result of:
          0.035829477 = score(doc=1475,freq=34.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.3028952 = fieldWeight in 1475, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1475)
      0.25 = coord(1/4)
    
    Abstract
    Die Suchmaschine Google erfasst in ihren Datenbanken nach eigener Auskunft mehr als zwei Milliarden Webseiten. Ob das ein Drittel oder nur ein Viertel aller bestehenden Seiten ist, bleibt umstritten. Aber auch so ergeben Suchanfragen schon eine nicht mehr zu bewältigende Zahl an Treffern - die meisten allerdings weit am Thema vorbei. Um die Seiten, die ihnen einmal positiv aufgefallen sind, wiederzufinden, sammeln fleißige Websurfer Tausende von Bookmarks. Und dann finden sie sich in ihren Lesezeichen nicht mehr zurecht. Information vom Rauschen zu trennen und den Reichtum des Netzes zu erschließen, wird immer schwieriger. Es gibt diverse Projekte, die auf eine Verbesserung dieser Situation abzielen. Die meisten werden noch Jahre bis zum Abschluss benötigen und dann vermutlich auch nur gegen Bezahlung nutzbar sein. Deshalb wird an den Graswurzeln und noch tiefer im Untergrund des Webs derzeit mit technischen Verfahren experimentiert, die auf neuartige Weise die Bildung von persönlichen Informationsnetzen möglich machen. Das ist kostenlos, aber noch nicht so leicht anzuwenden. Da ist z.B. die Blogger-Szene (www.blogworld.de). Blogs sind tagebuchartig geführte und oft mehrfach täglich aktualisierte private Webseiten, auf denen sich Menschen mit gemeinsamen technischen, beruflichen oder persönlichen Interessen treffen. Dort sieht man immer öfter einen kleinen roten Button mit den drei Buchstaben: XML - eine prächtige Kollektion davon bietet der "Hirschgarden" auf http://radio.weblogs.com/0117605/. Wenn man darauf klickt, erscheint eine mehr oder weniger rätselhaft ausgezeichnete Datei, die offensichtlich Informationen zu dieser Seite enthält. Diese Dateien sind so genannte RSS-Feeds, was soviel heißt wie: Lieferanten von angereicherten Seiten-Inhaltsangaben (Rich Site summaries. Das "angereichert" bezieht sich darauf, dass auch Bilder oder Sounddateien angelinkt sein können). Für die Besucher, die schon auf der Seite sind, haben diese kaum entzifferbaren Dateien keinen Wert. Sie sind bestimmt zur Auswertung durch so genannte RSS-Reader - und damit wird die Sache spannend. Wer will, kann sich einen solchen Reader - im Netz werden mehrere davon zum kostenlosen Download angeboten, z.B. auf www.feedreadercom - auf seinem Rechner installieren. Dieser Reader kann die Feeds in einer vernünftig lesbaren Form darstellen; meistens so, wie man das von Mailprogrammen kennt: Links eine Liste der Absender, rechts oben die Überschriften der einzelnen Summaries. Und wenn man diese anklickt, erscheint rechts unten eine Inhaltsangabe des zur jeweiligen Überschrift gehörenden Artikels. Zum Reader gehört eine Liste, in der einzutragen ist, welche Webseiten das Programm - unter Umständen mehrmals täglich - vollautomatisch besuchen soll, um dort die jeweils neuesten Inhaltsangaben abzuholen. Damit ist man jederzeit bestens darüber im Bilde, was auf den wichtigen Seiten geschieht. Technisch geht die Initiative dabei immer vom jeweiligen Anwender aus, aber praktisch wirkt das so, als ob die Informationslieferanten ihn jedesmal benachrichtigen, wenn es etwas neues gibt. Der Anbieter muse natürlich dafür sorgen, dass sein Newsfeed immer aktuell und aussagekräftig gestaltet ist. Für einige Blogs gibt es Software, die das vollautomatisch erledigt. Eine rundum feine Sache also, die bald wohl nicht allein von Bloggern und Nachrichtenagenturen eingesetzt werden. Noch weitreichender sind die Veränderungen, die sich - ebenfalls zunächst in der Welt der Blogs - unter Stichworten wie Trackback oder Pingback ankündigen.
    - Links im Rückwärtsgang - Dahinter stehen unterschiedliche technische Verfahren, die aber praktisch auf das Gleiche hinauslaufen: Während Links im www bisher eine buchstäblich einseitige Angelegenheit waren, werden sie nun zweiseitig. Bisher hat derjenige, der "gelinkt worden" ist, davon zunächst einmal gar nichts erfahren. Jetzt sorgt Pingback dafür, dass auf der gelinkten Seite automatisch ein Rückwärts-Link auf die linkende Seite eingerichtet wird, zumindest, wenn beide Webseiten mit der entsprechenden Technik ausgerüstet sind. Natürlich gibt es keinerlei Zwang, sich diesem System anzuschließen. Wer nicht möchte, dass plötzlich Rückwärts-Links auf seinen Seiten auftauchen, richtet die Software einfach nicht ein. Man braucht nicht viel Surferfahrung, um zu ahnen, dass dieses Ping-Pong-Spiel mit Links dem Austausch von Informationen und Meinungen eine ganz neue Dimension eröffnen können - zumindest dann, wenn genug Webseiten mitmachen. Dann wird man auf vielen Webseiten nicht nur Links auf eventuell genutzte Quellen, sondern auch auf Anwender finden können - also auf andere Seiten, deren Betreiber diesen Inhalt für interessant und wichtig genug hielten, um ein Link darauf zu setzen. So entsteht eine Spur, der man nicht nur wie bisher bestenfalls rückwärts, sondern auch vorwärts folgen kann. Das Thema erschließt sich in vielen Varianten und Entwicklungsstadien. Man wird den Weg eines Themas oder einer Information durch das Netz verfolgen können und dabei vermutlich vielen Seiten be-gegnen, die ähnliche Interessen bedienen, die man durch Suchmaschinen nie gefunden hätte. Das "persönliche Netz" wird enger geknüpft, die Bedeutung der Suchmaschinen und ihrer Defizite wird geringer. An die Stelle mechanischer Sucherei treten lebendige Zusammenhänge. Noch ist das Zukunftsmusik. Man findet zwar schon recht viele Blogs, die ihre Aufnahmebereitschaft für Rückwärtslinks signalisieren, aber erst wenige, bei denen diese Möglichkeit auch genutzt wird. Die kritische Masse, ohne die das System seine Vorteile ausspielen könnte, ist anscheinend noch nicht erreicht. Aber die ständig verbesserte Anwendbarkeit der Software und der Umstand, dass sie nichts kostet, machen Lust, es einmal auszuprobieren. Und in dem Maß, in dem Suchmaschinen die Erwartungen immer weniger erfüllen und am Ende noch Geld für gute Positionierungen nehmen, wird es gerade für kleinere Anbieter - nicht nur im Hobby-Bereich - immer interessanter, neue Wege der Vernetzung zu erproben.
  17. Luetzow, G.: Jeder googelt jeden : Analyse (2004) 0.01
    0.008957369 = product of:
      0.035829477 = sum of:
        0.035829477 = weight(_text_:und in 2599) [ClassicSimilarity], result of:
          0.035829477 = score(doc=2599,freq=34.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.3028952 = fieldWeight in 2599, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=2599)
      0.25 = coord(1/4)
    
    Abstract
    Der Siegeszug der Suchmaschinen sorgt für eine Informationsflut, verändert den Recherchekunst-Begriff und kann sich sogar auf Verabredungen auswirken.
    Content
    "Rasende Reporter haben es auch nicht leicht. Letzten Freitag beispielsweise klingelt das Telefon: Am anderen Ende eine Amerikanerin mit leichtem russischem Akzent, gerade in der deutschen Hauptstadt zu Gast und beinahe verwandt mit entfernten Bekannten. Lohnt sich das, rein wirtschaftlich, so einen Kontakt zu knüpfen? Diese Frage beantwortet heutzutage Google - man weiß schließlich in einer Stadt wie Berlin nie, wer Leute wirklich sind oder sein könnten. Agenten vielleicht oder, noch schlimmer, nervige Lebenszeitabsauger, die von tausend Projekten erzählen und keines gebacken bekommen. Vorname und Nachname ergeben gegoogelt verdächtig wenig: Ein einziger Hinweis auf ein in den Neunzigern absolviertes Praktikum in einer New Yorker Galerie, deren Nichtexistenz für die Kunstwelt auch keine Katastrophe wäre. Also der Nachname: Es finden sich eine Aachener Lyrikerin aus Riga, etwas mit Landkarten und jemand aus der Chruschtschow-Administration. Das Date geht in Ordnung, und beim Treffen entfaltet sich ein charmantes Hintergrundgespräch, bis der Hinweis auf Chruschtschow fällt. "Du hast mich gegoogelt?" Anderes Thema: Die Sache mit dem Archiv und den Informanten. Journalisten, so war das früher, bekamen einen Auftrag. In der guten alten Gewissheit, dass Nachrichten nur das sind, was derzeit irgendjemand versucht, nicht publik werden zu lassen, begann dann der lange Marsch in die Archive, Dossiers wurden angefertigt, Verbindungen hergestellt, Thesen entwickelt und bisweilen traf man sich nächtens mit Informanten in Tiefgaragen zu vertraulichen Gesprächen. So weit, so ehrenhaft - aber außer Seymour Hersh macht so etwas niemand mehr. Wie desolat die Recherche-Lage ist, zeigt unfreiwillig die Erfolgsmeldung eines öffentlich-rechtlichen Senders, der unlängst mit stolzgeschwellter Investigatorenbrust verkündete, eine eigene Recherche-Redaktion mit sage und schreibe vier Mitarbeitern aufzubauen. Was genau die restlichen Mitarbeiter eigentlich machen, möchte man lieber gar nicht wissen. Oder doch? Mal schnell "Gottschalk" und "Schleichwerbung" googeln, immerhin, 492 Hits, könnte eine Geschichte sein. Grund für diese verbreitete Form der Instant-Aufklärung ist neben schlichter Bequemlichkeit auch die desolate Lage der vielen freien Autoren, die vor der Wahl stehen, entweder für ein Monatseinkommen in der Region von Hartz IV seriös und ergebnisoffen zu arbeiten, oder eben die nötige Anzahl Geschichten "rund" und vor allem schnell zu liefern. Doch was in der Vergangenheit meist unter Kollegen bekannt war, aber wenigstens nicht publiziert wurde, findet ;sich inzwischen auch in Texten: "Ein Thema, das bewegt - zum Begriff XYZ finden'sich so und so viele Hits bei Google." Das, denkt sich der Leser, kann ich eigentlich auch, schmeißt selber die Suchmaschine an und wird so zum Journalisten- oder was er dafür hält. Der Vorteil daran ist, dass so bisweilen Informationen ans Licht der Welt drängen, die es garantiert nicht aus eigener Kraft auf FOX News geschafft hätten.
    Gleichzeitig ist Google ein Paradies für Paranoiker: Einmal schnell so etwas wie "Bilderberger" und "Illuminaten" eingegeben, schon ist die Weltverschwörung entdeckt (628 Hits). Ebenfalls interessant: Die 11200 Hinweise auf einen pakistanischstämmigen Amerikaner, von dem man nicht genau weiß, was er nun eigentlich ist: Ein New Yorker Investment-Banker, der mit durchaus schillernden Persönlichkeiten verbunden zu sein scheint? Ein politischer Kommentator in Fragen des Terrorismus? Ein fleißiger Parteispender? Oder bloß ein bescheidener Privatmann, der zufälligerweise der Clinton-Administration das Auslieferungsangebot in Sachen bin Laden aus Sudan überbrachte? So etwas macht ungeschulte Köpfe schnell sehr nachdenklich. Wer sogar für solche Situationen ausgebildet ist, erlebt mit Google einen Zugewinn an Zeit - alle anderen jedoch laufen Gefahr, durch die Informationsflut komplett und gezielt desinformiert zu werden..Schließlich kann man auch die Platzierung der Treffer kaufen oder durch technische Tricks beeinflussen - was bisweilen durchaus lustige Seiten hat: Hacker beispielsweise sorgten mit einer "Google-Bombe" dafür, dass der erste Treffer für "miserable failure" kein Geringerer als George W. Bush ist. Wie übrigens die Geschichte mit der russischen Amerikanerin weitergegangen ist? Auch sie hatte natürlich den Autoren gegoogelt - und er hatte nichts anderes erwartet."
  18. Schröter, H.G.: Dritter Versuch : Software-Riese Microsoft ist im Suchgeschäft ein Zwerg. Sein neuer Angriff auf Google kann an der Bequemlichkeit der User scheitern (2009) 0.01
    0.008957369 = product of:
      0.035829477 = sum of:
        0.035829477 = weight(_text_:und in 2874) [ClassicSimilarity], result of:
          0.035829477 = score(doc=2874,freq=34.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.3028952 = fieldWeight in 2874, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=2874)
      0.25 = coord(1/4)
    
    Content
    "Jahrelang hat Microsoft kräftig in die Suchtechnologie investiert. Spezialfirmen wurden übernommen, erfahrene Manager angeheuert, und doch nahm der Marktanteil bei Suchanfragen im Web immer weiter ab. Gleichzeitig legte der Rivale Google, der mit großem Abstand die Ranglisten anführt, weiter zu. Im vergangenen Jahr bot Microsoft sogar rund 50 Milliarden Dollar für den Internet-Pionier Yahoo, der deutlich vor Microsoft die Nummer zwei bei der Web-Suche ist. Auch aus diesem Versuch, im Wettrennen gegen Google endlich voranzukommen, wurde nichts. Nun nimmt Microsoft mit Bing einen neuen Anlauf. Die Suchmaschine ist - da sind sich die Experten einig - besser als der Vorgänger mit der glücklosen Marke Live Search. Doch das heißt noch lange nicht, dass die Google-Nutzer nun scharenweise zu Microsoft überlaufen. Für sie gebe es keinen zwingenden Grund, zu Bing zu wechseln, meint Danny Sullivan vom Blog Searchengineland.com. Denn die Surfer hätten mit der Suche im Internet keine Probleme. Google funktioniere und sei beliebt, sagt Sullivan zu anderslautenden, von Microsoft präsentierten Forschungsergebnissen. Vielmehr habe der Software-Konzern reagieren müssen und dies nun auch getan. Mit Bing seien neue Funktionen eingeführt worden, allerdings keine revolutionären. Für den Google-Experten Ralf Kaumanns von der Beratungsgesellschaft Accenture ist Bing der "bisher beste Versuch", dem Marktführer Konkurrenz zu machen. Dennoch sei allein damit für Microsoft noch nichts gewonnen. Denn die allermeisten Internet-User nutzten das, was sie kennen.
    Google habe eine starke Marke und genieße Vertrauen, so Kaumanns. Die große Frage sei, ob es Microsoft mit einer gleich guten Suchmaschine gelinge, das Verhalten der bequemen Nutzer zu ändern. Reicht dafür die riesige Werbekampagne des Konzerns aus, fragt Kaumanns, wenn viele Surfer bei ihrer Suche über längst integrierte Toolbars gehen? Google sei über Verträge mit AOL oder für den Firefox-Browser groß geworden, wodurch die eigene Suchmaschine dort eingebunden wurde. In den USA kam Live Search im April nach Schätzung der Comscore-Marktforscher auf einen Anteil von gut acht Prozent der Suchanfragen, Yahoo auf über 20 Prozent und Google auf 64 Prozent. Microsoft hat es im Suchgeschäft also mit übermächtigen Konkurrenten zu tun. Dennoch kann Topmanager Steve Ballmer die Suche nicht einfach links liegen lassen. Schließlich sie ist das wichtigste Tor ins Netz - und entscheidend fürs Geldverdienen. Weltweit werden laut ZenithOptimedia 2009 rund 54 Milliarden Dollar in das Werbemedium Internet fließen, ein Großteil in Form von Textanzeigen neben Suchanfragen. Solche Anzeigen bringen Google Milliarden ein. Display-Reklame wie etwa Banner, bei der Yahoo stark ist, verliert in der Wirtschaftskrise an Boden. Und mit dem Geld aus der Vermittlung von Werbung bietet Google im Web alles Mögliche gratis an: einen E-Mail-Dienst, den Browser Chrome - und nicht zuletzt Software, die den kostenpflichtigen Programmen von Microsoft Konkurrenz macht.
    Alternativen Es muss nicht immer Google sein - für verschiedene Zielgruppen gibt es ganz verschiedene Suchmaschinen: WolframAlpha.com ist keine Such-, sondern eine Rechenmaschine. Wer den derzeitigen Abstand der Erde von der Sonne wissen will, ist mit der Seite bestens bedient. Wenn es um alltägliche Fragen etwa aus Kultur oder Politik geht, ist das noch neue Angebot aber untauglich. Webcrawler und MetaGer sind Meta-Suchmaschinen, die mehrere Dienste gleichzeitig durchsuchen. Scroogle.org liefert die Ergebnisse einer Google-Suche, ist aber werbefrei und verhindert, dass Google die Suchanfragen dem Nutzer zuordnen kann. Blindekuh.de wurde speziell für Kinder entwickelt und bietet neben einer Suchmaske auch zahlreiche Linktipps zu verschiedenen Wissensbereichen. Forschungsportal.net durchforstet zwölf Millionen Webseiten aller Forschungseinrichtungen und Institutionen nach Forschungsthemen und Veröffentlichungen. Nutzer sollten allerdings recht genau wissen, was sie suchen, da die Ergebnisausgabe recht unübersichtlich geraten ist. Echoco.eu und Forestle.org sind "grüne" Suchmaschinen. Sie arbeiten mit Google und Yahoo zusammen und geben Teile ihrer Werbeeinnahmen an Naturschutzorganisationen weiter. Technorati ist die beliebteste Blog-Suchmaschine. Mit ihr kann man Blogs aus aller Welt nach Stichworten oder nach ihrer Relevanz durchstöbern. Twitter funktioniert als Echtzeit-Suche: Wer bei search.twitter.com einen Begriff eingibt, sieht sofort, ob das Thema aktuell heiß diskutiert wird, und bekommt zahlreiche weiterführende Links in den angezeigten Kurznachrichten. Wohin diese führen, ist allerdings oft nicht ersichtlich."
  19. Hartknopf, A.: Google statt eBay : Moderne Suchtechnologien (2006) 0.01
    0.008869118 = product of:
      0.035476472 = sum of:
        0.035476472 = weight(_text_:und in 2895) [ClassicSimilarity], result of:
          0.035476472 = score(doc=2895,freq=12.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.29991096 = fieldWeight in 2895, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2895)
      0.25 = coord(1/4)
    
    Abstract
    Diesen Herbst hat es ordentlich rumort im Netz. Bildschirmfotos und Berichte von einem geheimnisvollen neuen Dienst namens "Base" tauchten auf. Plante Google den Sturmangriff auf eBay und Co.? Nun ist es raus.
    Content
    "Google beschreibt sein neues Angebot Base lapidar so: "Ein Platz, an dem Sie ganz einfach alle möglichen Arten von Online-oder Offline-Inhalten hosten lassen und auffindbar machen können." Und so sieht's auf den ersten Blick auch aus: ein bisschen wie die Grabbelkiste auf dem Flohmarkt. Nur lässt sich hier mit System grabbeln. Im Grunde ist Base (base.google.com) eine Datenbank. Sie nimmt einerseits Inhalte auf, die sich sonst nirgends finden, andererseits aber auch Verweise auf vorhandene Webseiten. Auch Bilder lassen sich einstellen. Suchkategorien von Blogs über Rezepte oder Comics bis zum Auto- und Jobmarkt helfen dabei, sich in den bunten Inhalten zu orientieren. So kann der Nutzer die Base "durchblättern" wie einen Katalog. Die meisten Kategorien lassen sich auf durchdachte Weise nochmals einschränken (bei Autos etwa auf Marke oder Farbe, bei Rezepten auf Suppe oder Dessert etc.). Zudem ist die Sortierung nach Relevanz oder Einstelldatum des Artikels wählbar. Das Ganze folgt der bekannten Google-Optik und ist ähnlich wie die Suchmaschine zu handhaben."
  20. Ganslmayer, K.: Per Mausklick zum Wissen der Welt : Chip Test & Technik: Lexika Online vs. Offline (2005) 0.01
    0.008869118 = product of:
      0.035476472 = sum of:
        0.035476472 = weight(_text_:und in 3996) [ClassicSimilarity], result of:
          0.035476472 = score(doc=3996,freq=12.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.29991096 = fieldWeight in 3996, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3996)
      0.25 = coord(1/4)
    
    Abstract
    Wo schlägt man im Internet-Zeitalter Wissen nach? CHIP hat für Sie herausgefunden, ob sich der Kauf eines Multimedia-Lexikons noch lohnt oder ob Sie alle Informationen genauso gut online finden. Wer braucht denn überhaupt noch Lexika? Schließlich findet sich in den unendlichen Weiten des Internets doch genug Wissen für unzählige Bücher oder DVDs - mehr, als je ein Lexikon umfassen könnte. Allerdings muss man sich die Informationen im Web erst mühsam zusammensuchen. Oder vielleicht doch nicht? Das redaktionell betreute Online-Lexikon wissen.de und die freie Enzyklopädie Wikipedia bieten zu vielen Stichwörtern die passenden Artikel - ohne langes Stöbern in Suchmaschinen-Ergebnissen. Aber können sie wirklich mit den etablierten MultimediaLexika mithalten? CHIP hat wissen.de und die deutsche Version von Wikipedia mit den drei renommiertesten Nachschlagewerken auf CD bzw. DVD verglichen: mit Microsofts Encarta, dem Brockhaus sowie Data Beckers großem Lexikon, jeweils in der aktuellen Version von 2005. In unserem Test steht die erfolgreiche Suche nach Informationen im Vordergrund - Multimedia und Extras sind uns weniger wichtig. Deshalb testen wir die preisgünstigen Standard-Versionen von Brockhaus und Encarta. Die PremiumVersionen bieten zwar umfangreiche Zusatz-Features und etwas mehr Inhalt, kosten aber auch mehr als das Doppelte. Haben die getesteten Lexika Vorteile gegenüber einer Online-Recherche per Suchmaschine? Wie gut Google mit unseren Suchbegriffen zurechtkommt, erfahren Sie im Kasten auf S. 95. Mit größtenteils kostenpflichtigen Online-Angeboten warten Encarta und Brockhaus auf. Was sie im Vergleich zur jeweiligen CD/DVD zu bieten haben, lesen Sie auf S.98.

Years

Languages

  • d 463
  • e 38
  • More… Less…

Types

  • a 401
  • m 54
  • el 51
  • x 13
  • s 9
  • r 2
  • p 1
  • More… Less…

Subjects

Classifications