Search (4748 results, page 190 of 238)

  • × year_i:[2000 TO 2010}
  1. Jetzt kommt die Wissenschaft : Von Wahrheiten, Irrtümern und kuriosen Erfindungen (2003) 0.01
    0.007672068 = product of:
      0.030688273 = sum of:
        0.030688273 = weight(_text_:und in 3898) [ClassicSimilarity], result of:
          0.030688273 = score(doc=3898,freq=20.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.2712157 = fieldWeight in 3898, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=3898)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: Spektrum der Wissenschaft 2004, H.11, S.88 (O. Koch):"Seit drei Jahren ist die Wissenschaftsdoppelseite der »Frankfurter Allgemeinen Sonntagszeitung« (F.A.S.) lieb gewordener Teil meines Sonntagsfrühstücks, auch wenn das monumentale Format Gorillaarme erfordert und regelmäßig in Konflikt mit dem Marmeladenbrötchen gerät. Ein flott geschriebener Lauftext führt den Leser jede Woche auf zwei Seiten durch ein anderes Thema. Informationen, die den Lesefluss stören würden, werden in opulente Grafiken, schematische Darstellungen oder Faktenkästen ausgelagert. Deshalb war die Begegnung mit der vorliegenden Kompilation ein freudiges Wiedersehen. Die Geschichte des Anatomen Justus Christian Loder, von Tilman Spreckelsen im Artikel »Für ihn war jede Leiche schön« anschaulich geschildert, fehlt ebenso wenig wie »Die Formel des Dr. Drake«: Schritt für Schritt wird der Leser in die umstrittene Gleichung eingeführt, mit welcher der US-Astronom Frank Drake die Zahl der Planeten mit intelligentem Leben berechnen will. Das klingt phänomenal, scheitert aber an fehlenden Daten über das Universum, wie der Autor Ulf von Rauchhaupt demonstriert. In dem Kapitel »Blut, Schweiß und Tränen« nähert sich Jan Schweitzer dem anrüchigen Bereich der Körperausscheidungen, während das dichtlose Gesindel« von Jörg Albrecht sich als Gruppe faszinierender Tiefseegeschöpfe entpuppt. Am interessantesten sind aber die Beiträge, in denen den Autoren die seltene Symbiose zwischen Wissenschaft und Unterhaltung gelingt. Etwa »Gut ausgedacht, trotzdem ausgelacht« von Gero von Randow über die Frage, warum bestimmten Erfindungen der Durchbruch versagt blieb, wie dem Plastikfahrrad oder dem eckigen Lenkrad. Augenzwinkernd wird daraus sogleich ein neuer Zweig der Technikgeschichte, die »Floppologie«. Ein Beitrag von Klemens Polatschek überrascht nicht nur mit einem Stammbaum der Staubsaugerbeutel, sondern auch mit der Erkenntnis, dass Deutschland innerhalb der EU »das einzige größere Land mit einer eigenständigen und bedeutenden nationalen Staubsaugerbeutel-Industrie« ist. Von fiktiven Elementen wie Kryptonit und explosiven Verbindungen wie Vehemit oder Duckamit erzählt der peppig aufgemachte Artikel »Chemie in Entenhausen« von Andreas Platthaus. Von den mehr als hundert Doppelseiten, die in den Jahren 2001 bis 2003 in der »EA.S.« veröffentlicht wurden, haben 38 Eingang in das vorliegende Buch gefunden. Der durch das Buchformat erhöhte Lesekomfort wird allerdings mit dem Verzicht auf besonders schöne grafische Spielereien erkauft: So musste die prächtige Marskugel in von Rauchhaupts »Einmal zum Mars und (hoffentlich) wieder zurück« in zwei Hälften zerteilt werden. Und die Zahl PI, die in Albrecht Beutelspachers »Kreise, Kugeln, Zufälle: Überall spukt PI herum« mit ihren Nachkommastellen als Kreis die PI-Formel des indischen Mathematikers Srinivasa Ramanujan umschließt, läuft im Buch ganz unspektakulär geradeaus über acht Seiten. Manche Verweise auf weiterführende Grafiken wurden nicht an die neue Gestaltung angepasst. Was für treue »F.A.S.«-Leser eine repräsentative und zudem kleckerfreie Darreichungsform bekannt guter Ware darstellt, das ist für alle anderen ein unterhaltsamer Querschnitt aus der Welt der Wissenschaft. Dabei scheuen die Autoren auch vor ungewöhnlichen und schwierigen Themen nicht zurück. Komplexe Sachverhalte erklären sie verständlich, fast spielerisch, gleiten aber niemals ins Infantile ab. Deshalb ist das gewichtige Werk auch für diejenigen eine gute Wahl, die bisher die vermeintlich trockene Wissenschaft gescheut haben."
  2. Sülzer, T.: ¬Die komplette Rundschau jetzt im Internet : "E-Paper"-Ausgabe mit sämtlichen Beilagen online lesen - für Abonnenten völlig kostenlos (2005) 0.01
    0.007672068 = product of:
      0.030688273 = sum of:
        0.030688273 = weight(_text_:und in 5026) [ClassicSimilarity], result of:
          0.030688273 = score(doc=5026,freq=20.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.2712157 = fieldWeight in 5026, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5026)
      0.25 = coord(1/4)
    
    Content
    "Schon seit Jahren ist die Rundschau mit ausgewählten tagesaktuellen Artikeln im Internet vertreten. Dieses Angebot ist jetzt komplettiert: Ab sofort steht Ihnen Ihre Zeitung vollständig im weltweiten Datennetz zur Verfügung. In der so genannten "E-Paper"-Aus-gabe findet sich die gesamte Rundschau-Ausgabe, Seite für Seite, ohne Ausnahme, von Montag bis Samstag. Nichts fehlt: Jeder Artikel, jedes Foto, jede Anzeige ist drin. Mittwochs ist unsere Reisebeilage dabei, samstags unsere Wochenendbeilage "SO.", die Motorseiten und natürlich auch der Auto- und Stellenmarkt. Für unsere Abonnenten ist dieser Service völlig kostenlos. Sie können sich auf unserer Homepage www.rundschau-online.de ganz einfach mit Ihrer Kundennummer anmelden. Das ist nur beim ersten Besuch nötig. Montags bis freitags steht die E-Paper-Ausgabe mit der abonnierten Lokalausgabe ab 6 Uhr im Netz, samstags ab 9 Uhr - und ist dann von jedem Internet-Zugang weltweit zu lesen, zum Beispiel im Urlaub. Und so geht's: Auf der Seite www.rundschau-online.de findet sich in der linken Leiste der Verweis "E-Paper" mit dem Bild einer gefalteten Rundschau. Ein Mausklick darauf führt auf die Anmelde-Seite. Dort muss man sich beim ersten Besuch registrieren. Abonnenten geben dort ihre Kundennummer (die findet sich auf Rechnungen) und persönliche Daten an und wählen einen Benutzernamen. Danach erscheint eine kleine Rundschau Titelseite. Auf die wird geklickt, und schon ist man drin. Wie liest man Artikel? Ganz leicht: Mit dem Mauszeiger kann man über die angezeigte Seite wandern. Artikel, Fotos und Inserate öffnen sich beim Anklicken in vergrößerter Form. Wie blättert man? So leicht wie im gedruckten Exemplar. Die Navigation ist denkbar einfach, auch für weniger erfah rene Internet-Nutzer. Der Bildschirm zeigt stets eine Seite an. Zur nächsten Seite führt ein Klick auf den Pfeil nach rechts". Klickt man auf den Pfeil "nach links", so geht es eine Seite zurück. Man kann auch mit einem Mausklick direkt in jedes Ressort springen. Dafür gibt es links auf dem Bildschirm ein Inhaltsverzeichnis.
    Gibt es eine Suchfunktion? Ja. Mit ihrer Hilfe lässt sich eine komfortable Volltext-Suche nach Namen oder einzelnen Schlagworten in der kompletten Ausgabe starten. Kann ich ältere Ausgaben einsehen? Ja: E-Paper-Leser können jederzeit auf ein SiebenTage-Archiv zugreifen, mit allen Funktionen, Suchfunktion inklusive. Ist das Herunterladen von ganzen Ausgaben als PDF-Datei, möglich? Nein. Zwar können alle Seiten im PDF-Format aufgerufen und angesehen werden (über eine kleine Schaltfläche links oberhalb' der Seite). Ein PDF-Download ist aber nicht möglich. Muss ich meinen Computer aufrüsten? Normalerweise nicht. Zum Anzeigen `und Ausdrucken der Seiten im PDF-Format ist der Acrobat Reader 6 nötig- der kann kostenfrei aus dem Internet geladen werden (www.adobe.de). Browser: Für Windows Internet Explorer ab Version 6.0, Netscape ab Version 7.1, Mozilla ab Version 1.7.5, Opera ab Version 7:5. Für Mac Netscape Communicator ab Version 6.2, Safari ab Version 1.2.4. Auf der E-Paper-Startseite gibt es einen Browsertest - einfach draufklicken; der Test wird dann automatisch durchgeführt: PopUps müssen erlaubt sein. Empfohlene Internet-Verbindung zum Lesen des E-Paper: 64 KB (ISDN) öder höher. Preise: Rundschau-Abonnenten zahlen für die E-PaperAusgabe mit ihrem Lokalteil nichts. Eine andere Lokalausgabe zusätzlich kostet monatlich 6,50 Euro (Studenten: 4,50 Euro). E-Paper-Abo alleine: monatlich '13,50 Euro (Studenten: 9,50 Euro)."
  3. Koch, C.: ¬Die Schreibmaschine : Die SMS-Worterkennung T9 soll unser Leben erleichtern - das gelingt ihr nicht immer (2005) 0.01
    0.007672068 = product of:
      0.030688273 = sum of:
        0.030688273 = weight(_text_:und in 5098) [ClassicSimilarity], result of:
          0.030688273 = score(doc=5098,freq=20.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.2712157 = fieldWeight in 5098, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5098)
      0.25 = coord(1/4)
    
    Content
    "Manchmal kommt eine SMS, und es steht da »Ich habe nehmen Zug verpasst« - und der Empfänger ist ein wenig ratlos. Der Grund, weshalb solch kryptische Nachrichten entstehen, ist das Computerprogramm im Handy, T9 genannt, das seit ein paar Jahren schon aus der Reihenfolge der gedrückten Zahlentasten errät, welches Wort gemeint sein könnte, und welches die SMS-Tipperei eigentlich erleichtern sollte. Denn zuvor war es noch nötig, mehrmals auf einer einzigen Taste rumzutippen, um einen einzigen Buchstaben hervorzubringen. Der Nachteil von T9: Manche Wörter teilen sich Kombinationen, die Wörter »nehmen« und »meinen« etwa teilen sich die Reihenfolge der Tasten 6-3-4-6-3-6. Auf 400 Millionen Telefonen pro Jahr wird T9, das für »Text auf neun Tasten« steht, inzwischen weltweit ausgeliefert. Wie funktioniert diese Software? Wieso entscheidet es sich bei 6-3-4-6-3-6 zuerst für »nehmen« und erst bei Widerspruch für »meinen«? Die Amerikanerin Lisa Nathan, T9-Produktmanagerin, erklärt es: »Wenn wir die Wort-Datenbank für eine neue Sprache anlegen, sammeln wir zuerst mehrere Gigabyte an Text aus Zeitungen, Zeitschriften und aus Internet-Seiten und Chaträumen in der jeweiligen Sprache.« Die so zusammengetragenen Wortmassen werden anschließend durchgesehen - offenkundig irrsinnige Wörter aus Chats etwa fliegen raus. Je häufiger ein Wort vorkommt, umso eher erscheint es zuerst auf dem Display.
    Manche Rechtschreibfehler lassen die Programmierer absichtlich drin - schließlich ist ein SMS-Schreiber frustriert, wenn das Programm ein Wort hartnäckig verweigert, von dem er fest glaubt, dass es existieren müsse. So kommt es, dass T9 sogar ein Wort »Rhytmuß« kennt. »Andere Wörter ergänzen wir, Imperative zum Beispiel wie :gib9 oder :nimm9. Die kommen in gedruckten Texten nur selten vor, in Kurzmitteilungen dafür ziemlich oft«, sagt Lisa Nathan. Aber wie kommt es, dass die Worterkennung zwar den Nazi-Jargon von Hitler bis Euthanasie im Programm hat, Wörter, die den Sex beschreiben oder das Einnehmen von Drogen, häufig aber nicht erkennt und die üblichsten Flüche einfach fehlen? »Wir zensieren nicht«, sagt Lisa Nathan. »in unserer Datenbank stehen alle Wörter - sofern sie häufig genug vorkommen. Aber fast alle Handyhersteller lassen Schimpfwörter und Wörter mit sexueller Bedeutung ausblenden.« Der Nazi-Jargon scheint niemand zu stören. Weil Flüche, Spitznamen oder nette Abkürzungen im Programm fehlen, ist T9 neuerdings lernfähig geworden: Wer Wörter vermisst, kann sie der Worterkennung beibringen. Die neuesten Handys lernen sogar automatisch, indem sie die eingehenden SMS nach neuen Wörtern durchsuchen. Am meisten Zeit spart man durch die Funktionen »Wortkomplettierung« oder »Wortvorhersage«, die nicht nur vorschlagen, wie das angefangene Wort enden könnte, sondern auch, welches wohl als nächstes kommt. »Ich bin kein sehr pünktlicher Mensch«, gesteht Lisa Nathan, »und wenn ich das Wort :komme9 tippe, schlägt mir T9 automatisch :etwas später9 als folgende Wörter vor.« Das kann sehr praktisch sein - aber auch sehr nervig. Denn wer will schon ständig an den Namen der Exfreundin Natalie erinnert werden, wenn er nur »nat« für »natürlich« eingegeben hat?"
  4. Müller, T.: Wort-Schnüffler : Kochrezepte kostenlos: in den USA erlaubt Amazon online das Recherchieren in Büchern (2004) 0.01
    0.007672068 = product of:
      0.030688273 = sum of:
        0.030688273 = weight(_text_:und in 5826) [ClassicSimilarity], result of:
          0.030688273 = score(doc=5826,freq=20.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.2712157 = fieldWeight in 5826, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5826)
      0.25 = coord(1/4)
    
    Content
    "Hobbyköche sind begeistert, Teenager, die sonst nur am Computerbildschirm kleben, interessieren sich plötzlich für Bücher, und Autoren werden nervös: Mit einer neuartigen Internet-Suchmaschine sorgt der Onlinebuchhändler Amazon.com in den USA für Furore und mischt den umkämpften Markt der "Search Engines" auf. Die im Oktober eingeführte Suchmaschine "Search Inside the Bock" ("Suche innerhalb des Buches!", englische Informationen unter http://www.amazon.com/exec/ obidos/tg/browse/-/10197041/002-3913532 0581613) stößt in eine neue Dimension vor. Während die meisten Suchmaschinen bisher bei einem gesuchten Titel Halt machten, blättert Amazons Suchmaschine das Buch förmlich auf und erlaubt das digitale Durchforsten ganzer Werke - zumindest von denen, die von Amazon eingescannt wurden - und das sind immerhin schon 120 000 Bücher mit 33 Millionen Seiten. Ist als Suchbegriff etwa" Oliver Twist", eingegeben, tauchen die Seiten auf, auf denen der Held des Romans von Charles Dickens erscheint. Von diesen Seiten aus können mit einem Passwort registrierte Kunden dann sogar weiter blättern und so bis zu 20 Prozent eines Buchs am Bildschirm durchschmökern. Ein neuer Kaufanreiz? Ob und wann die Suchmaschine auf dem deutschen Markt eingeführt wird, lässt Amazon offen. "Darüber spekulieren wir nicht", sagte eine Sprecherin des Unternehmens in Seattle. Amazon erhofft sich von dem neuen Service vor allem einen Kaufanreiz. Erste Zahlen scheinen dem Unternehmen von Jeff Bezos Recht zu geben. Bücher, die von der Suchmaschine erfasst wurden, verkauften sich zumindest in den ersten Tagen nach der Markteinführung deutlich besser als die anderen Werke. Bisher hat Amazon Verträge mit 190 Verlagen getroffen und deren Werke elektronisch abrufbar gemacht. Nur wenige Unternehmen sperrten sich aus Sorge vor Verkaufseinbußen oder einer möglichen Verletzung von Urheberrechten gegen das Einscannen ihrer Bücher. 15 Autoren forderten den Online-Riesen allerdings auf, ihre Bücher von der Suchmaschine auszunehmen. Besondere Sorge bereitet Amazons Erfindung einigen Sachbuchverlagen. So nutzen in den USA unter anderem Hobbyköche die neue Suchmaschine mit Begeisterung. Denn sie können den oft teuren Kochbüchern ihre Lieblingsrezepte entnehmen und dann auf den Kauf verzichten. "Kochbücher werden oft für ein bestimmtes Rezept gekauft", erklärte Nach Waxman, der Besitzer eines Kochbuchladens in New York der "Washington Post". Wenn sie das Rezept aber schon haben, dann könnten sie leicht sagen, "ich habe alles, was ich brauche", stellt Waxman besorgt fest. Auch für Lexika und andere teure Sachbücher, die etwa von Schülern oder College-Studenten für ihre Arbeiten durchsucht werden, könnte dies zutreffen.
    Inzwischen hat der Buchversender einige Vorkehrungen getroffen. Unter anderem wurde eine elektronische Sperre errichtet, so dass die Seiten inzwischen nur noch von geübten Computernutzern kopiert oder ausdruckt werden können. Mit "Search Inside the Bock" hat der OnlineRiese seinen ersten Schritt in den heiß umkämpften Markt der Suchmaschinen unternom- men. Schon plant Amazön nach amerikanischen Medienberichten eine weitere Suchmaschine, um Kunden das elektronische Einkaufen zu erleichtern.. Die unter den Codenamen A9 bekannte Suchmaschine soll unter anderem die Preise von Produkten vergleichen und das günstigste Angebot ermitteln. Damit stößt Amazön in einen Markt vor, der bisher in den USA von dem Onlineportal Yahoo oder der Super-Suchmaschine Google beherrscht wurde. Google hat bereits zum Gegenangriff angesetzt. Nach Informationen des Fachmagazins "Publishers Weekly". verhandelt das Unternehmen bereits mit Verlagen, um ebenfalls in die neue Dimension der Buchinhalte vorzudringen."
  5. Schlüter, C.: Kapitale Suchmaschine : Angesichts der Bedeutung von Google werden Warnungen vor einer Entdemokratisierung des Wissens laut (2006) 0.01
    0.007672068 = product of:
      0.030688273 = sum of:
        0.030688273 = weight(_text_:und in 114) [ClassicSimilarity], result of:
          0.030688273 = score(doc=114,freq=20.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.2712157 = fieldWeight in 114, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=114)
      0.25 = coord(1/4)
    
    Content
    "Das hatte sich Andreas Auth anders vorgestellt. Der Direktor der Wissenschaftlichen Buchgesellschaft Darmstadt wollte mit einem Antrag auf einstweilige Verfügung das US-Internetportal Google daran hindern, ohne Genehmigung des Verlags Bücher zur Volltextsuche anzubieten. Doch auf Anraten des Landgerichts Hamburg, wo der Fall vorige Woche zur Verhandlung stand, zogen die Darmstädter den Antrag zurück. Zumal das Gericht erklärt hatte, dass die Frage nach der Scan-Erlaubnis nur in den USA zu klären sei. Gefahr für Vielfalt und Qualität Längst hat der weltweit erfolgreichste Suchmaschinenbetreiber begonnen, die kompletten Inhalte von Millionen Bänden aus amerikanischen und britischen Bibliotheken einzuscannen. In diesen Texten können Internetsurfer dann weltweit suchen. Sie bekommen als Antwort auf Suchanfragen aber nicht den kompletten Buchtext zu sehen, sondern nur kurze Schnipsel. Weil es sich vorwiegend um englischsprachige Literatur handelt, die da in absehbarer Zeit der globalen Internetcommunity zur Verfügung stehen soll, gibt es nicht nur juristische Bedenken. Befürchtet wird vor allem kulturelle Hegemonie: Der Vorrang der englischen Sprache werde andere Sprachen und damit auch andere Kulturen verdrängen. Überdies könne man Sprache, Bildung und Wissenschaft nicht einem privaten, letztlich seinen Aktionären und deren Renditeerwartungen verpflichteten Konzern überlassen. Sollen etwa die Auswahlkriterien für die ins Netz gestellten Bücher sich auf die Beliebtheit bei den Nutzern beschränken? Wird hehre Qualität durch schnödes Ranking ersetzt?
    Amerikanischer Kulturimperialismus also: Es ist kaum verwunderlich, dass sich vor allem in Frankreich Widerstand regt, gibt es hier doch eine Tradition in Sachen Kapitalismus- und Globalisierungskritik. Einer der Protagonisten, Jean-Noel Jeannaney, spricht in seinem Buch "Googles Herausforderung" von einer "Diktatur des angloamerikanischen Kanons". Der Präsident der französischen Nationalbibliothek warnt vor einer Entdemokratisierung des "Weltwissens". Die Alternative liege in der Gründung einer "Europäischen Digitalen Bibliothek". Vor gut einem Jahr verabredete Frankreich mit Deutschland die Entwicklung einer europäischen Suchmaschine. Doch der Google-Killer "Quaero" steht immer noch am Anfang. Überdies wird die Beteiligung privater Unternehmen (Bertelsmann, Siemens, Thomson-Brandt ...) der befürchteten Kommerzialisierung des "Weltwissens" nur bedingt Einhalt gebieten. Was man als Preis für den Rückzug des Staates aus seiner öffentlichen Verantwortung beklagen mag. Um staatlichen Schutz wird es künftig außer bei urheberrechtlichen Fragen vor allem beim Datenschutz gehen. Das Google-Portal verfügt über einen wahren Wissensschatz, was die Bedürfnisse seiner "Besucher" angeht: Jeder Klick auf einer der Google-Sites hinterlässt eine Datenspur, die nicht nur gespeichert wird, sondern auch Dritten angeboten werden könnte. Künftig wird Google über noch mehr Daten verfügen, nachdem das Unternehmen jetzt ein eigenes Bezahlsystem entwickelt hat, das den Einkauf im Netz noch einfacher machen soll. Dass im Februar der chinesische Ableger der Suchmaschine auf Geheiß der Pekinger Regierung unliebsame Webadressen sperrte, war jedenfalls keine vertrauensbildende Maßnahme - Freiheit und Kapitalismus gehören nicht notwendig zusammen. Wobei immer auch die Konzern-Maxime gilt: Besser wir sind da, als wenn es uns nicht gäbe. Zwar kann man, wie unlängst auf einer Tagung der Friedrich-Ebert-Stiftung, die demokratiegefährdenden "digitalen Informationsmächte" beschwören: "Was wird aus dem investigativen Journalismus, wenn Recherchen bei Google beginnen und bei Yahoo aufhören?" Doch langsam: Google ist immer noch die leistungsfähigste Suchmaschine, der Gebrauch von Google ist nach wie vor kostenlos, es gibt alternative, auch nicht-kommerzielle und so genannte Metasuchmaschinen, die verschiedene Suchdienste verwenden... Und sehr wahrscheinlich wird Google wie schon Microsoft dereinst eine ernst zu nehmende Konkurrenz erwachsen. Auf die open-source-community ist, wie das Nutzer-gestützte Online-Lexikon Wikipedia zeigt, wenn schon nicht steter Verlass, so doch in jedem Fall Hoffnung zu setzen."
  6. Winterschladen, S.; Gurevych, I.: ¬Die perfekte Suchmaschine : Forschungsgruppe entwickelt ein System, das artverwandte Begriffe finden soll (2006) 0.01
    0.007672068 = product of:
      0.030688273 = sum of:
        0.030688273 = weight(_text_:und in 912) [ClassicSimilarity], result of:
          0.030688273 = score(doc=912,freq=20.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.2712157 = fieldWeight in 912, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=912)
      0.25 = coord(1/4)
    
    Content
    "KÖLNER STADT-ANZEIGER: Frau Gurevych, Sie entwickeln eine Suchmaschine der nächsten Generation? Wie kann man sich diese vorstellen? IRYNA GUREVYCH Jeder kennt die herkömmlichen Suchmaschinen wie Google, Yahoo oder Altavista. Diese sind aber nicht perfekt, weil sie nur nach dem Prinzip der Zeichenerkennung funktionieren. Das steigende Informationsbedürfnis können herkömmliche Suchmaschinen nicht befriedigen. KStA: Wieso nicht? GUREVYCH Nehmen wir mal ein konkretes Beispiel: Sie suchen bei Google nach einem Rezept für einen Kuchen, der aber kein Obst enthalten soll. Keine Suchmaschine der Welt kann bisher sinnvoll solche oder ähnliche Anfragen ausführen. Meistens kommen Tausende von Ergebnissen, in denen der Nutzer die relevanten Informationen wie eine Nadel im Heuhaufen suchen muss. KStA: Und Sie können dieses Problem lösen? GUREVYCH Wir entwickeln eine Suchmaschine, die sich nicht nur auf das System der Zeichenerkennung verlässt, sondern auch linguistische Merkmale nutzt. Unsere Suchmaschine soll also auch artverwandte Begriffe zeigen. KStA: Wie weit sind Sie mit Ihrer Forschung? GUREVYCH Das Projekt ist auf zwei Jahre angelegt. Wir haben vor einem halben Jahr begonnen, haben also noch einen großen Teil vor uns. Trotzdem sind die ersten Zwischenergebnisse schon sehr beachtlich. KStA: Und wann geht die Suchmaschine ins Internet? GUREVYCH Da es sich um ein Projekt der Deutschen Forschungsgemeinschaft handelt, wird die Suchmaschine vorerst nicht veröffentlicht. Wir sehen es als unsere Aufgabe an, Verbesserungsmöglichkeiten durch schlaue Such-Algorithmen mit unseren Forschungsarbeiten nachzuweisen und Fehler der bekannten Suchmaschinen zu beseitigen. Und da sind wir auf einem guten Weg. KStA: Arbeiten Sie auch an einem ganz speziellen Projekt? GUREVYCH Ja, ihre erste Bewährungsprobe muss die neue Technologie auf einem auf den ersten Blick ungewöhnlichen Feld bestehen: Unsere Forschungsgruppe an der Technischen Universität Darmstadt entwickelt derzeit ein neuartiges System zur Unterstützung Jugendlicher bei der Berufsauswahl. Dazu stellt uns die Bundesagentur für Arbeit die Beschreibungen von 5800 Berufen in Deutschland zur Verfügung. KStA: Und was sollen Sie dann mit diesen konkreten Informationen machen? GUREVYCH Jugendliche sollen unsere Suchmaschine mit einem Aufsatz über ihre beruflichen Vorlieben flittern. Das System soll dann eine Suchabfrage starten und mögliche Berufe anhand des Interesses des Jugendlichen heraussuchen. Die persönliche Beratung durch die Bundesagentur für Arbeit kann dadurch auf alternative Angebote ausgeweitet werden. Ein erster Prototyp soll Ende des Jahres bereitstehen. KStA: Es geht also zunächst einmal nicht darum, einen Jobfür den Jugendlichen zu finden, sondern den perfekten Beruf für ihn zu ermitteln? GUREVYCH Ja, anhand der Beschreibung des Jugendlichen startet die Suchmaschine eine semantische Abfrage und sucht den passenden Beruf heraus. KStA: Gab es schon weitere Anfragen seitens der Industrie? GUREVYCH Nein, wir haben bisher noch keine Werbung betrieben. Meine Erfahrung zeigt, dass angesehene Kongresse die beste Plattform sind, um die Ergebnisse zu präsentieren und auf sich aufmerksam zu machen. Einige erste Veröffentlichungen sind bereits unterwegs und werden 2006 noch erscheinen. KStA: Wie sieht denn Ihrer Meinung nach die Suchmaschine der Zukunft aus? GUREVYCH Suchmaschinen werden immer spezieller. Das heißt, dass es etwa in der Medizin, bei den Krankenkassen oder im Sport eigene Suchmaschinen geben wird. Außerdem wird die Tendenz verstärkt zu linguistischen Suchmaschinen gehen, die nach artverwandten Begriffen fahnden. Die perfekte Suchmaschine wird wohl eine Kombination aus statistischem und linguistisch-semantischem Suchverhalten sein. Algorithmen, die wir am Fachgebiet Telekooperation an der TU Darmstadt entwickeln, werden für den nächsten qualitativen Sprung bei der Entwicklung der Suchmaschinen von größter Bedeutung sein."
  7. Karl, A.; Mühlschlegel, U.; Ullrich, R.; Deylen, W. von; Farenholtz, B.; Schmolling, R.; Strosetzki, C.; Trapp, M.; Waldeck, B.: cibera: Virtuelle Fachbibliothek Ibero-Amerika / Spanien / Portugal : Teil 2: Die einzelnen Elemente (2006) 0.01
    0.007672068 = product of:
      0.030688273 = sum of:
        0.030688273 = weight(_text_:und in 94) [ClassicSimilarity], result of:
          0.030688273 = score(doc=94,freq=20.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.2712157 = fieldWeight in 94, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=94)
      0.25 = coord(1/4)
    
    Abstract
    Nachdem in der letzten Ausgabe Entstehung und Aufbau der Virtuellen Fachbibliothek cibera vorgestellt wurden, stehen im Folgenden die einzelnen Angebote des Portals mit ihren Funktionalitäten und technischen Details im Mittelpunkt.
    Content
    "Bibliothekskataloge Die Suche in Bibliothekskatalogen über cibera ermöglicht die simultane Suche in mehreren fachlich relevanten Katalogen über eine einheitliche Suchmaske. Die technische Integration von Bibliothekskatalogen in die Suche erfolgt in der Regel ohne größere Schwierigkeiten, wenn zwei Voraussetzungen erfüllt sind: 1) das Vorhandensein einer Z39.50-Schnittstelle auf Seiten des Katalogbetreibers 2) das Vorhandensein eines von der Metasuchmaschine Wort unterstützten bibliographischen Datenformates (MARC21, MAB, MAB2, UNIMARC). Diese Voraussetzungen waren zunächst nur bei den Katalogen des Ibero-Amerikanischen Instituts (IAI), des Ibero-Amerika Institutes für Wirtschaftsforschung Göttingen sowie bei dem länderrelevanten Ausschnitt des Kataloges der Friedrich-Ebert-Stiftung gegeben. Hier beschränkte sich die Integration in die Suchumgebung zum einen auf das Erstellen von Konkordanzen zwischen geliefertem Datenformat und Präsentationsschicht der Suchmaschine, zum anderen auf die Definition der durchsuchbaren Register der entsprechenden Kataloge. Um eine für den Nutzer klare und verständliche Handhabung zu gewährleisten, konnten nicht alle Suchmöglichkeiten jedes einzelnen Kataloges übernommen werden. Es wurde stattdessen der "kleinste gemeinsame Nenner" definiert, der sowohl die einfache Handhabung der Suche als auch die Flexibilität derselben gewährleistet. Die Kataloge des IAI Berlin, der Friedrich-Ebert-Stiftung und des Ibero-Amerika Institutes für Wirtschaftsforschung Göttingen konnten daher im Zeitraum Juli bis September 2004 vollständig in cibera integriert werden. Technisch aufwändiger stellte sich die Aufbereitung und Integration des Kataloges I des Instituts für Iberoamerika-Kunde Hamburg dar. Aufgrund des Katalogbruches am IIK müssen hier zwei Kataloge integriert werden. Der so genannte Katalog I umfasst die Daten des IIK bis Juli 2002. Hier galt es zunächst, die Daten der CDS-ISIS-Datenbank in ein XML-Zwischenformat zu wandeln, dieses Zwischenformat zu indizieren und mittels geeigneter Software Z39.50-kompatibel zu machen.
    Sowohl die Datenkonvertierung als auch der Aufbau einer Z39.50-Schnittstelle wurden von der Technik des IAI vorgenommen. Der Katalog I des IIK konnte Ende Oktober 2004 erfolgreich in die Suchumgebung integriert werden. Der Katalog II des IIK ist Bestandteil der Datenbank des Fachinformationsverbundes Internationale Beziehungen und Länderkunde (FIV-IBLK). Er enthält die Bücher des IIK ab Mitte 2002 sowie Zeitschriftenaufsätze mit Lateinamerikabezug bereits ab 1985. Die dafür verwendete Domestic-Datenbank wurde beim GBV in eine Pica-Datenbank eingespielt. Diese Migration, die im November 2005 abgeschlossen werden konnte, sowie die vorhandene Z39.50-Schnittstelle und Standard-Datenformate ermöglichen nun die zügige Einbindung in cibera. Sobald die Teilmenge "Lateinamerikabestand" vom GBV definiert ist, kann auch der Katalog II in die Metasuche von cibera integriert werden. Probleme ergeben sich mit der Integration der Kataloge der deutschen Standorte des Instituto Cervantes (Berlin, Bremen, München). Die Voraussetzungen sind geklärt, allerdings wird das vom Instituto Cervantes zurück gelieferte Datenformat IBERMARC von der Metasuchmaschine iPort noch nicht unterstützt. Die Einbindung des Katalogs der Staats- und Universitätsbibliothek (SUB) Hamburg brachte besondere inhaltliche Herausforderungen mit sich, weil er als Katalog einer Universalbibliothek fächerübergreifend ist. Die notwendige Definition eines Fachausschnittes bedeutete Pionierarbeit im Bereich der PICA-Anwender. Der GBV hat Ende 2003 zur Kennzeichnung des SSG-relevanten Ausschnittes im CBS Kategorie 5056 (SSG-Nummer) eingeführt. Bei den älteren Katalogisaten des SSGs musste Kategorie 5056 nachträglich gesetzt werden. Für alle Titelaufnahmen ab Anfang 1998 ist das mit Hilfe eines von der SUB Hamburg entwickelten automatisierten Verfahrens gelungen. In Kürze wird der entsprechende Teilkatalog mit ca. 20.000 Titeln des SSGs Spanien/Portugal für cibera zur Verfügung stehen. Für die älteren Bestände unterstützt die Verbundzentrale des GBV die Schaffung des entsprechenden Fachausschnittes. Weitere Bibliotheken - schwerpunktmäßig solche außerhalb der existierenden Verbundkataloge - sollen als Partner gewonnen werden, um die Katalogsuche zu ergänzen." ...
  8. Bausteine des Gedächtnisses : Nervenzellen brauchen Zeit (2007) 0.01
    0.007672068 = product of:
      0.030688273 = sum of:
        0.030688273 = weight(_text_:und in 1671) [ClassicSimilarity], result of:
          0.030688273 = score(doc=1671,freq=20.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.2712157 = fieldWeight in 1671, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=1671)
      0.25 = coord(1/4)
    
    Content
    "Neue Dinge zu lernen, Erfahrungen zu speichern und sich an neue Umstände anzupassen - diese Eigenschaften des Gehirns ermöglichen nicht nur uns das tägliche Überleben. Erreicht wird diese besondere Flexibilität unter anderem dadurch, dass Nervenzellen ständig neue Verbindungen auf- oder wieder abbauen. Wissenschaftler des MaxPlanck-Instituts für Neurobiologie konnten jetzt erstmals zeigen, dass Nervenzellen zwar nach einer Anregung innerhalb von wenigen Minuten gezielt Verbindungen zu ihren Nachbarzellen aufbauen. Die Übertragung von Informationen über diese Verbindungen ist jedoch erst nach mehreren Stunden möglich. "Streng deine grauen Zellen etwas an!" - Wer hat das nicht schon einmal gehört, zum Beispiel beim Versuch, einen schwierigen Zusammenhang zu begreifen? Erst vor kurzem fanden Forscher heraus, dass dies gar nicht so abwegig ist. Denn wann immer wir etwas lernen, egal wie kompliziert es ist, bilden unsere "grauen Zellen", die Neuronen, neue Kontakte zu ihren Nachbarzellen aus. Wird das Gelernte behalten, so werden aus diesen Kontaktstellen langfristige Verbindungen. Doch in welchem Zeitrahmen entstehen diese Verbindungen? Ist die Übertragung von Informationen sofort nach dem Kontakt zwischen zwei Nervenzellen möglich? Und was passiert im Gehirn, wenn neu Gelerntes alte Informationen verdrängt, wie beim Erlernen einer zweiten Fremdsprache die Kenntnisse der ersten verblassen können? Die Wissenschaftler aus Martinsried sind den Antworten auf diese Fragen jetzt dicht auf der Spur.
    In Zusammenarbeit mit Kollegen aus Zürich untersuchen die Wissenschaftler den Zusammenhang zwischen dem Auswachsen der Zellverbindungen, den sogenannten "Dornen", und dem Entstehen der funktionsfähigen Informationsübertragungsstellen, den Synapsen. Hierfür haben sich die Neurobiologen auf Nervenzellen des Hippocampus konzentriert, denn dieser Hirnbereich ist für Lernprozesse und Gedächtnisfunktionen besonders wichtig. Um eine Reaktion der Nervenzellen gezielt herbeizuführen, stimulierten sie einen Verbund von Neuronen durch einen kurzen, hochfrequenten Stromimpuls. Es ist bekannt, dass Nervenzellen auf solch eine Stimulation mit einer Verstärkung ihrer Verbindungen durch Ausbildung neuer Dornen reagieren - ähnlich wie es auch bei Lernprozessen geschieht. Die entscheidende Frage, ob und wann diese neuen Strukturen tatsächlich funktionelle Synapsen darstellen und zum Gedächtnis beitragen können, war bisher unbeantwortet. Nervenzellen unter dem Mikroskop Um das Auswachsen von Dornen verfolgen zu können, wurden die Zellen im nahen Umkreis der stimulierten Stelle mit einem hochauflösenden Zwei-Photonen-Mikroskop im Zeitrafferverfahren betrachtet. Im Anschluss benutzten die Wissenschaftler ein Elektronenmikroskop, um zu überprüfen, ob die Veränderungen in der Verästelung der Nervenzellen tatsächlich zur Entstehung neuer Synapsen geführt haben. Die so beobachteten Veränderungen und deren Dynamik überraschten die Wissenschaftler. Innerhalb von wenigen Minuten nach dem Stromimpuls beginnen die angeregten Nervenzellen neue Fortsätze zu bilden.
    Diese zunächst noch dünnen Dornen wachsen nicht zufällig, sondern ganz gezielt auf mögliche Kontaktpartner zu. Doch anscheinend gilt für diese kleinsten Strukturen das Motto "gut Ding will Weile haben". Denn innerhalb der ersten acht Stunden können noch über keinen dieser neu entstandenen Zellkontakte Informationen ausgetauscht werden. Erst in den darauf folgenden Stunden entscheidet sich, ob eine Verbindung bestehen bleibt oder sich zurückbildet. Die Kontakte, die auch nach 24 Stunden noch vorhanden sind, besitzen voll funktionsfähige Synapsen zur Informationsübertragung und haben eine gute Chance, auch nach mehreren Tagen noch zu existieren. Neben der Aufklärung dieser zeitlichen Zusammenhänge konnten die Wissenschaftler auch andere spannende Beobachtungen machen. Wenn ein neu auswachsender Dorn an eine Kontaktstelle andockte, die bereits eine andere Verbindung eingegangen war, so war die Wahrscheinlichkeit recht hoch, dass die neue Verbindung die alte verdrängte. "Wir wissen noch nicht genau, was dies bedeutet", sagt Valentin Nägerl vom Max-Planck-Institut für Neurobiologie, "doch diese Beobachtung könnte zum Beispiel damit zusammenhängen, dass man alte Dinge vergisst, wenn Neues gelernt wird." Da einmal Gelerntes jedoch leichter wieder erlernt werden kann als ganz neue Dinge, könnte es auch sein, dass die verdrängten Verbindungen nicht ganz gelöscht werden, sondern bei erneutem Bedarf leichter wieder auswachsen. So fügt sich unser Bild über die Mechanismen des Lernen und Gedächtnisses Schritt für Schritt zusammen - und die Wahrscheinlichkeit ist recht hoch, dass auch bei Ihnen jetzt ein paar Nervenzellen neue Kontakte geknüpft haben."
  9. Hämmer, V.; Flammersfeld, E.: Informationskompetenzveranstaltungen evaluieren : Qualitätskontrolle durch Befragung (2008) 0.01
    0.007672068 = product of:
      0.030688273 = sum of:
        0.030688273 = weight(_text_:und in 2832) [ClassicSimilarity], result of:
          0.030688273 = score(doc=2832,freq=20.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.2712157 = fieldWeight in 2832, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=2832)
      0.25 = coord(1/4)
    
    Abstract
    1. Was versteht man unter Evaluation? Wozu wird evaluiert? Kurse zur Vermittlung von Informationskompetenz sind seit geraumer Zeit aus dem Serviceangebot wissenschaftlicher Bibliotheken nicht mehr wegzudenken. Die Veranstaltungen zu Themen wie Bibliotheksbenutzung, Literaturrecherche oder zu urheberrechtlichen Fragen werden an Universitäten vermehrt in die Curricula der Fachbereiche eingebunden. Dies zeugt von der wachsenden Bedeutung der Bibliotheken bei der Wissensvermittlung. Die Rolle des Bibliothekars beinhaltet in einem wachsenden Anteil Lehrtätigkeit. Und damit stellt sich die Frage nach der Qualität bibliothekarischer Lehre. Diese lässt sich nicht einfach aus den inhaltlichen Kompetenzen ableiten, die Bibliothekare in vielen Fällen sicherlich zu Recht für sich reklamieren. Um dem Anspruch kompetent zu lehren, tatsächlich gerecht zu werden, ist es notwendig, die Qualität der Veranstaltungen regelmäßig zu prüfen. Es lohnt sich zu reflektieren, ob das Interesse der Teilnehmer geweckt wird, ob die angewandten Lehrmethoden zum Lernen motivieren und natürlich ob die Lerninhalte erfolgreich vermittelt werden. Was ist unter Evaluation überhaupt zu verstehen? Clarke & Dawson prägten folgende Begriffsbestimmung: "Evaluation is defined as a form of disciplined inquiry (...) that applies scientific procedures to the collection and analysis of information about the content, structure and outcome of programmes, projects and planned interventions"'. Im deutschsprachigen Raum hat sich u. a. Rindermann besonders mit studentischer Lehrevaluation beschäftigt. Er definiert Evaluation ganz ähnlich als einen "Prozess der systematischen Beurteilung eines Programms oder Produkts" 2. Beim Stichwort "Lehrevaluation" liegt der Gedanke an studentische Bewertungen von Lehrveranstaltungen meist sehr nahe. In der (sozial-)wissenschaftlichen Diskussion wird allerdings ganz im Gegensatz dazu von manchen Autoren gar bezweifelt, ob es sich bei solchen Befragungen überhaupt um evaluative Maßnahmen handelt. Auf diese Diskussion wird hier nicht eingegangen.
    Der Artikel beschäftigt sich vorwiegend mit studentischer Beurteiluna von Bibliothekskursen. Die Erhebung und Analyse der Meinungen von Kursteilnehmern ist aus unserer Sicht eine leicht durchführbare und dennoch aussagekräftige Methode der Qualitätskontrolle. Wir schließen uns Rindermann & Amelang an, die konstatieren, "daß bei Beachtung einiger methodischer Sorgfaltsregeln von hinreichender Validität studentischer Evaluationen auszugehen ist". Erwähnenswert ist dabei auch, dass diese Evaluationsform im privatwirtschaftlichen Bereich überhaupt nicht mehr wegzudenken ist. Eigentlich alle Träger beruflicher Fortbildung nutzen dieses Instrument der Lehrbewertung, um ihr Angebot auf dem Laufenden zu halten und um konkurrenzfähig zu sein. Die Teilnehmer werden bei Befragungen als "Kunden" betrachtet, deren Meinung eine wichtige Rolle spielt. Im Prozess der Evaluation können Aspekte einer Veranstaltung, die von den Teilnehmern als negativ bewertet werden, ermittelt und im Folgeschritt analysiert, verbessert oder beseitigt werden. Im Gegenzug dazu können die als positiv beurteilten Aspekte beibehalten und verstärkt werden. Evaluative Maßnahmen dienen also der rationalen Entscheidungsfindung bei der Bewertung der Veranstaltung und haben letztlich deren Effizienzsteigerung zum Ziel. Eine kontinuierlich stattfindende Evaluation führt im besten Fall zu immer positiver ausfallenden Ergebnissen. Positive Evaluationsergebnisse können eine Veranstaltung in mehrerlei Hinsicht verbessern. Sie wirken sich auch auf die Motivation der Dozenten aus. Ein positives Feedback erzeugt "Freude am Gelingen" und ein motivierter Dozent vermag seinen Lehrstoff erfolgreicher zu vermitteln als der Freudlose und Schlechtgelaunte.
  10. Johnen, R.: Europas kulturelles Gedächtnis jetzt online : Die Europäische Union präsentiert Gutenbergs Bibel ebenso wie Mozarts Noten (2008) 0.01
    0.007672068 = product of:
      0.030688273 = sum of:
        0.030688273 = weight(_text_:und in 3438) [ClassicSimilarity], result of:
          0.030688273 = score(doc=3438,freq=20.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.2712157 = fieldWeight in 3438, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=3438)
      0.25 = coord(1/4)
    
    Content
    "Die Ambitionen sind groß: Wenn heute im niederländischen Den Haag die Internetseiten von Europeana freigeschaltet werden, wird der virtuelle Raum um ein Portal bereichert, das Zugang zu nicht weniger als zwei Millionen Exponaten verschafft. Die enorme Sammlung bündelt in digitaler Form 2000 Jahre europäischer Kulturgeschichte - unter Verwendung von Texten und Bildern, aber auch von Video- und Audio-Dateien. Wenn der annoncierte Umfang der Realität entspricht, würde das neue zentrale Gedächtnis der europäischen Kulturgeschichte schon zum Start über etwa zweieinhalb Mal so viele Einträge verfügen wie die deutschsprachige Ausgabe der Open-Source-Enzyklopädie Wikipedia. Ob die hohen Ansprüche des von der Europäischen Union initiierten Projektes auch gehalten werden, konnte bis zur Freischaltung nur sporadisch verifiziert werden. Auf der Homepage zeigte ein kurzes Demonstrationsvideo (zu den streng genommen uramerikanischen Klängen von Lee Hazlewoods "These boots are made for walking") lediglich einen hektisch montierten Querschnitt von all dem, was die Wissbegierigen erwartet: Ein virtu- elles Zwischending aus Archiv, Ausstellungshaus, Museum und Bibliothek. Angesiedelt ist Europeana in der Königlichen Niederländischen Bibliothek in Den Haag. Hier wurden in rund zwei Jahren Vorbereitungszeit alle virtuellen Kulturgüter gesammelt und inventarisiert, die aus den Museen, Nationalbibliotheken, Forschungseinrichtungen und anderweitigen Sammlungen der 27 EU-Mitgliedsstaaten' , eingereicht wurden. Leiterin des Projekts, in das bis zum Jahre 2010 rund 120 Millionen Euro investiert werden, ist die Luxemburgerin Viviane Reding, die das Amt der EU-Kommissarin fir Informationsgesellschaft und Medien bekleidet. Reding lokalisiert die primäre Zielsetzung von Europeana darin, einen kostenlosen und möglichst kompletten Zugang zur kulturellen Vielfalt des Kontinents zu gewähren.-
    Wer etwa zu Mozart recherchiert, soll künftig mit Hilfe der Meta-Datenbank auf das mühsame Aufrufen verschiedener Seiten verzichten können. Sowohl Musikdateien als auch biografische und wissenschaftliche Arbeiten stehen den Usern über eine Suchmaschine zur Verfügung. Hinzu kommen Briefe, Manuskripte und Porträts. In ähnli- cher Weise soll die Abbildung einzelner Epochen etwa der Architek- turgeschichte oder der bildenden Kunst funktionieren. Insgesamt 90 Partnerinstitute aus ganz Europa haben die entsprechenden Daten bereitgestellt - darunter auch das Bundesarchiv und die Deutsche Nationalbibliothek. De- ren Generaldirektorin Elisabeth Niggemann hatte im Februar anlässlich der Präsentation des Projektes erklärt, dass die Europeana die europäische Informationsgesellschaft stärke. "Damit kommen wir dem Traum von der Verfügbarkeit des Weltwissens auf Knopfdruck einen wichtigen Schritt näher. Was das geschriebene Wort angeht, sind die Ambitionen besonders groß. Hier reicht die Bandbreite vom Original der Gutenberg-Bibel bis hin zu in Deutschland zurzeit nicht erhältlichen Werken zahlreicher Schriftsteller. Texte wurden zunächst in allen 23 offiziellen Sprachen der Europäischen Union eingelesen - mit der Option, später auch auf Werke zurückzugreifen, die in regionalen Dialekten oder in Mundart verfasst sind. Schon in zwei Jahren soll die Gesamtzahl der digitalisierten Objekte laut Reding auf sechs bis zehn Millionen anwachsen. Mit ihrem ehrgeizigen Ansatz tritt die virtuelle Zentralbibliothek ganz nebenbei auch in Konkurrenz zum Internet-Giganten Google, Dessen Mammutprojekt, eine Datenbank fur digitalisierte Bücher anzulegen, versucht Europeana in den Schatten zu stellen. An die Grenzen seiner Möglichkeiten freilich stößt das Portal bei Werken aus der jüngeren Vergangenheit, denn der Urheberschutz muss beachtet werden. Es existieren jedoch Überlegungen, im Einzelfall spezielle Internet-Lizenzen mit Rechteinhabern auszuhandeln."
  11. Kleinz, T.: Digitale Enzyklopädien (2007) 0.01
    0.007672068 = product of:
      0.030688273 = sum of:
        0.030688273 = weight(_text_:und in 3730) [ClassicSimilarity], result of:
          0.030688273 = score(doc=3730,freq=20.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.2712157 = fieldWeight in 3730, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=3730)
      0.25 = coord(1/4)
    
    Content
    "Niemand kann alles wissen. Oft hilft es schon, wenn man Informationen nachschlagen kann. Bei vielen Wissensdurstigen haben teure 24-bändige Enzyklopädien ausgedient, stattdessen greifen sie lieber zur digitalen Variante auf DVD oder im Internet. Das Magazin für Computertechnik c't hat in seiner aktuellen Ausgabe vier der Alleswisser getestet. Die Enzyklopädien mussten sich in einer ganzen Reihe von Disziplinen beweisen. C't wertet Korrektheit, Vollständigkeit und Verständlichkeit sowie Aktualität und Multimedia-Elemente aus. Eine Probe von insgesamt 150 Stichwörtern aus unterschiedlichen Gebieten bildet die Datengrundlage für den Test. Die schlechte Nachricht zuerst: Fehler fanden sich in allen Enzyklopädien. Einen guten ersten Eindruck machen die Bertelsmann Nachschlagewerke 2007. Das ausschließlich auf Windows lauffähige Programm bereitet die Informationen in einer modernen Bedienoberfläche auf, die allerdings etwas Eingewöhnungszeit benötigt. Inhaltlich bemängelt c't jedoch zu kurze Texte und gravierende Fehler in den bewerteten Artikeln. Zum Beispiel sind die Informationen zu "Passivhaus" veraltet und zum Teil falsch. Bei der Erklärung des Muskelkaters haben die Autoren Muskel- und Muskelbindegewebe verwechselt. Bei Brockhaus multimedial premium 2007 sind die Schwerpunkte etwas anders verteilt. Zwar macht die Bedienoberfläche, die auch unter MacOS und Suse Linux läuft, einen guten Eindruck. In der MultimediaVariante hingegen passen die gezeigten Bilder nicht immer zum Thema oder bieten kei-ne Zusatzinformationen. Bei Inhalt und Sprache macht der Brockhaus diesen Mangel jedoch wett. Die Texte geben die wichtigsten Details in sehr prägnanter Sprache wie der. Allerdings sind viele Artikel nach Ansicht der Tester insgesamt zu knapp geraten. Eine inhaltliche Schwäche hat der Brockhaus zudem: Wenn es um moderne Technik geht, leistet sich die Enzyklopädie deutliche Patzer.
    Die Encarta ist der Klassiker unter den elektronischen Nachschlagewerken. Die von Microsoft hergestellte Software läuft nur unter Windows. Die Stärke ist der Multimedia-Teil. Mehr als 300 Videos, 500 AudioDateien und gut 16500 Bilder befinden sich auf der DVD. Ihre Zuordnung zu den Artikeln gefällt besser als bei der BrockhausDVD. Für Grundschüler ist sogar ein eigenes Kinder-Lexikon mit einer bunten Aufmachung und Mitmach-Spielen enthalten. Lust zum Schmökern sollte man habe. Die Informationen sind nicht immer ganz leicht zu finden. So beschreibt erst der 24. Suchtreffer die wesentlichen Informationen über das Shakespeare-Drama Othello. Wikipedia ist der Ausnahmekandidat unter den Enzyklopädien. Die Artikel sind nicht nur kostenlos im Internet abrufbar, die Texte stammen dazu noch von Freiwilligen. In nur fünf Jahren haben sich mehr' als eine halbe Million Artikel angehäuft - mehr als bei allen anderen Konkurrenten. Auch in punkto Ausführlichkeit schlägt die freie Online-Enzyklopädie die kommerzielle ' Konkurrenz. Dabei fanden die Tester nicht mehr Fehler als bei den anderen untersuchten Kandidaten. Mängel finden sich eher in der Sprache. Zum Beispiel erscheinen viele Artikel zu lang und häufen irrelevante Informationen an. Bei einigen Beiträgen bemängelt c't gravierende Lücken bei den Fakten. Wer jedoch nach aktuellen Informationen oder interessanten Details sucht, wird von Wikipedia am besten bedient: Hier finden Wissensdurstige sogar die Erklärung, warum Bagels ein Loch haben."
  12. Beuth, P.; Funk, V.: ¬Ein Artikel, der nie fertig wird : Der Einfluss von Twitter auf den Journalismus hat sich gewandelt - und soll es wieder tun (2009) 0.01
    0.007672068 = product of:
      0.030688273 = sum of:
        0.030688273 = weight(_text_:und in 188) [ClassicSimilarity], result of:
          0.030688273 = score(doc=188,freq=20.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.2712157 = fieldWeight in 188, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=188)
      0.25 = coord(1/4)
    
    Content
    "Das Flugzeug auf dem Hudson-River, die Anschläge in Bombay, die Proteste in Iran: Jedesmal, wenn die Öffentlichkeit bedeutende Ereignisse zuerst über Twitter erfährt, entfacht sich eine neue Debatte um die Glaubwürdigkeit der Quellen. Schließlich schreiben meist keine professionellen Journalisten, was sie beobachteten. Sie wägen nicht ab, sie überprüfen nicht, sie gleichen die Informationen nicht ab. Doch auch wenn unter den Twitternutzern viele sind, die unkritisch alles weiterleiten, was sie für interessant halten, so gibt es mindestens ebenso viele, die ein gesundes Misstrauen mitbringen. Glaubwürdigkeit und Vertrauen in die 140-Zeichen-Neuigkeit äußern sich deshalb anders. Wer viele Follower, also Abonennten bei Twitter hat, gilt als vertrauenswürdiger als ein unbekannter Twitterer. Wer enge Freunde in seinem Netzwerk hat, vertraut deren Informationsauswahl oft sogar mehr als der Auswahl, die klassische Medien treffen. Das jedenfalls schreiben die Harvard-Professor Urs Gasser und John Palfrey in ihrem Buch "Generation Internet". Und wer seine Behauptungen mit Links untermauern kann, wird eher ernst genommen als jemand, der ohne Quellenangaben loszwitschert. Der Journalist als Moderator - Ähnlich wie bei Wikipedia gibt es zudem eine Kontrolle durch die Masse: Weil die Kurznachricht auf Twitter meist von vielen Nutzern gelesen wird, sind diese zugleich in der Lage, sofort auf eine falsche Nachricht zu reagieren. So verbreiteten am Mittwoch mehrere Twitterer die Nachricht, der Sänger Kanye West sei bei einem Unfall ums Leben gekommen. Dessen Freundin war es schließlich, die bei Twitter klarstellte, dass es sich um einen schlechten Scherz handelte - was dann wiederum so schnell weitergeleitet wurde, dass eine Twittersuche nach Kanye West als erstes Meldungen über die Falschmeldung ergab.
    Spannend für Medienmacher ist an Twitter, dass seine Nutzer oft über Themen schreiben, die den Medien sonst entgehen würden. So wie die einst belächelten Blogs längst zu einer wichtigen Quelle geworden sind, entwickelt sich auch Twitter langsam zu einer Hilfe bei der Suche nach Themen und Protagonisten. Dass nun auch Suchmaschinen wie Bing Twitter durchsuchen, werde aktuelle Nachrichtenströme deutlich beschleunigen, sagt Professor Christoph Neuberger, der am Institut für Kommunikationswissenhaft der Uni Münster den Einfluss des Internet auf den Journalismus untersucht. Dank Echtzeitsuche sei es zwar möglich zu sehen, welches Thema die Netz-Community beschäftig. "Es wäre aber fatal, wenn Journalisten allein daraus Trends für Themen ableiten." Schließlich twittern in Deutschland nur einige Zehntausend Menschen, die nicht repräsentativ für die Bevölkerung oder auch nur die Stammleserschaft einer Zeitung sein können. Der Forscher sieht in dem Dienst aber auch noch ganz andere Chancen: Journalisten müssten im digitalen Zeitalter stärker die Rolle der Moderatoren einnehmen, sagt er. "Ein Artikel ist nicht mit dem letzten Punkt fertig. Die Geschichte entwickelt sich weiter, wenn Journalisten darüber mit Lesern diskutieren, Ideen aufnehmen oder Belege im Netz suchen." Zeitmangel größtes Hindernis - Das kann über Twitter sehr gut funktionieren: Wird ein Artikel eifrig kommentiert und per Link weitergereicht, kann sich der Autor in die Diskussion einschalten und die Reaktionen einarbeiten - etwa wenn Nutzer einen Fehler entdeckt haben oder weitere Informationen und Links anbieten. Dafür müssten sich die Journalisten aber erstens vom Sockel der Allwissenheit bewegen und akzeptieren, dass es immer jemanden gibt, der mehr über ein Thema weiß als sie selbst. Und zweitens müssen sie die Zeit haben, einen Artikel notfalls mehrfach zu aktualisieren."
  13. Stollberg, M.: Ontologiebasierte Wissensmodellierung : Verwendung als semantischer Grundbaustein des Semantic Web (2002) 0.01
    0.007672068 = product of:
      0.030688273 = sum of:
        0.030688273 = weight(_text_:und in 495) [ClassicSimilarity], result of:
          0.030688273 = score(doc=495,freq=20.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.2712157 = fieldWeight in 495, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=495)
      0.25 = coord(1/4)
    
    Abstract
    In Kapitel A werden die Grundlagen von Ontologien als Verfahren der Wissensmodellierung erarbeitet. Dazu wird zunächst die definitorische Erfassung von Ontologien erläutert. Zur Erlangung eines fundierten Verständnisses von Wissensmodellierung und der Besonderheiten ontologiebasierter Verfahren ist die Eingliederung dieser in den relevanten wissenschaftlichen Kontext erforderlich. Die in diesem Zusammenhang betrachtete Art der Wissensmodellierung dient vornehmlich als konzeptionelle Grundlage für die Erstellung wissensverarbeitender Computersysteme. Die Entwicklung derartiger Systeme ist das Hauptanliegen der Künstlichen Intelligenz, weshalb eine Positionierung ontologiebasierter Verfahren in derselben vorgenommen wird. Dabei sind vor allem jene Ansätze interessant, auf denen ontologiebasierte Verfahren aufbauen. Zunächst werden daher die grundlegenden theoretischen Aspekte der Wissensrepräsentation erläutert und anschließend daran die Bedeutung von Ontologien im Knowledge Engineering aufgezeigt, um den Verwendungskontext derartiger Verfahren der Wissensmodellierung zu verdeutlichen. Aufbauend darauf werden die spezifischen Eigenschaften ontologiebasierter Verfahren der Wissensmodellierung erörtert, wodurch ein grundlegendes Verständnis dieser Methodik erreicht werden soll.
    Der in Kapitel B behandelte Schwerpunkt ist die Ontologie-Entwicklung. Nach der Erfassung der grundlegenden Charakteristika ontologiebasierter Wissensmodellierung stehen hier die Anforderungen bei der Erstellung einer Ontologie im Vordergrund. Dazu werden die wesentlichen diesbezüglichen Errungenschaften des sogenannten Ontology Engineering erörtert. Es werden zunächst methodologische Ansätze für den Entwicklungsprozess von Ontologien sowie für die einzelnen Aufgabengebiete entwickelter Techniken und Verfahren vorgestellt. Anschließend daran werden Design-Kriterien und ein Ansatz zur Meta-Modellierung besprochen, welche der Qualitätssicherung einer Ontologie dienen sollen. Diese Betrachtungen sollen eine Übersicht über den Erkenntnisstand des Ontology Engineering geben, womit ein wesentlicher Aspekt zur Nutzung ontologiebasierter Verfahren der Wissensmodellierung im Semantic Web abgedeckt wird. Als letzter Aspekt zur Erfassung der Charakteristika ontologiebasierter Wissensmodellierung wird in Kapitel C die Fragestellung bearbeitet, wie Ontologien in Informationssystemen eingesetzt werden können. Dazu werden zunächst die Verwendungsmöglichkeiten von Ontologien identifiziert. Dann werden Anwendungsgebiete von Ontologien vorgestellt, welche zum einen Beispiele für die aufgefundenen Einsatzmöglichkeiten darstellen und zum anderen im Hinblick auf die Untersuchung der Verwendung von Ontologien im Semantic Web grundlegende Aspekte desselben erörtern sollen. Im Anschluss daran werden die wesentlichen softwaretechnischen Herausforderungen besprochen, die sich durch die Verwendung von Ontologien in Informationssystemen ergeben. Damit wird die Erarbeitung der wesentlichen Charakteristika ontologiebasierter Verfahren der Wissensmodellierung als erstem Teil dieser Arbeit abgeschlossen.
    Basierend auf diesen Abhandlungen wird in Kapitel D die Verwendung von Ontologien im Semantic Web behandelt. Dabei ist das Semantic Web nicht als computergestützte Lösung für ein konkretes Anwendungsgebiet zu verstehen, sondern - ähnlich wie existente Web-Technologien - als eine informationstechnische Infrastruktur zur Bereitstellung und Verknüpfung von Applikationen für verschiedene Anwendungsgebiete. Die technologischen Lösungen zur Umsetzung des Semantic Web befinden sich noch in der Entwicklungsphase. Daher werden zunächst die grundlegenden Ideen der Vision des Semantic Web genauer erläutert und das antizipierte Architekturmodell zur Realisierung derselben vorgestellt, wobei insbesondere die darin angestrebte Rolle von Ontologien herausgearbeitet wird. Anschließend daran wird die formale Darstellung von Ontologien durch web-kompatible Sprachen erörtert, wodurch die Verwendung von Ontologien im Semantic Web ermöglicht werden soll. In diesem Zusammenhang sollen ferner die Beweggründe für die Verwendung von Ontologien als bedeutungsdefinierende Konstrukte im Semantic Web verdeutlicht sowie die auftretenden Herausforderungen hinsichtlich der Handhabung von Ontologien aufgezeigt werden. Dazu werden als dritter Aspekt des Kapitels entsprechende Lösungsansätze des Ontologie-Managements diskutiert. Abschließend wird auf die Implikationen für konkrete Anwendungen der Semantic Web - Technologien eingegangen, die aus der Verwendung von Ontologien im Semantic Web resultieren. Zum Abschluss der Ausführungen werden die Ergebnisse der Untersuchung zusammengefasst. Dabei soll auch eine kritische Betrachtung bezüglich der Notwendigkeit semantischer Web-Technologien sowie der Realisierbarkeit der Vision des Semantic Web vorgenommen werden.
    Content
    Magisterarbeit am Institut für Publizistik und Kommunikationswissenschaft, Arbeitsbereich Informationswissenschaft, Fachbereich Philosophie und Sozialwissenschaften, Freie Universität Berlin
    Imprint
    Berlin : Institut für Publizistik und Kommunikationswissenschaft
  14. Mostafa, J.: Bessere Suchmaschinen für das Web (2006) 0.01
    0.0075933794 = product of:
      0.030373517 = sum of:
        0.030373517 = weight(_text_:und in 5871) [ClassicSimilarity], result of:
          0.030373517 = score(doc=5871,freq=60.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.26843396 = fieldWeight in 5871, product of:
              7.745967 = tf(freq=60.0), with freq of:
                60.0 = termFreq=60.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.015625 = fieldNorm(doc=5871)
      0.25 = coord(1/4)
    
    Abstract
    Die Onlinesuche im Internet bringt zwar viele, oft aber nur wenige nützliche Resultate. Nun sollen Websurfer dank verbesserter Software maßgeschneiderte Suchergebnisse erhalten - nicht nur bei Texten, sondern auch bei Bildern und Musikstücken
    Content
    "Seit wenigen Jahren haben Suchmaschinen die Recherche im Internet revolutioniert. Statt in Büchereien zu gehen, um dort mühsam etwas nachzuschlagen, erhalten wir die gewünschten Dokumente heute mit ein paar Tastaturanschlägen und Mausklicks. »Googeln«, nach dem Namen der weltweit dominierenden Suchmaschine, ist zum Synonym für die Online-Recherche geworden. Künftig werden verbesserte Suchmaschinen die gewünschten Informationen sogar noch zielsicherer aufspüren. Die neuen Programme dringen dazu tiefer in die Online-Materie ein. Sie sortieren und präsentieren ihre Ergebnisse besser, und zur Optimierung der Suche merken sie sich die persönlichen Präferenzen der Nutzer, die sie in vorherigen Anfragen ermittelt haben. Zudem erweitern sie den inhaltlichen Horizont, da sie mehr leisten, als nur eingetippte Schlüsselwörter zu verarbeiten. Einige der neuen Systeme berücksichtigen automatisch, an welchem Ort die Anfrage gestellt wurde. Dadurch kann beispielsweise ein PDA (Personal Digital Assistant) über seine Funknetzverbindung das nächstgelegene Restaurant ausfindig machen. Auch Bilder spüren die neuen Suchmaschinen besser auf, indem sie Vorlagen mit ähnlichen, bereits abgespeicherten Mustern vergleichen. Sie können sogar den Namen eines Musikstücks herausfinden, wenn man ihnen nur ein paar Takte daraus vorsummt. Heutige Suchmaschinen basieren auf den Erkenntnissen aus dem Bereich des information retrieval (Wiederfinden von Information), mit dem sich Computerwissenschaftler schon seit über 50 Jahren befassen. Bereits 1966 schrieb Ben Ami Lipetz im Scientific American einen Artikel über das »Speichern und Wiederfinden von Information«. Damalige Systeme konnten freilich nur einfache Routine- und Büroanfragen bewältigen. Lipetz zog den hellsichtigen Schluss, dass größere Durchbrüche im information retrieval erst dann erreichbar sind, wenn Forscher die Informationsverarbeitung im menschlichen Gehirn besser verstanden haben und diese Erkenntnisse auf Computer übertragen. Zwar können Computer dabei auch heute noch nicht mit Menschen mithalten, aber sie berücksichtigen bereits weit besser die persönlichen Interessen, Gewohnheiten und Bedürfnisse ihrer Nutzer. Bevor wir uns neuen Entwicklungen bei den Suchmaschinen zuwenden, ist es hilfreich, sich ein Bild davon zu machen, wie die bisherigen funktionieren: Was genau ist passiert, wenn »Google« auf dem Bildschirm meldet, es habe in 0,32 Sekunden einige Milliarden Dokumente durchsucht? Es würde wesentlich länger dauern, wenn dabei die Schlüsselwörter der Anfrage nacheinander mit den Inhalten all dieser Webseiten verglichen werden müssten. Um lange Suchzeiten zu vermeiden, führen die Suchmaschinen viele ihrer Kernoperationen bereits lange vor dem Zeitpunkt der Nutzeranfrage aus.
    An der Wurzel des Indexbaums Im ersten Schritt werden potenziell interessante Inhalte identifiziert und fortlaufend gesammelt. Spezielle Programme vom Typ so genannter Webtrawler können im Internet publizierte Seiten ausfindig machen, durchsuchen (inklusive darauf befindlicher Links) und die Seiten an einem Ort gesammelt speichern. Im zweiten Schritt erfasst das System die relevanten Wörter auf diesen Seiten und bestimmt mit statistischen Methoden deren Wichtigkeit. Drittens wird aus den relevanten Begriffen eine hocheffiziente baumartige Datenstruktur erzeugt, die diese Begriffe bestimmten Webseiten zuordnet. Gibt ein Nutzer eine Anfrage ein, wird nur der gesamte Baum - auch Index genannt - durchsucht und nicht jede einzelne Webseite. Die Suche beginnt an der Wurzel des Indexbaums, und bei jedem Suchschritt wird eine Verzweigung des Baums (die jeweils viele Begriffe und zugehörige Webseiten beinhaltet) entweder weiter verfolgt oder als irrelevant verworfen. Dies verkürzt die Suchzeiten dramatisch. Um die relevanten Fundstellen (oder Links) an den Anfang der Ergebnisliste zu stellen, greift der Suchalgorithmus auf verschiedene Sortierstrategien zurück. Eine verbreitete Methode - die Begriffshäufigkeit - untersucht das Vorkommen der Wörter und errechnet daraus numerische Gewichte, welche die Bedeutung der Wörter in den einzelnen Dokumenten repräsentieren. Häufige Wörter (wie »oder«, »zu«, »mit«), die in vielen Dokumenten auftauchen, erhalten deutlich niedrigere Gewichte als Wörter, die eine höhere semantische Relevanz aufweisen und nur in vergleichsweise wenigen Dokumenten zu finden sind. Webseiten können aber auch nach anderen Strategien indiziert werden. Die Linkanalyse beispielsweise untersucht Webseiten nach dem Kriterium, mit welchen anderen Seiten sie verknüpft sind. Dabei wird analysiert, wie viele Links auf eine Seite verweisen und von dieser Seite selbst ausgehen. Google etwa verwendet zur Optimierung der Suchresultate diese Linkanalyse. Sechs Jahre benötigte Google, um sich als führende Suchmaschine zu etablieren. Zum Erfolg trugen vor allem zwei Vorzüge gegenüber der Konkurrenz bei: Zum einen kann Google extrem große Weberawling-Operationen durchführen. Zum anderen liefern seine Indizierungsund Gewichtungsmethoden überragende Ergebnisse. In letzter Zeit jedoch haben andere Suchmaschinen-Entwickler einige neue, ähnlich leistungsfähige oder gar punktuell bessere Systeme entwickelt.
    Viele digitale Inhalte können mit Suchmaschinen nicht erschlossen werden, weil die Systeme, die diese verwalten, Webseiten auf andere Weise speichern, als die Nutzer sie betrachten. Erst durch die Anfrage des Nutzers entsteht die jeweils aktuelle Webseite. Die typischen Webtrawler sind von solchen Seiten überfordert und können deren Inhalte nicht erschließen. Dadurch bleibt ein Großteil der Information - schätzungsweise 500-mal so viel wie das, was das konventionelle Web umfasst - für Anwender verborgen. Doch nun laufen Bemühungen, auch dieses »versteckte Web« ähnlich leicht durchsuchbar zu machen wie seinen bisher zugänglichen Teil. Zu diesem Zweck haben Programmierer eine neuartige Software entwickelt, so genannte Wrapper. Sie macht sich zu Nutze, dass online verfügbare Information standardisierte grammatikalische Strukturen enthält. Wrapper erledigen ihre Arbeit auf vielerlei Weise. Einige nutzen die gewöhnliche Syntax von Suchanfragen und die Standardformate der Online-Quellen, um auf versteckte Inhalte zuzugreifen. Andere verwenden so genannte ApplikationsprogrammSchnittstellen (APIs), die Software in die Lage versetzen, standardisierte Operationen und Befehle auszuführen. Ein Beispiel für ein Programm, das auf versteckte Netzinhalte zugreifen kann, ist der von BrightPlanet entwickelte »Deep Query Manager«. Dieser wrapperbasierte Anfragemanager stellt Portale und Suchmasken für mehr als 70 000 versteckte Webquellen bereit. Wenn ein System zur Erzeugung der Rangfolge Links oder Wörter nutzt, ohne dabei zu berücksichtigen, welche Seitentypen miteinander verglichen werden, besteht die Gefahr des Spoofing: Spaßvögel oder Übeltäter richten Webseiten mit geschickt gewählten Wörtern gezielt ein, um das Rangberechnungssystem in die Irre zu führen. Noch heute liefert die Anfrage nach »miserable failure« (»klägliches Versagen«) an erster Stelle eine offizielle Webseite des Weißen Hauses mit der Biografie von Präsident Bush.
    Vorsortiert und radförmig präsentiert Statt einfach nur die gewichtete Ergebnisliste zu präsentieren (die relativ leicht durch Spoofing manipuliert werden kann), versuchen einige Suchmaschinen, unter denjenigen Webseiten, die am ehesten der Anfrage entsprechen, Ähnlichkeiten und Unterschiede zu finden und die Ergebnisse in Gruppen unterteilt darzustellen. Diese Muster können Wörter sein, Synonyme oder sogar übergeordnete Themenbereiche, die nach speziellen Regeln ermittelt werden. Solche Systeme ordnen jeder gefundenen Linkgruppe einen charakteristischen Begriff zu. Der Anwender kann die Suche dann weiter verfeinern, indem er eine Untergruppe von Ergebnissen auswählt. So liefern etwa die Suchmaschinen »Northern Light« (der Pionier auf diesem Gebiet) und »Clusty« nach Gruppen (Clustern) geordnete Ergebnisse. »Mooter«, eine innovative Suchmaschine, die ebenfalls diese Gruppiertechnik verwendet, stellt die Gruppen zudem grafisch dar (siehe Grafik links unten). Das System ordnet die UntergruppenButtons radförmig um einen zentralen Button an, der sämtliche Ergebnisse enthält. Ein Klick auf die UntergruppenButtons erzeugt Listen relevanter Links und zeigt neue, damit zusammenhängende Gruppen. Mooter erinnert sich daran, welche Untergruppen gewählt wurden. Noch genauere Ergebnisse erhält der Nutzer, wenn er die Verfeinerungsoption wählt: Sie kombiniert bei früheren Suchen ausgewählte Gruppen mit der aktuellen Anfrage. Ein ähnliches System, das ebenfalls visuelle Effekte nutzt, ist »Kartoo«. Es handelt sich dabei um eine so genannte Meta-Suchmaschine: Sie gibt die Nutzeranfragen an andere Suchmaschinen weiter und präsentiert die gesammelten Ergebnisse in grafischer Form. Kartoo liefert eine Liste von Schlüsselbegriffen von den unterschiedlichen Webseiten und generiert daraus eine »Landkarte«. Auf ihr werden wichtige Seiten als kons (Symbole) dargestellt und Bezüge zwischen den Seiten mit Labeln und Pfaden versehen. Jedes Label lässt sich zur weiteren Verfeinerung der Suche nutzen. Einige neue Computertools erweitern die Suche dadurch, dass sie nicht nur das Web durchforsten, sondern auch die Festplatte des eigenen Rechners. Zurzeit braucht man dafür noch eigenständige Programme. Aber Google hat beispielsweise kürzlich seine »Desktop Search« angekündigt, die zwei Funktionen kombiniert: Der Anwender kann angeben, ob das Internet, die Festplatte oder beides zusammen durchsucht werden soll. Die nächste Version von Microsoft Windows (Codename »Longhorn«) soll mit ähnlichen Fähigkeiten ausgestattet werden: Longhorn soll die implizite Suche beherrschen, bei der Anwender ohne Eingabe spezifischer Anfragen relevante Informationen auffinden können. (Dabei werden Techniken angewandt, die in einem anderen Microsoft-Projekt namens »Stuff I've seen« - »Sachen, die ich gesehen habe« - entwickelt wurden.) Bei der impliziten Suche werden Schlüsselwörter aus der Textinformation gewonnen, die der Anwender in jüngster Zeit auf dem Rechner verarbeitet oder verändert hat - etwa E-Mails oder Word-Dokumente -, um damit auf der Festplatte gespeicherte Informationen wiederzufinden. Möglicherweise wird Microsoft diese Suchfunktion auch auf Webseiten ausdehnen. Außerdem sollen Anwender auf dem Bildschirm gezeigte Textinhalte leichter in Suchanfragen umsetzen können." ...
  15. Albrecht, C.: ¬Die Entdeckung der Weitschweifigkeit : Über das Glück, mit Markow-Ketten zu rasseln: Die Schriften Claude E. Shannons (2001) 0.01
    0.007553726 = product of:
      0.030214904 = sum of:
        0.030214904 = weight(_text_:und in 6643) [ClassicSimilarity], result of:
          0.030214904 = score(doc=6643,freq=38.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.26703218 = fieldWeight in 6643, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=6643)
      0.25 = coord(1/4)
    
    Abstract
    Der Mathematiker und Elektrotechniker Claude Elwood Shannon, der am 24. Februar dieses Jahres starb (F.A.Z. vom 2. März), prägte 1948 den nachrichtentechnischen Begriff der Information. Er vermaß damit das Wahrscheinlichkeitsfeld, auf dem sich unsere elektronische Kultur auf ihrer abstraktesten Ebene abspielt. Soeben erschien ein Band ausgewählter Schriften Shannons über zum Teil skurrile mathematische Gegenstände: Kommunikations- und Nachrichtentheorie, Kryptologie, Schaltkreise, eine Vorhersage in Feuerleitsystemen, eine Schrift über eine Maschine, die in der Lage ist, ein Labyrinth durch Versuch und Irrtum zu lösen, ein Aufsatz zu einem Spiegelsystem, das es amerikanischen Autofahrern erlaubt, sich im antinapoleonischen Linksverkehr Großbritanniens zurechtzufinden. Den Abschluß bildet ein spaßiges Lied über den, Rubik-Würfel, der in den frühen achtziger Jahren bei vielen Spielern die Volkskrankheit des "Würfeldaumens" verursacht hat. Die Auswahl der Texte verdeutlicht bereits eine Philosophie, die alle Äußerungen des Lebens und des Todes auf Gesetze der Wahrscheinlichkeit und Kombinatorik zurückführt: Unterhaltende Spiele oder eine mathematische Theorie der Vererbungsgesetze Mendels (davon handelt die in diesem Band nicht enthaltene Dissertation Shannons) lassen sich spiegelbildlich übersetzen in die Mathematik kriegsentscheidender und,gegebenenfalls todbringender Techniken wie Feuerleitsysteme und Kryptologie. Zu den fundamentalen Entdeckungen Shannons gehörte es etwa, daß sich Nachrichtentechnik und Kryptographie im Begriff der Redundanz aufeinander beziehen und ineinander überführen lassen. In der Nachrichtentechnik erhält man sichere Übertragungssysteme durch Vermehrung der Redundanz, also durch Weitschweifigkeit.
    Die Redundanz technischer Übertragungssysteme schützt Nachrichten vor Verstümmelung, ohne den Informationsgehalt der übertragenen Nachrichten zu erhöhen. Ein weitschweifiger Journalist erleichtert durch Vergleiche und Metaphern das Verständnis: "Anschaulichkeit' stellt sicher, daß eine Nachricht beim Leser "ankommt'; den Informationsgehalt erhöht sie damit nicht. Die Verminderung von Weitschweifigkeit führt dagegen zur Unverständlichkeit: Nachrichtendienste verschlüsseln Nachrichten durch Verminderung von Redundanz und sichern sich so, gegen das Abhören. Ähnlich vermindern Wissenschaftler die Redundanz ihrer Arbeiten, um nicht von Laien verstanden werden zu können. Für den Uneingeweihten klingen solche Kryptogramme wie Rauschen. Redundanz ist das Maß der inneren Regelmäßigkeit einer statistischen Struktur. Nachricht minus Redundanz ist Informationsgehalt. Für den Betrag der Information hat Shannon die Maßeinheit angegeben: das bit - die "basic indissoluble information unit" (nicht zu verwechseln mit der Einheit für die Darstellung von Daten mit Hilfe binärer Zeichen, dem großgeschriebenen "Bit" unserer Computer). Den Informationsgehalt einer Nachricht zu ermitteln ähnelt dem Frage-Antwort-Spiel beim "heiteren Beruferaten": Jede Ja/Nein-Antwort entspricht einem bit Information. Der "lnformationsgehalt' eines Berufs entspricht der Anzahl nötiger Fragen, ihn zu erraten - je exotischer, "interessanter" der Beruf, desto mehr bits oder Fünfmarkstücke.
    Der entscheidende Aspekt in Shannons mathematischer Theorie der Kommunikation ist, "daß die tatsächliche Nachricht aus einem Vorrat von möglichen Nachrichten ausgewählt wurde". Ahnlich in der binären Logik des Fernsehquiz': Hier wählen die Ratenden aus einer endlichen Zahl beruflicher Lebenswelten, die gleichsam durch sogenannte "typische Handbewegungen" in diskrete Einheiten zerhackt werden. Mathematik und Unterhaltung kommen dabei in einem überein: in der Bedeutungslosigkeit. Shannons Modell abstrahiert davon, ob Nachrichten "Bedeutung" haben, also sich "auf bestimmte physikalische oder begriffliche Größen" beziehen. Ihn interessiert nur, ob und wie die Informationen im gegebenen Kanal störungsfrei übertragen werden können. Die Unterhaltungsindustrie wiederum, deren binäre Logik auf der Unterscheidung zwischen dem Interessanten und dem Langweiligen beruht, kümmert sich nicht darum, ob sich die generierte Information auf wirtschaftliche oder politische Größen bezieht. Sie interessiert nur, ob der Fernseher eingeschaltet bleibt. Entscheidend ist für Shannon der Aspekt der Auswahl etwa aus Buchstaben eines Alphabets, weil damit die Statistik zum Zug kommen kann. Damit läßt sich beispielsweise der Informationsgehalt der deutschen Schriftsprache messen. Nimmt man an, daß alle 30 Zeichen (29 Buchstaben plus Leerzeichen) gleich verteilt sind, ergibt sich ein Informationsgehalt von 4,9 bit. In Wirklichkeit ist jedoch die Wahrscheinlichkeit für die Wahl der verschiedenen Buchstaben, Silben und Wörter in einer natürlichen Sprache in jedem Stadium des Prozesses von der vorhergegangenen Auswahl abhängig. Einen solchen Prozeß bezeichnet die Wahrscheinlichkeitstheorie als Markow-Prozeß oder Markow-Kette. Berücksichtigt man also die Wahrscheinlichkeitsverteilung von Buchstabenfolgen, so erhält man einen viel kleineren mittleren Informationsgehalt der deutschen Schriftsprache, nämlich 1,6 bit.
    Damit kann man ihre Redundanz errechnen: Sie ist 4,9 bit minus 1,6 bit gleich 3,3 bit. Das bedeutet, daß die Hälfte von dem, was wir schreiben, von vornherein weitschweifig ist; es wäre auch dann noch lesbar, wenn jedes zweite Zeichen fehlen würde. Fehlende Buchstaben von Wörtern zu ergänzen, ist deshalb seit dem "Großen Preis" eine beliebte Übung in QuizShows. Beim Raten der Buchstaben scheinen die Kandidaten mit ihren Markow-Ketten in den Köpfen zu rasseln, bis endlich das Wunder des Sinns aufscheint und dem Zufallsprozeß eine höhere Ordnung entsteigt. Die Kandidaten vermögen diese Glücksgefühle der Transsubstantiation von Unsinn in Sinn innerhalb eines Zeitraums hervorzurufen, der unter der durch-' schnittlichen Schwelle der Langeweile des Publikums liegt. Im Spektrum zwischen dem bedeutungsfreien Materialismus der Shannonschen Kommunikationstheorie, der Fernsehen oder automatische Waffensysteme ermöglicht, und der tatsächlich gesendeten menschenfreundlichen Idiotie liegt der Bereich der technischen und kulturellen Reproduktion der Gesellschaft. Dazwischen gibt es Effekte mehr oder weniger "bedeutsamer" Kommunikation, die mehr dem einen, dann mehr dem anderen Pol angenähert sind. Shannons Formeln nähern sich ihrem unanschaulichen Gegenstand, der Über-' tragung Von Information, den sie (abgesehen von den kurzen erläuternden Texten um die Formeln herum) redundanzfrei darstellen. Damit sind sie für normalgebildete Menschen schon unverständlich. Die Herausgeber seiner Schriften, ernste Archäologen eines digitalen Totenkults, stellen damit so etwas wie den Stein von Rosetta vor uns hin. Sie machen uns damit neugierig auf den Kommentarband, der Essays zu Leben, Werk und Bedeutung Shannons sowie andere Dokumente verspricht. Denn wir ahnen, daß die mathemat sc en Hieroglyphen der vorliegenden Textauswahl die Antwort auf die Preisfrage nach dem Wesen unserer technisch formierten Kultur enthalten. Aber erst eine mediengeschichtliche Kryptanalyse, die sie in kulturgeschichtlichen Sinn übersetzt, wird ihren Inhalt tauglich machen für "Wer wird Millionär?"
  16. ¬Die Zukunft des Wissens : Vorträge und Kolloquien: XVIII. Deutscher Kongress für Philosophie, Konstanz, 4. - 8. Oktober 1999 (2000) 0.01
    0.007553726 = product of:
      0.030214904 = sum of:
        0.030214904 = weight(_text_:und in 1733) [ClassicSimilarity], result of:
          0.030214904 = score(doc=1733,freq=38.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.26703218 = fieldWeight in 1733, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=1733)
      0.25 = coord(1/4)
    
    Abstract
    Kaum ein Vorurteil über die Philosophie hält sich hartnäckiger als die Annahme, Philosophen säßen im Elfenbeinturm und spielten dort selbsterfundene Glasperlenspiele. Dabei ist es seit Hegel ein zentrales Anliegen der Philosophie, ihre jeweilige Gegenwart gedanklich zu durchdringen und begrifflich zu erfassen. Diese Hinwendung zu Gegenwartsfragen ist auch in einer Vielzahl von Vorträgen dieses Kongresses zu registrieren, der vom 4. bis 8. Oktober 1999 in Konstanz stattfand - um den Preis, dass Beiträge zur Philosophiegeschichte und zur Logik keine Aufnahme in diesen Tagungsband gefunden haben. Kaum einem Vortrag wird man vorwerfen können, er sei in einer unverständlichen Fachsprache abgefasst. Einige Vorträge verdienen besondere Erwähnung. Peter Janich (Marburg) zeigt, dass die gegenwärtig einflussreichen Theorien der Informationsübermittlung, die zumeist auf Sender-Empfänger-Modellen beruhen, das Wesen dialogischer Kommunikation verfehlen und, entgegen ihrem Anschein, kausalistisch und monologisch sind. Diese Einsicht bewahrt einen vor der verbreiteten Verwechslung von erfolgreicher Informationsübermittlung mit gelingender Kommunikation - angesichts der voranschreitenden Technisierung von Kommunikation eine Korrektur von lebenspraktischer Bedeutung.
    Bemerkenswert an den Beiträgen des Kolloquiums "Von der Arbeits- zur Wissensgesellschaft" ist, dass sowohl Klaus Komwachs (Cottbus) als auch Friedrich Kambartel (Frankfurt am Main) für eine Rückkehr in die von Karl Marx ausgehende Traditionslinie der politischen Ökonomie plädieren. Kambartel demonstriert exemplarisch das normativ-kritisehe Potenzial begrifflicher Analyse. Er wendet sich energisch gegen den Slogan, "der Gesellschaft gehe die Arbeit aus"; vielmehr entwickelt er einen Begriff der Arbeit, mit dem sich schließen lässt, dass eine Gesellschaft, in der es zugleich ein Heer von Arbeitslosen und einen latenten, arbeitswirksamen Bedarf gibt, "ökonomisch ... falsch eingestellt ist". Daraus ergibt sich ein konkreter, neokeynesianischer Handlungsvorschlag, der auf die Erzeugung eines jür öffentliche Institutionen verfügbaren arbeitswirksam einsetzbaren ... Geldvolumens" hinausläuft. Da ein solcher Vorschlag in klarem Widerspruch zur gegenwärtig dominanten neoklassischen Ökonomik steht, eröffnet Kambartel damit zugleich eine ernsthafte philosophische Debatte über die Grenzen dieser Theorie. Die Beiträge des Kolloquiums "Wirtschaftsethik" befassen sich mit ähnlich aktuellen Fragen. Peter Koslowski (Hannover) zeigt die Genese des Shareholder-Value-Prinzips auf: Von reinen Finanzunternehmen, in denen es seine Berechtigung habe, sei es auf Industrieunternehmen übertragen und ausgeweitet worden, gerate dort mit den übrigen Zielen solcher Unternehmen in Konflikt und lenke zudem die Interessen des Managements in falsche Richtungen, etwa auf spekulative Untemehmungen oder strategische Übernahmen. Dagegen setzt Koslowski eine aristotelische Auffassung vom Wesenszweck einer Firma, nämlich die "Produktion optimaler Güter". Nach der Auffassung von Lee Tavis vom Notre Dame College of Ohio dient ein vereinseitigtes Shareholder-Value-Prinzip Ökonomen, die in einfachen Mittel-Zweck-Beziehungen denken, als bequeme Handhabe, alle sonstigen Belange diesem Ziel unterzuordnen, und ist insofern eine moralisch fragwürdige Reduktion sozialer Komplexität.
    Es liegt kein Argument vor, mit dem man die faktische Affinität zwischen ökonomischer Globalisierung und Shareholder-Value-Prinzip normativ begründen könnte. Aus dem Bereich der anwendungsorientierten Ethik sind die Vorträge von Angelika Krebs (Frankfurt am Main) und Dieter Birnbacher (Düsseldorf) herauszuheben, da sie moralische Alltagsintuitionen auf eine harte Probe stellen. Krebs setzt gegen die allgemein vertretenen komparativen Standards ("Mitglieder zukünftiger Generationen sollen es durchschnittlich nicht schlechter haben als wir") absolute Standards, die von uns lediglich verlangen, zukünftigen Personen die materiellen Bedingungen eines guten Lebens zu hinterlassen. Diese Position setzt voraus, dass man einen moralischen Eigenwert von Gleichheit bestreitet. Eine derart anti-egalitaristische Zukunftsethik erlaubt es, "weniger [zu] hinterlassen, als wir selbst erhalten haben, und uns ein schönes Leben [zu] machen". Wer das nicht akzeptieren möchte, muss Argumente zu Gunsten des Egalitarismus verteidigen, die Krebs allesamt für wenig überzeugend hält. Durch ihren im besten Sinne provozierenden Vortrag hat sie eine Diskussion über die ethische Haltbarkeit egalitaristischer Intuitionen eröffnet, der man auch außerhalb des Problemkreises der Zukunftsverantwortung nicht wird ausweichen können. Birnbacher behandelt die brisante Frage nach der moralischen Zulässigkeit der pränatalen Selektion von N kommen auf Grund bestimmter (un)erwünschter Merkmale.
    Was Eltern zu einer derartigen Selektion motivieren könnte, muss für ihn nicht begründet werden. Präferenzen oder "Minderschätzungen" seien nicht schon deshalb moralisch unstatthaft, weil sie "konformistisch, unaufgeklärt oder illusionär" seien. Einwände der Art, nur weil ein Merkmal eines Embryos den EItern nicht gefalle, dürfe man ihn nicht töten, würde Birnbacher als Utilitarist zurückweisen, da er Menschen ein starkes Lebensrecht erst nach der Geburt zuerkennt. Die Erfüllung vorhandener Präferenzen ungeachtet ihrer moralischen Qualität sei wichtiger als der Respekt vor potenziellen Personen. Die Tötung von Nicht-Geborenen sei statthaft, da ein ungeborenes Kind noch "ohne Bewusstsein von Leben und Tod [ist] und deshalb den ihm im Zuge der Selektion auferlegten Tod nicht fürchten kann". Diese - von vielen für skandalös erachtete - Position gründet darin, dass der Utilitarismus nur indirekte Argumente gegen das Töten anerkennen kann. Gegen die technisch immer näher rückende Selektionspraxis lässt Birnbacher allein das Kränkungs-Argument gelten, das besagt, dass sich lebende Träger eines Merkmals, das selegiert wird, gekränkt fühlen könnten. Die utilitaristische Ethik erkennt eben keine absoluten normativen Grenzen an, wenn deren Verletzung einen Zugewinn an Präferenzerfüllung oder Interessenbefriedigung ("Glück") verspricht. Als philosophisch weiterführend könnte sich Wolfgang Spohns (Konstanz) beeindruckender Vorstoß ins "All der Gründe" erweisen. Spohns Ansatz scheint es zu erlauben, philosophische Grundprobleme (Schein und Sein, Apriorität, Kohärenz, Wahrheit, Essenzen) auf argumentationstheoretischer Basis zu reformulieren. Spohn weckt große Neugierde auf den von ihm angekündigten "bedächtigen und umsichtigen Nachvollzug" seiner "tour de force". Die Bedeutung des Argumentierens könnte ungeachtet aller Bekenntnisse zum "Diskurs" in Zukunft schwinden. Wolfram Hogrebe (Bonn) sieht gegenwärtig eine zunehmende Überlagerung von Sprache durch immer trivialere Bilderwelten. "Dieses Jahrhundert begann mit Bewusstsein, verausgabte sich an die Sprache und endet im Bild." Diese Visualisierungen seien Teil einer "kollektiven Infantilisierung", für die sich im Alltag und in den Medien reichlich Belege finden. Hogrebe setzt auf die Widerstandspotenziale autonomer Kunst. Auch der Philosophie kommt die Aufgabe zu, der Unterordnung diskursiver Rationalität unter beliebig herstellbare Bilderwelten zu widerstehen. Wie viele Verbündete sie hierbei noch findet, bleibt abzuwarten
  17. Blittkowsky, R.: ¬Das World Wide Web gleicht einer Fliege : Studien versuchen zu erklären, warum Suchmaschinen nicht immer fündig werden (2001) 0.01
    0.007553726 = product of:
      0.030214904 = sum of:
        0.030214904 = weight(_text_:und in 2090) [ClassicSimilarity], result of:
          0.030214904 = score(doc=2090,freq=38.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.26703218 = fieldWeight in 2090, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=2090)
      0.25 = coord(1/4)
    
    Abstract
    Einer möchte wissen, auf welchen Webseiten sein Name vorkommt. Die andere sucht nach den neusten Sportergebnissen. Ein Dritter recherchiert den Wissensstand über Schrödingers Katze. Internetnutzer befragen jede Minute zu Hunderttausenden Suchmaschinen und Webkataloge. Die wurden, seit das Internet zum Masseninedium herangereift ist, zu Info- (Mono-) Polen für den Zugang zur heterogenen Welt des Web. Dahinter steckt viel Arbeit. Die Suchmaschinen schicken unentwegt Roboter und Agenten los, die Seiten lesen - und Inhalte oder Verweise an mächtige Datenbankservermelden. Täglich entstehen mehrere hunderttausend Webseiten; die Zahl der Adressen, die verarbeitet werden müsste, ist mittlerweile auf mehr als eine Milliarde gewachsen. Nicht nur deshalb wird die automatische Recherche zunehmend schwierig. Eine Untersuchung der Firmen Altavista, Compac und IBM, die die Verbindungen auf 500 Millionen Seiten auswertete, ergab: Im WWW wächst ein Bereich heran, den konventionelle Suchtechnologien nicht erfassen können. Das widerspricht früheren Studien, nach denen zwei beliebige Webadressen höchstens 19 Hyperlinks voneinander entfernt liegen - sich prinzipiell also alles finden lässt. Die Forscher um Altavista-Chefwissenschaftler Andrei Broder vergleichen den Aufbau des World Wide Weh mit der Form einer Fliege. Das Netz gliedert sich demnach in vier Bereiche. Etwa ein Drittel der Seiten fügen den zentralen Kein, um den sich die anderen Gebiete lagern. Den Knoten beschreiben die Fachleute als Giant Strongly Connected Components (SCC): Die Seiten sind untereinander eng verknüpft; es bestehen gute Linkverbindungen zwischen den Angeboten; sie sind leicht zu finden. Ein Viertel der Adressen macht eine Schicht aus, die sich als eine Schleife der Fliege sehen lässt. Es handelt sich vorwiegend um Anfangsseiten, Einstiegspunkte zu Webseiten und inhaltlich sortierende Kataloge.
    Von dort aus sind die zentralen Seiten im Knoten gut erreichbar. Eine zweite Schleife, ein weiteres Viertel aller Webseiten, bilden die Endpunkte - Angebote ohne Links. Sie sind nur über den Knoten erreichbar. Verbleibt etwa ein Fünftel aller Seiten, die gar nicht oder nur indirekt mit dem Knoten verknüpft sind. Letztere werden als Tendrils bezeichnet. Diese Webangebote basieren beispielsweise auf Datenbanken von Unternehmen, Verbänden oder Organisationen. Sie entstehen erst in den wenn sie abgerufen werden - oft in kryptischen Dateiformaten und mit Animationen, Bildern oder Audiodateien angereichert. Surfer können diese Informationen mit Recherchen in den Webseiten der Schleifen aufspüren. Die Agenten der Suchmaschinen dagegen sind darauf trainiert, ständig verfügbare Dokumente im html-Format zu finden. Ihnen entgeht dieser Teil des World Wide Web. Das US-Softwareunternehmen Bright Planet schätzt, das WWW umfasst 2000-mal so viele Seiten, wie alle Suchsysteme zusammen glauben. Auch wenn sie systembedingt nicht alle Seiten kennen: Insgesamt liefern die automatischen Maschinen mehr Ergebnisse als Kataloge wie Yahoo, Dino-Online oder Looksmart. Deren Macher beschäftigen Redaktionsstäbe, die Inhalte recherchieren, sichten und in die Verzeichnisse einordnen. Webkataloge bauen also auf die humane Intelligenz ihrer Rechercheure, die Themen und Seiten verknüpfen sowie Inhalte kommentieren und einordnen. Yahoo, Lieblingskind der New Economy, bringt es indes gerade einmal auf 15 Millionen katalogisierter Webseiten. Gleichwohl kauft Yahoo bei einigen Themen mancher Suchmaschine den Schneid ab: Eine vorstrukturierte, handverlesene Einarbeitung von Inhalten in die Rubriken eines Katalogs kann genauer Auskunft geben.
    Die Spitzenreiter unter den Suchmaschinen sehen sich im Zugzwang, ihren Service zu verbessern. Schließlich sollen die Kunden immer wieder Anfragen starten und damit indirekt die üppigen Werbepreise rechtfertigen. Alltheweb, Google und Altavista erkunden das Netz unterschiedlich. Alltheweb, betrieben vom norwegisch-amerikanischen Unternehmens Fast, setzt bei der Verwaltung der Index-Datenbank auf superschnelle Rechenleistungen und Servertechnologie, damit die richtigen Hyperlinks oben stehen. Etwa 500 Millionen indizierter Webseiten bedeuten für Alltheweb die Pole-Position. Die rein maschinelle Verarbeitung scheint ein gutes Konzept zu sein: Allthewebs Resultatslisten warten mit den besten mehrsprachigen Kommentaren auf. Die Suchmaschine Google, die ihren Namen der Zahl Googol verdankt und eine eins mit hundert Nullen bezeichnet, speichert alle Webseiten lokal auf einer Computerfarm mit 6000 Zentraleinheiten. Sie verwendet ein mathematisches Verfahren, um Webseiten nach inhaltlichen Kriterien zu ordnen. Larry Page und Sergej Brin, die Entwickler des kalifornischen Projekts an der Stanford University, setzen bei der internen Bewertung von Webseiten, dem Page-Ranking, auf die Einschätzungen der Internet-Surfer: Wenn sie einem Verweis auf eine andere Adresse folgen, treffen sie eine intuitive Entscheidung. Sie rufen ein Angebot auf, von dem sie bessere Informationen, eine konkrete Antwort auf ihre Frage erwarten. Page und Brin überlegten, die Summe der Surfentscheidungen kann ihren Inhalt indirekt qualifizieren: Je häufiger eine Webseite ausgewählt wird, desto höher kann ihre Qualität sein - in Bezug auf die inhaltliche Relevanz hinsichtlich eines Themas. Mit einem komplizierten Bewertungsverfahren filtern die Datenbankserver von Google permanent und ohne menschliches Zutun die Entscheidungen unzähliger Surfer Die Ergebnisse von Google gehören nachweisbar zu den besten, die Maschinen weltweit bieten. Altavista ist schon lange im Geschäft. Auch die Manager dieses Unternehmens setzen auf einen hohen technologischen Aufwand. Sie schicken Suchroboter, genannt Scooter, los, die Tag für Tag ungefähr 24 Millionen Dokumente überprüfen und gegebenenfalls der Datenbank hinzufügen. Das entspricht einer Kapazität von 800 DIN-A4-Seiten pro Sekunde. Die Datenbank erfasst alle Worte eines Dokuments. Der Vorteil der Volltext-Indizierung ist offenkundig: Jedes Dokument kann theoretisch auf Grund eines darin enthaltenen Worts sekundenschnell gefunden werden. Altavista kennt 50 Millionen deutschsprachiger Webseiten. Als Spezialität findet sie auch Produktinformationen und Markenbezeichnungen - und sicher auch das Neueste zu Schrödingers Katze
  18. Lischka, K.: Archiv statt Deponie : Die US-Congressbibliothek soll das digitale Kulturerbe sichern - das dürfte teuer und schwierig werden (2003) 0.01
    0.007553726 = product of:
      0.030214904 = sum of:
        0.030214904 = weight(_text_:und in 2418) [ClassicSimilarity], result of:
          0.030214904 = score(doc=2418,freq=38.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.26703218 = fieldWeight in 2418, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=2418)
      0.25 = coord(1/4)
    
    Abstract
    Selbst wenn es nach heutigem Ermessen nicht wertvoll wäre, müsste man Onlinematerial zumindest teilweise archivieren. Denn die Bedeutung von Quellen wandelt sich minder Zeit. Heutige Forschergenerationen würden viel für einen Blick auf jene Kurzfilme geben, die man Anfang des vergangenen Jahrhunderts nach einigen Durchläufen als Unterhaltungsmaterial achtlos zur Seite warf. Schon heute ist absehbar, dass lnternetseiten von 1998 Kommunikationswissenschaftler viel über die Beschleunigung und Aufheizung des Mediengeschäfts erzählen können. Wie schnell zogen kommerzielle Medien im Netz im Vergleich zur gedruckten Version der Skandalberichterstattung Matt Drudges über Bill Clintons Affaire nach? Welche Funktion hatten dabei öffentliche Nachrichtenforen? Historiker dürften vom frühen E-Mail-Verkehr in Regierungen und großen Unternehmen einst weit weniger finden als von den früher so geheimen Depeschen.
    Content
    "Fast eine Million britische Schulkinder, Beamte und Journalisten haben im Jahr 1986 Informationen über ihr Land gesammelt. Sie trugen 250000 Ortsbeschreibungen zusammen, 50 000 Fotos, 25 000 Landkarten und eine nie quantifizierte Textmenge. Der Sender BBC wollte ein Dokument über den britischen Alltag jener Zeit für die Nachwelt schaffen. Etwa 2,5 Millionen Pfund kostete der Datenberg, der auf einer Videodisk gespeichert wurde. Die galt als unzerstörbar. War sie bis heute auch. Nur gab es 16 Jahre später im Jahr 2002 keinen Computer mehr, der das Material lesen kann. Denn der entsprechende BBC Micro-Rechner war schnell verschwunden, weil ein zu teurer Flop. Ähnlich könnte es dem digital vorliegenden, kulturellen Erbe der Menschheit ergehen, Das denkt zumindest die Mehrheit der US-Kongressabgeordneten. Sie haben der Kongressbibliothek für die Entwicklung eines Systems zur Sammlung und Katalogisierung digitaler Informationen 20 Millionen Dollar bewilligt. Weitere 75 Millionen könnten in den nächsten Jahren vom Staat dazukommen - wenn auch Sponsoren so viel Geld bringen. Halten die sich zurück, knausert auch der Staat beim "National Digital Information Infrastructure and Preservation Program" (NDIIPP). Deutsche Bibliothekare betrachten das Projekt mit gemischten Gefühlen. "Wir sehen neidisch, was in den USA mit Sponsoren möglich ist. Doch andererseits kann man den Erhalt des nationalen Kulturerbes nicht darauf gründen, dass in 50 Jahren noch Sponsoren dafür zu haben sind", erklärt Katrin Ansorge, Sprecherin der Deutschen Bibliothek (DDB). Die hat - noch - keinen gesetzlichen Sammelauftrag für digitale Dokumente, die nicht auf physischen Datenträgern wie CD-ROMs vorliegen. Doch Ansorge ist zuversichtlich, "dass der Bund das Gesetz noch in dieser Legislaturperiode anpasst". Bis dahin dürfte mehr Material verloren sein als beim Brand der Bibliothek von Alexandria. Nach einer Studie der US-Kongressbibliothek war die Hälfte des 1998 im Internet verfügbaren Materials 1999 wieder verschwunden. "Vieles davon war wichtiges, einzigartiges Material. das man nicht zurückholen kann, aber einst dringend suchen wird", sagt der Leiter der Kongressbibliothek, James H. Billington. Den hier wirkenden Widerspruch des Internets als Medium formuliert Franziska Nori, die wissenschaftliche Leiterin der Abteilung Digitalcraft am Frankfurter Museum für Angewandte Kunst (MAK): "Es ist kurzlebig, hat aber alle Bereiche unserer Gesellschaft einschneidend verändert." Einen kleinen Beitrag zur Archivierung digitalen Kunsthandwerks leistet das MAK mit seiner Sammlung Webdesign. Ausgewählte Seiten von Gestaltern, Agenturen, Onlinemagazinen und Angeboten für Kinder werden auf den Servern von Digitalcraft archiviert. Auch die DDB sammelt bestimmte Dokumente wie Onlinedissertationen, Habilitationen oder nur online verfügbare wissenschaftliche Magazine. Die vergleichsweise kleinen Projekte zeigen vor allem eines: Die Archivierung digitaler Dokumente ist teuer. Denn die Probleme sind komplexer und vor allem neuer als der am Papier nagende Säurefraß und die nötige systematische Katalogisierung gedruckter Werke. Die Probleme beginnen schon beim Sammeln. Die von privaten Stiftungen getragene US-Initiative "Internet Archive" speichert beispielsweise jeden Tag 400 Gigabyte an neuem Material. Ausgedruckt wären das mehr als 20 Buchregal-Kilometer. Um zusätzlichen Speicherplatz zu kaufen, gibt das "Internet Archive" jeden Monat etwa 40000 Euro aus. Die Wartung und vor allem die Katalogisierung des vorhandenen Bestands ist weit teurer. Dabei erfasst das "Internet Archive" nur alle zwei Monate komplett einen großen Ausschnitt des Webs. Mit Passworten geschützte Seiten bleiben ebenso außen vor wie Kommunikation in Chaträumen und E-Mails.
    Angesichts der Datenmengen scheint es, dass Bibliotheken beim Sammeln digitaler Dokumente rigider auswählen müssen. Weit drastischer als heute, wo noch immer der Grundgedanke wirkt, spätere Generationen müssten selbst den Wert der Quellen bewerten dürfen. Die DDB denkt laut Kathrin Ansorge an getrennte Sammlungsverfahren: "einerseits für Dokumente, die einen gesicherten Publikationsprozess wie etwa in Verlagen erfahren haben, andererseits für den großen Rest, den man mit Suchrobotern abgreifen könnte". Beim Sammeln werden Bibliotheken dieselben Schwierigkeiten haben, mit denen das "Internet Archive" heute schon kämpft: Urheber schützen ihr Material; Passworte sind das kleinere Problem. Eine gesetzliche Ablieferungspflicht wie bei gedrucktem Material könnte da helfen. Schwieriger sind Dateiformate, die schon heute das Auslesen der Dokumente ebenso wie zu häufige Transfers verhindern. Manche Verlage legen gar ein Verfallsdatum fest. Diese Verschlüsselungen sind nur schwer zu knacken. Die Versuche könnte ein novelliertes Urheberrecht gar strafbar machen. Aber auch Dateiformate ohne solche Schutzmechanismen werden zum Problem. Denn Dokumente sollen ja nicht nur auf Deponien gesammelt werden, sondern vor allem in Archiven zugänglich sein. Die drohende Gefahr: Die Soft- und Hardware zum Lesen bestimmter Formate ist in wenigen Jahren verschwunden. Die Dokumente sind dann so wertvoll wie Text in Geheimtinte ohne das Wissen, wie man sie sichtbar macht. Hier haben digitale Archive drei Möglichkeiten. Die erste ist Migration. Alte Software wird für jede neue Computergeneration neu programmiert. Das ist aufwendig. Und vor allem gehen Informationen verloren, während neue hinzukommen. Es ist so, als würde man ein Gemälde alle fünf Jahre abmalen. Wie Rembrandts Nachtwache dann heute aussähe? Eine andere Möglichkeit ist die Emulation. Dabei ahmen spezielle Programme alte Hardware nach. Man müsste dann nicht jede Software neu schreiben, weil sie sich in einer vertrauten, da emulierten Umgebung wähnt. Der Nachteil: Alle paar Jahre ist eine neue Emulation nötig, um die alten Emulatoren mit neuer Hardware nutzen zu können. Ein auf kurze Sicht bequemer, auf lange Sicht gefährlicher Teufelskreis, sagt David Bearman, Präsident des kanadischen Beratungsunternehmens "Archives and Museum Informatics": "Das gibt Managern und Regierungen auf der Welt eine Entschuldigung, um Entscheidungen herauszuzögern, die jetzt getroffen werden müssen. Eine dritte Möglichkeit wäre, alle Dateien in einer zweiten Version zu speichern, die auf einem so genannten Universal Virtual Computer lesbar ist. Der existiert als Beschreibung auf wenigen Seiten Papier. Er ist einfach und umfasst die bislang unveränderten und in Zukunft sicher reproduzierbaren technischen Grundsätze eines Rechners wie Arbeitsspeicher, Hauptprozessor und dergleichen. Diese Möglichkeit erwägt die Koninklijke Bibliotheek der Niederlande. Sie hat IBM mit der Entwicklung eines Depotsystem für digitale Dokumente beauftragt. Ein auf mittlere Sicht angelegtes Programm läuft schon. Die langfristige, gegenüber Hard- und Softwareänderungen resistente Erhaltung soll auf dem UVC-Konzept aufbauen. Dass es im Prinzip funktioniert, belegt ein Prototyp: Ein PDF-Dokument wurde in das Format für einen UVC konvertiert und ohne Informationsverlust wieder ausgelesen. Noch besteht Hoffnung für das digitale Kulturerbe. Sogar das von der BBC 1986 gesammelte Material konnten Forscher - nach mehr als einem halben Jahr Arbeit - Ende vergangenen Jahres auslesen. Aller- dings wissen sie noch nicht, wie sie es nun für die Ewigkeit archivieren sollen - oder zumindest für die nächsten 16 Jahre."
  19. Kohkemper, R.: Studenten-Charme im Big Business : 200 Millionen Anfragen pro Tag - die erfolgreichste Suchmaschine des Internet (2004) 0.01
    0.007553726 = product of:
      0.030214904 = sum of:
        0.030214904 = weight(_text_:und in 3324) [ClassicSimilarity], result of:
          0.030214904 = score(doc=3324,freq=38.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.26703218 = fieldWeight in 3324, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=3324)
      0.25 = coord(1/4)
    
    Content
    "Heute schon gegoogelt? Wer im Internet irgendwas gesucht hat, bestimmt. Oder kennen Sie aus dem Eff-Eff noch andere Suchmaschinen? Richtig, Altavista gibt es noch - oder gab es? Nein, ist noch da, genauso wie Yahoo oder Lycos. Nur: Die Leute googeln lieber. Sechs Jahre erst gibt es google.com oder eben google.de, und längst ist Schau doch mal bei Google" nahezu synonym geworden für die Internetrecherche. 200 Millionen Anfragen in 88 Sprachen beantwortet Google heute - pro Tag. Begonnen hat das ganze 1998, und so wie es in der Computerbranche üblich scheint. In einer Garage - so soll ja auch Microsoft-Gründer Bill Gates angefangen haben. Auch Larry Page und Sergey Brin mieteten erstmal einen alten Schuppen im Silicon Vallev an, dem Zentrum für Computertechnologie im US=Staat Kalifornien. Geld hatten sie keines, nur einen Vorsatz: die beste Suchmaschine erfinden. Nun, im Gründungsjahr hatte es an derlei Helferlein im weltweiten Netz keinen Mangel. Aber eben mit Mängeln, meinten die beiden Doktoranden an der renommierten StanfordUniversität. Die heute 31 und 30 Jahre Google-Gründer waren damals genervt, dass die Suchmaschinen in schöner Regelmäßigkeit Unnützes bis Anzügliches ausspuckten, aber selten das, was man wirklich suchte. Nein, sie wollten eine intelligente Suchmaschine, die die Spreu vom Weizen trennt. Beseelt von der Idee schnorrten sie bei Freunden und Verwandten eine Million, Dollar zusammen - und gaben das Studieren dran. Wäre es nach ihren Familien gegangen, wären beide vermutlich wie ihre Väter Universitätsprofessoren geworden.
    In ihrer Garage also bauten die zwei ihre ersten Rechner auf, gebrauchte, die sie bei Frys, dem großen ElektronikDiscounter im Silicon Valley, billig gekauft hatten. Und sie luden die Maschinen mit kostenloser Software wie dem Betriebssystem Linux. Hinzu kam die von Page und Brins ausgetüftelte Google-Suchtechnik. Ihr zugrunde liegt die Überlegung, dass gute und wichtige Webseiten die sind, auf die oft verwiesen wird. Also schaffen es nur solche unter die Top Ten, die von möglichst vielen Links empfohlen worden sind (siehe Stichwort Suchmethode). Natürlich lädt auch dieses Systems zu Tricksereien ein. Allein in Deutschland, so schätzen Kenner der Szene, gibt es rund 100 Profis, die sich darauf spezialisiert haben, die Google-Ergebnisse zu fälschen: Suchmaschinenoptimierer nennen sie sich. Schon wenn 50 Internetseiten sich gezenseitig empfehlen, so heißt es, steige man bei den Google-Suchlisten weit nach oben. Die Garagen-Zeiten sind bei Google längst vorbei, der lässig studentische Charme soll geblieben sein, berichten Besucher von Mountain View, dem Gewerbegebiet eine Autostunde von San Francisco entfernt, besser bekannt als Silicon Valley. Dort, hinter der hellgelben Fassade eines zweitstöckigen Fabrikgebäudes, arbeiten mittlerweile 1000 Mitarbeiter aus 34 Ländern. Darunter auch Informatiker, die ausschließlich versuchen, den Suchmaschinenoptimierern immer neue Hürden zu bauen. Die beiden Zentralrechner allerdings, zusammengesetzt aus 10 000 Einzelrechnern, befinden sich woanders. Einer an der Ost-, derandere an der Westküste der USA. Die genauen Standorte werden nicht verraten. Aus Angst vor Sabotageakten. Einen dritten soll es demnächstin Irland geben. Alles schön und gut. Aber an Kreativltät hatte es Internet-Firmen meist nicht gefehlt, sondern an Einnahmen. Auch bei Google lief es zunächst schleppend. Doch Brin und Page konnten wenigstens ihre Suchtechnik verkaufen. Dann verfielen sie auf eine weitere Idee. Statt irgendwelcher Werbebotschaften, bemüht sich Google die zum Inhalt der Seite passenden zu platzieren. Wer also "Neuwagen" eintippt, soll eben auch Neuwagenwerbung auf seinem Schirm finden. Klickt er die auch noch an, verdient Google Geld. Die meisten Anzeigen bringen pro Klick zwar zuweilen nur 0,05 Cent, doch das läppert sich.
    Nun aber, so wird über den Grund des Börsengangs, vermutet, könnte der erkleckliche Gewinn - 2003 waren dies 105 Millionen Dollar bei 982 Millionen Dollar Umsatz - nicht mehr ausreichen. Schließlich haben Yahoo und vor allem Microsoft zum Sturm geblasen. Beide Unternehmen kündigten Suchtechniken an, die der von Google überlegen sein sollen, vor allem das vorsätzliche Fälschen von Rangfolgen soll nicht mehr so leicht möglich sein. Unterdessen scheint die geleckte Business-Welt, wie man sie der Branche gerne unterstellt, bei Google nicht angekommen zu sein. Die meisten Mitarbeiter tragen Jeans und T-Shirt. Man duzt sich. Google ist keine gewöhnliche Gesellschaft. Und wir wollen auch keine werden, schrieben Page und Brin in einem Brief an künftige Aktionäre. Doch ein wenig Luxus gönnt man sich und seinen Mitarbeitern schon: Einen Masseur für die kreativen Pausen. Und - ebenso für jeden umsonst - üppige Büfetts, arrangiert in weißen Partyzelten, hergerichtet von Koch Charly. Der versorgte einst die Band The Grateful Dead. Wie, kein Begriff mehr? Schauen Sie doch mal nach."
    SUCHMETHODE PageRank Technologie nennen die Google-Gründer ihre Such-Methode. Nach der Eingabe eines Suchbegriffes werden die 3 Milliarden Webseiten, die Google erreichen kann, damit verglichen. Der Kern der Such-Methode ist dabei, dass Google einen Link von der Seite A zu Seite B als ein "Votum" von der Seite A zu Seite B wertet. Wer also auf seiner Webseite mit einem Link eine andere Seite empfiehlt bzw. darauf verweist, verändert den Stellenwert einer Seite in der Google-Liste. Allerdings verlässt sich Google nicht allein auf die Voten anderer Seiten. Mitarbeiter des Anbieters schätzen die Wichtigkeit einer Seite über dieses Votum ein. Außerdem wird von Google die Seite bewertet, von der das Votum stammt. Ein Beispiel für die Manipulierbarkeit von Google: Wer im weltweiten Netz "miserable failure" ("erbärmlicher Versager") eingibt, landet bei der Biografie von George W. Bush. Zahlreiche Webmaster haben also einen Link zum Weißen Haus gesetzt und und mit dem Suchnamen "miserable failure" unterlegt.
  20. Sixtus, M.: Falsche Türen : Google kämpft gegen Tricks, mit denen sich Webseiten in den Suchlisten nach oben drängeln - und bestraft BMW (2006) 0.01
    0.007553726 = product of:
      0.030214904 = sum of:
        0.030214904 = weight(_text_:und in 5917) [ClassicSimilarity], result of:
          0.030214904 = score(doc=5917,freq=38.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.26703218 = fieldWeight in 5917, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=5917)
      0.25 = coord(1/4)
    
    Content
    ""Das Suchen hat einen religiösen Charakter angenommen. Die Leute wollen gar nicht mehr finden, sie wollen suchen", sinnierte kürzlich der Netzpionier und Schriftsteller Peter Glaser. Vielleicht bleibt den Menschen nichts anderes übrig als eine Recherche ähnlich wie eine buddhistische Meditation anzugehen. Denn, dass sie finden, was sie suchen, wird immer weniger wahrscheinlich. "Deutschland ist momentan sicher das Spam-Land Nummer eins", bestätigt Stefan Keuchel, nationaler Sprecher von Google. Er meint damit nicht die Massenmails, die für raubkopierte Software und Genitalvergrößerungen werben, sondern SuchmaschinenSpam: Webseiten, die es nur gibt, um weit oben in den Trefferlisten aufzutauchen. Wer eine Suchmaschine nach Test- oder Erfahrungsberichten zu einem bestimmten Produkt bemüht, kennt das: Auf den ersten Seiten tummeln sich Preisvergleichsdienste, ominöse Branchenverzeichnisse, oder man wird ungefragt auf eine Internetauktion umgeleitet. Oft genug haben die Seiten nichts mit der Suchanfrage zu tun. Diese Form der Bauernfängerei ist ärgerlich und zeitraubend für die Nutzer einer Suchmaschine - und gefährlich für ihre Betreiber. Mit der sinkenden Qualität der Ergebnisse verlieren sie Vertrauen - und Werbekunden. BMW wollte mit dutzendfachen Wortwiederholungen täuschen Zwar ändern Google, Yahoo und die anderen ständig ihre Bewertungen, um die falschen Treffer zu verdammen. Allerdings beschränkten sie sich dabei bislang auf ihren englischsprachigen Heimatmarkt. Das soll sich nun ändern. Vor rund drei Wochen gab Software-Ingenieur Matt Cutts, bei Google für die Qualität der Suchergebnisse zuständig, in seinem Weblog bekannt, man wolle sich verstärkt dem nicht-englischsprachigen Internet widmen. Das erste prominente Opfer: BMW. Die Hauptadresse des bayerischen Autobauers www.bmw.de war in dieser Woche bei Google zeitweise nicht zu finden. Mittlerweile taucht sie dort wieder auf. Die Höchststrafe fing sich BMW ein, weil das Unternehmen mit Brückenseiten arbeitete. Das sind Phantomseiten, die mit dutzendfachen Wiederholungen von Worten wie Gebrauchtwagen, Neuwagen, Jahreswagen und natürlich BMW die Suchmaschinenroboter füttern sollen. Menschliche Internetnutzer sehen die Wörtersuppe nicht, sie werden automatisch auf eine andere Seite gelenkt. "Das ist einklarer Verstoß gegen unsere Richtlinien% sagt Google-Sprecher Keuchel. Auch BMW habe Regeln für seine Zulieferer. Naturgemäß sieht das München anders. Zwar gesteht Sprecher Markus Sagemann die umstrittenen Trickseiten ein, aber: "Wir haben den Leuten keine falschen Inhalte vorgespiegelt. Wer auf BMW-Gebrauchtwagen geklickt hat, ist auch dort gelandet." Und man solle das Thema bitte nicht groß reden: "Über Google kommen gerade einmal 0,4 Prozent unserer Besucher."
    Der Experte Philipp Lenssen hatte in seinem Weblog Anfang Februar als erster über die BMW-Praktiken berichtet. Er wundert sich: "Wenn wirklich nur so wenige Besucher via Google bei BMW landen, warum legen die dann Hunderte von Köder-Seiten aus?" Auch die Argumentation, man habe keine falschen Inhalte vorgespiegelt, hält er für verfehlt: "Welche Seiten für einen Suchbegriff relevant sind und welche nicht, bestimmt aus gutem Grund die Suchmaschine und nicht der Seitenbetreiber." Der empfinde seine Seiten stets als relevant. Einige Google-Fänger seien auf Begriffe wie BMW-Testberichte optimiert worden. "Da erwartet man doch eher, auf einer Seite neutraler Herkunft zu landen als direkt beim Hersteller." Allerdings ist es eher unwahrscheinlich, dass der Autobauer mit Methoden aus den virtuellen Rotlicht- und Spielbank-Vierteln auf Kundenfang gehen wollten. Der Griff in die Kiste der dunklen Tricks war eher eine unüberlegte Notlösung, denn zuvor waren große Teile der BMW-Seite überhaupt nicht in Suchmaschinen zu finden. Das wundert Lenssen nicht: "Die Navigation funktioniert nur mit eingeschaltetem Javascript, außerdem besteht die komplette Websites aus ineinander verschachtelten Frames", also Fenstern. Genauso gut hätte man ein "Für Suchmaschinen verboten!" auf die Site kleben können. "Die Seiten sollten einfach wieder bei einer Suche auftauchen", versucht sich BMW zu erklären. Das Sichtbarmachen der versteckten Inhalte sollte das Frankfurter Unternehmen Netbooster übernehmen. Vielleicht nicht die beste Wahl: Die Hauptadresse des Unternehmens fehlt bei Google ebenfalls. In Frankreich war die Firma bereits vor zwei Jahren negativ aufgefallen. Netbooster verweigert eine Stellungnahme. BMW scheint Opfer des Stan-Laurell-Syndroms geworden zu sein: dem Versuch, einen Fehler mit einem weiteren zu vertuschen. Die Unbeholfenheit im Umgang mit dem Internet verwundert Google-Sprecher Keuchel nicht: "Gerade die großen deutschen Unternehmen achten meist nur auf Design und Erscheinungsbild ihrer Seiten." Viele Manager verstünden nicht, wie das Netz und die Suchmaschinen funktionieren. "Und dann wundern sie sich, dass sie nicht zu finden sind", sagt Keuchel. Die Debatte könnte einem anderen Thema Auftrieb geben: barrierefreiem Webdesign. Als Faustregel gilt: Wer seine Seiten so gestaltet, dass sie ohne Zusatzprogramme oder Spezialfunktionen wie Javascript lesbar sind, macht es Suchmaschinen leicht, sie zu finden. Auch sonst könnte die Unstimmigkeit zwischen Google und BMW für ein reinigendes Gewitter sorgen. Viele Fachleute glauben, Suchmaschinen-Spammer würden aus Furcht vor dem drohenden GoogleBann nun ihre vorgeschalteten Seiten einsammeln. Dann könnte Suchen vielleicht wieder etwas mehr mit finden zu tun haben und etwas weniger mit Religion."
    Footnote
    BESSER SUCHEN - Alternativen nutzen: Auch die Konkurrenz von Google ist nicht schlecht. Klassiker sind search.msn.de und search.yahoo.de. Neu auf dem deutschen Markt ist ask.de. Das Unternehmen hat sich mit der Übernahme des vielversprechenden NewcomersTeoma frisches Fachwissen geholt. - Genauerformulieren: Liefert eine erste Anfrage zu viele irrelevante Treffer, lohnt sich ein Wechsel in den erweiterten Modus (bei Google und Yahoo: "erweiterte Suche", MSN: "Such-Assistent"). So kann man die Ergebnisse auf bestimmte Sprachen oder Länder eingrenzen. Wunder wirkt es oft, einzelne Worte (etwa "Auktion") aus der Trefferliste zu verbannen. Man kann auch bestimmte Domains aussieben. Das ist besonders hilfreich, wenn Suchmaschinen-Spammer mit Subdomains arbeiten, etwa mit shop.domain.de, kaufen.domain.de, sparen.domain.de.

Languages

  • d 4221
  • e 485
  • m 11
  • es 2
  • f 2
  • s 2
  • el 1
  • ru 1
  • More… Less…

Types

  • a 3535
  • m 804
  • el 218
  • x 210
  • s 184
  • i 47
  • r 29
  • n 8
  • b 7
  • l 5
  • More… Less…

Themes

Subjects

Classifications