Search (10 results, page 1 of 1)

  • × author_ss:"Sixtus, M."
  1. Sixtus, M.: ¬Das Gemeinschaftsnetz : Im Wiki-Web können alle Surfer Seiten umschreiben und hinzufügen - so entstehen ganze Enzyklopädien (2003) 0.01
    0.010862406 = product of:
      0.043449625 = sum of:
        0.043449625 = weight(_text_:und in 1739) [ClassicSimilarity], result of:
          0.043449625 = score(doc=1739,freq=50.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.3673144 = fieldWeight in 1739, product of:
              7.071068 = tf(freq=50.0), with freq of:
                50.0 = termFreq=50.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1739)
      0.25 = coord(1/4)
    
    Content
    "Wissen ist in. Allerorten wird es zum Rohstoffdes 21. Jahrhunderts ausgerufen. Doch je mehr man weiß, desto wichtiger ist es, die Informationen professionell zu verwalten, zu organisieren und zu pflegen. Manche Unternehmen bauen dazu teure, komplexe Knowledge-Management-Systeme ins Firmennetz ein. Doch das Wissensmanagement geht einfacher - mit Wikis. Ein Wiki ist eine Sammlung dynamischer Webseiten, die über Verweise verbunden sind und alle über eine Besonderheit verfügen: Ganz unten fordert ein Button alle Surfer dazu auf, die aktuelle Seite zu verändern. Prinzipiell kann jeder jede Seite ändern, ergänzen, verbessern oder sogar löschen. Rechte-Hierarchien existieren schlicht nicht. Jeder User ist gleichzeitig Leser, Lektor, Redakteur und Autor. Seiten anlegen und verlinken geschieht in einem Arbeitsgang. Einige rudimentäre Möglichkeiten zur Textformatierung und zur Einbindung von Grafiken sowie eine Volltextsuche runden den bescheidenen Funktionsumfang eines Standard-Wikis ab - und machen es verblüffenderweise doch zu einem mächtigen Werkzeug. Geübte User erzeugen mit dem virtuellen Zettelkasten in Windeseile Strukturen, die Hunderte oder Tausende von Einzelseiten umfassen. Die Einsatzmöglichkeiten sind vielfältig: Wikis fungieren als Wissensspeicher, als Basis für gemeinsame Projektdokumentationen, als Materialanforderungsformular oder als Brainstorminghilfe in Kreativberufen. Und selbst bei der Planung von Betriebsfeiern oder als Datenbank für Kochrezepte sollen sie schon zum Einsatz kommen. Wenn jeder Nutzer jedes einzelne Dokument ändern oder löschen kann, herrscht dann nicht das Chaos? Was passiert, wenn Fehler sich einschleichen oder wichtige Passagen verschwinden? Dagegen sind die Wikis gewappnet: Mit der HistoryFunktion und über Differenzberechnungen lässt sich überblicken, wer wann was geändert hat. Bei Bedarf lassen sich alle Anderungen rückgängig machen. Jeder historische Zustand ist so mit wenigen Mausklicks wiederhergestellt. Seit 1999 setzen Teams des Mobilfunkherstellers Motorola auf Wikis als Werkzeuge für das kollaborative Arbeiten, die Lufthansa verwendet sie zur Verwaltung technischer Dokumentationen, und die Konzerne SAP und Disney experimentieren mit den wenigen hundert Kilobyte kleinen Systemen in ihren Firmennetzen. Das erste Wiki hat der Software-Entwickler Ward Cunningham im Jahr 1995 unter der Adresse c2.com/cgi/wiki ins Netz gestellt - und dort steht es heute noch. Der Begriff "Wiki" ist das hawaiianische Wort für "schnell", und genau darum ging es Cunningham: flottes, unkompliziertes Arbeiten, ohne von einem unübersichtlichen Funktionsumfang gebremst zu werden. Mittlerweile existieren etliche Klons und Weiterentwicklungen des UrWikis, in mehreren Programmiersprachen und für fast alle Computerplattformen. Die meisten stehen gratis und unter der Open-Source-Lizenz im Netz.
    Die Idee des editierbaren Internets geht zurück auf den Erfinder des World Wide Web, Tim Berners-Lee, der in seinem Buch Weaving the Web die Grundideen der Wiki-Philosophie aussprach: "Das Web editieren zu können ist genauso wichtig, wie durch es zu browsen." Aber haben Sites, an denen jeder zufällig Vorbeisurfende herumdoktern kann, überhaupt eine Überlebenschance? Wer schon einmal beobachtet hat, wie schnell offene Systeme wie Gästebücher oder Foren im Chaos versinken können, mag berechtigte Zweifel anmelden. Erstaunlicherweise funktionieren offene Wikis aber hervorragend. Beispielsweise Wikipedia: Das seit 2001 laufende Enzyklopädie-Projekt umfasst in der englischsprachigen Variante mehr als 144 000 Artikel. Das Mammutvorhaben, das Wissen der Welt in einem Wiki festzuhalten, wird nicht von einer Hand voll Autoren und Redakteuren angegangen. Vielmehr kann jeder Surfer sein persönliches Know-how dazu beisteuern. Dank der globalen Teamarbeit haben die Wikipedia-Artikel eine beachtliche Qualität erreicht - und können sich bisweilen durchaus mit professionellen und kostspieligen Nachschlagewerken messen. Der Journalist und Bestseller-Autor Sheldon Rampton verfolgt mit seinem Wiki-Projekt Disinfopedia.org speziellere Ziele: Die Enzyklopädie der Propaganda soll dokumentieren, wie PR-Unternehmen, Lobbyisten und Thinktanks die öffentliche Meinung in den USA mit Hilfe von fragwürdigen wissenschaftlichen Studien, fingierten Graswurzelbewegungen oder schlichter Verbreitung von Falschinformationen beeinflussen. Auch Disinfopedia wächst und gedeiht unter Mitarbeit der Netzbewohner, und obwohl man annehmen müsste, dass gerade ein solches politisches Projekt besonders unter Störern und Angreifern leidet, hat sich die Wiki-Technologie bisher als resistent erwiesen. Wer sich mit dem Thema Wissensmanagement beschäftigt, sollte auf jeden Fall ernsthaft prüfen, ob die kleine Wiki-Teeküche für seine Belange ausreicht. Und für manche Netzphilosophen sind die erfolgreichen Experimente mit den offenen Websites dann auch mehr als nur ein gelungenes Beispiel für gemeinschaftliches Arbeiten: Sie seien auch Beweis dafür, dass die menschliche Konstruktivität größer ist als ihre zerstörerischen Kräfte. Ein digitaler Hoffnungsschimmer."
  2. Sixtus, M.: Ohne Filter : Weblogs entwickeln sich zu einem Massenphänomen, doch die neue Internet-Publizistik ruft auch Kritiker auf den Plan (2005) 0.01
    0.010241175 = product of:
      0.0409647 = sum of:
        0.0409647 = weight(_text_:und in 3343) [ClassicSimilarity], result of:
          0.0409647 = score(doc=3343,freq=64.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.34630734 = fieldWeight in 3343, product of:
              8.0 = tf(freq=64.0), with freq of:
                64.0 = termFreq=64.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3343)
      0.25 = coord(1/4)
    
    Abstract
    Ein neues Kommunikationsinstrument breitet sich im Internet aus, das Weblog: eine Plattform für Meinungs- und Informationsaustausch, deren Korrektiv die Gemeinde der Internet-Nutzer ist. Kritiker verunglimpfen Blogs als "Gerüchteschleudern", Befürworter feiern die kostengünstige Technik als revolutionär - Blogger schaffen eine neue Form der Öffentlichkeit und sie schauen Politikern und Journalisten auf die Finger. Weblogs sind Online-Tagebücher, die regelmäßig von ihren Autoren aktualisiert werden und dem Leser die Möglichkeit geben, den Einträgen eigene Kommentare beizufügen. Alle "Blogs" verweisen auf andere Internetseiten oder "Blogs". In Deutschland gibt es 36.000 Weblogs, in den USA sind es bereits 7,8 Millionen.
    Content
    ""Was ist ein Blog, wollte Günther Jauch neulich in seinem TV-Quiz "Wer wird Millionär" wissen. Immerhin: 16 000 Euro hätte die Beantwortung eingebracht. Doch auch der 50:50-Joker, der die möglichen Antworten auf "Tagebuch im Internet" und "Feind-, liehe Übernahme" reduzierte, half der jungen Kandidatin nicht weiter -,sie musste passen. Schämen muss sie sich deswegen nicht: Nach einer Studie . des Marktforschungsunternehmens Berlecon Research können 63 Prozent der deutschen Internet-Nutzer mit dem Begriff "Blog" nichts anfangen. Anders in den USA: Dort kürte der renommierte Wörterbuch-Verlag Merriam Webster diese Vokabel im vergangenen Dezember zum Wort des Jahres. 32 Millionen US-Amerikaner lesen regelmäßig Blogs, fand eine Studie des PEW Internet and American Life Project heraus: Doch von einer einheitlichen Einschätzung dieses Massenphänomens ist man jenseits des Atlantiks noch weit entfernt. "Revolution" und "Demokratisierung der Medienwelt" jubeln die einen, "Gerüchteschleudern" und "Lauffeuerklatsch" zetern die anderen. Klar ist: Irgendetwas passiert gerade. Aber was? Der Begriff Blog ist die Kurzform von Weblog, einem Kunstwort aus Web und Log(buch). Per Definition ist eine Weblog eine Internetseite, die regelmäßig aktualisiert wird und deren neuester Beitrag immer an erster Stelle steht. Revolutionär klingt das erst mal nicht. Schaut min, sich ein paar typische Weblogs an, hat man selten das Gefühl, etwas Spektakuläres zu entdecken. Ein wenig Text, ein paar Bilder, eine Hand voll Links: Deshalb die ganze Aufregung? Umwälzende Neuerungen kommen häufig ohne Trommelwirbel und Fanfaren auf die Welt. Ein Erfolgsgeheimnis des Blog-Booms findet sich unterhalb der schlichten Oberfläche. Kleine serverseitige Systeme sorgen dafür, dass es ungefähr so schwierig ist ein Weblog zuführen wie eine E-Mail zu verschicken. Diese Bonsai-Versionen der großen Content-Management-Systeme, welche im Hintergrund professioneller OnlineMagazine werkeln, befreien die Blogger von den technischen Mühen, die das Publizieren im Web bislang mit sich brachte.
    Für jedermann erschwinglich Bei den meisten Weblog-Diensten dauert es nur wenige Minuten, ein neues Blog zu eröffnen. Je nach Ausstattung zahlt man dafür gar nichts 'oder eine geringe monatliche Gebühr. Wer es individueller mag, kann auf Dutzende unterschiedliche Blog-Software in allen Leistungs- und Preisldassen zugreifen. Eintrittskarten in den vormals exklusiven Club der Publizisten sind somit schlagartig für jedermann erschwinglich. Der Medienberater Terry Heaton sagt: "WeblogTechnik senkt die Einstiegshürde in die Medienwelt signifikant. Früher benötigte man enormes Kapital, um mitspielen zu dürfen, heute reicht ein billiger Computer." Dieser Aspekt ist es nicht allein, der das wirklich Neue ausmacht an der Blogosphäre, wie man die Gesamtheit aller Weblogs nennt Die Suchmaschine "Technorati" verzeichnet derzeit 7,8 Millionen Blogs - und zählt darin 937 Millionen Hyperlinks. Zum Vergleich: "Blogstats.de" zählte voriges Jahr 36.000 deutschsprachige Weblogs, die 1,2 Millionen Verweise enthalten. Permanent "verlinken" Blogger amüsante Fundstücke und Artikel mit politischen Kommentaren, sie verweisen auf Filmkritiken und wissenschaftliche Analysen - und natürlich setzen sie besonders oft und gerne Links auf andere Blogs. Diese enge Vernetzung ist es, welche die Blogwelt so dynamisch und explosiv macht; Informationen verbreiten sich in ihr virusartig. Selbst wenn einzelne Weblogs nur über eine Hand voll regelmäßige Leser verfügen, Tausende von Blogs können schnell einen enormen Aufmerksamkeitsstrom erzeugen - und auf die klassischen Medien einwirken. In der heißen Phase des US-Präsidentschaftswahlkampfes präsentierte CBS-Anchorman Dan Rather in der Sendung "60 Minutes" Dokumente, die belegen sollten, dass George W. Bush seinen Militärdienst geschwänzt hatte. Nur neun Minuten später, noch während die Sendung lief, tauchten in Blogs erste Zweifel an der Echtheit dieser Papiere au£ Die Blogger betätigten sich daraufhin als Amateurdetektive: Einer kannte einen Spezialisten für alte Schreibmaschinen, ein anderer war Experte für Militärformulare, ein dritter machte vor, wie schnell man solche Dokumente mit Hilfe des Schreibprogramms Word nachbauen kann. Rather konnte diese Vorwürfe nie entkräften und nahm schließlich seinen Hut.
    Nicht nur an Politikern und Journalisten erproben Blogger ihre Kräfte: In einem Spezialforum für Biker publizierte ein Nutzer aus San Francisco ein kurzes Video, das demonstrierte, wie leicht man die teuren Bügelschlösser, der Marke "Kryptonite" mit Hilfe eines schlichten Kugelschreibers überlisten kann. Wochenlang verbreitete sich dieser Skandal in der Blogosphäre, bis auch die New York Times darüber berichtete und die Hersteller in Erklärungsnot brachte. In allen diesen Fällen reagierten die Beschuldigten zunächst hilflos auf die Vorwürfe. Auf E-Mail-Anfragen der Blogger reagierten sie meist gar nicht. Solcherlei Arroganz heizt die' Diskussionstemperatur noch an. "Kryptonite schien nicht recht erfasst zu haben, dass sie nicht nur ein kleines Problem, sondern eine handfeste Krise hatten", resümiert der Internet-Berater Martin Roell. Er prophezeit: "Künftig werden immer mehr Produktprobleme online entdeckt werden und Kommunikationskrisen online starten: Nur wenige Unternehmen sind darauf vorbereitet." Laien schaffen Gegenöffentlichkeit Nicht alle sind begeistert von der' neuen Je-dermann-Publizistik. "Ist also jeder Laie berufen, journalistisch eine Art Gegenöffentlichkeit zu schaffen?", fragte kürzlich der Medienjournalist Holger Wenk im Gewerkschaftsmagazin M, um sich kurz darauf selbst die Antwort zu geben: "Mitnichten!" Das Medienmagazin Insight will die Ursache des "Problems" im "Senfstau" entdeckt haben: "Jahrzehntelang unentdeckt und allenfalls vermutet, zeigt sich in Deutschland mehr und mehr die Existenz einer gewaltigen angestauten Menge nicht dazugegebenen Senfes." Auch in den USA beziehen Blogger Prügel von professionellen Publizisten. Beispielsweise von Jonathan Klein: Ein typischer Blogger sei "ein Typ, der in seinem Pyjama im Wohnzimmer sitzt und schreibt`; verkündet der einstige Fernsehjournalist seine Vorstellung über den prototypischen Weblog-Autoren und dessen bevorzugte Kleidung. Der Pyjama-Vorwurf ist seitdem zu einem geflügelten Wort in der Blogosphäre geworden. Der Journalist und Blogger Jon Carroll schrieb kürzlich: "Pyjamas beschädigen nicht zwangsläufig die Qualität der Informationen, die das Gehirn einer Person durchlaufen, die gerade einen Pyjama trägt." Der Journalist und Autor Dan Giltmor verweist auf die selbstkorrigierenden Kräfte im Internet: "Wenn du etwas Unwahres sagst, wird es nicht lange dauern bis jemand es richtig stellt." Tatsächlich unterscheiden sich Blogs in einem wichtigen Detail von herkömmlichen Netzpublikationen: Eine Kommentarfunktion 'erlaubt es jedem Leser, eine eigene Stellungnahme unter dem jeweiligen BlogEintragzu veröffentlichen. Der redaktionelle Prozess der Faktenprüfung und der Korrektur wird an die Öffentlichkeit verlagert. "Ich habe schon vor langer Zeit; begriffen, dass meine Leser immer mehr .wissen als ich sagt Gillmor, der das Manuskript seines Buches "We the Media" komplett im Internet veröffentlichte und von den Lesern seines Blogs korrigieren ließ. "Nachrichten müssen aufhören, ein Vortrag zu sein", sagt er, "stattdessen müssen sie eher einem Seminar oder einem Gespräch gleichen." Der Redakteur der US-Zeitschrift Business Week, Stephan Baker, sieht nur eine Möglichkeit, Unwahrheiten und Gerüchten in der. Blogosphäre zu begegnen: "Der beste Weg, ein gewisses Maß an Kontrolle über diesen Informationsfluss zu gewinnen ist" dazu beizutragen." Seinen Lesern empfiehlt er: "Lesen Sie ein Blog oder zwei und veröffentlichen Sie dort Kommentare. Besser noch: Beginnen Sie Ihr eigenes Blog.""
  3. Sixtus, M.: Wikipedia im Meinungsstrudel (2005) 0.01
    0.009715633 = product of:
      0.03886253 = sum of:
        0.03886253 = weight(_text_:und in 4046) [ClassicSimilarity], result of:
          0.03886253 = score(doc=4046,freq=40.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.328536 = fieldWeight in 4046, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4046)
      0.25 = coord(1/4)
    
    Abstract
    Erstemals bekam die Online-Enzyklopädie Schelte von Kritikern und Medien zu spüren. Gut möglich, dass ihr das weiterhilft.
    Content
    "Was Medienberater ihren Schützlingen aus Politik, Popmusik und Sport als erste Lektion einbläuen, musste in diesem Monat auch die Community um die freie Online-Enzyklopädie Wikipedia lernen: Die Windrichtung der öffentlichen Meinung dreht sich bisweilen blitzartig um 180 Grad. Im Jahr 2005 war das erste Mal eine breite Öffentlichkeit auf das Wikipedia-Projekt aufmerksam geworden. Die Berichterstattung oszillierte meist zwischen Staunen, Wohlwollen und Euphorie. Doch zum Jahresende kippt nun die Stimmung. Auslöser war ein wütender Artikel, den der Publizist John Seigenthaler Anfang Dezember in Amerikas meistgelesener Tageszeitung USA Today veröffentlichte. "Ich habe keine Ahnung, welches kranke Hirn sich das ausgedacht hat", schimpfte Segenthaler und meinte damit einen unbekannten Vandalen, der etliche falsche Aussagen in die Wikipedia-Version von Seigenthalers Biografie hineingepfuscht hatte. Die Stimmung kippt So konnte man dort lesen, es habe der Verdacht bestanden, er sei am Kennedy-Attentat beteiligt gewesen und habe später mehrere Jahre in der Sowjetunion gelebt. "Ich dachte, mit 78 Jahren könnte mich nichts mehr überraschen oder verletzen, was an Negativem über mich gesagt wird, schrieb Seigenthaler und fügte hinzu: "Das stimmt nicht." Was ihn besonders aufregte: 132 Tage lang hatte niemand die falschen Behauptungen korrigiert, obwohl das jedermann möglich gewesen wäre. Im daraufhin losbrechenden Kritik- und Empörungs-Sturm, der durch die internationale Presse fegte, schwingt fast ein wenig Erleichterung mit, darüber, dass die selbst gebaute Wissenssammlung doch nicht perfekt ist. Berufszyniker, die schon immer gewusst hatten, dass die Menschen nun mal schlecht sind und in deren Weltbild eine Gemeinschaft altruistischer Informationssammler partout nicht passen will, triumphierten in aller Öffentlichkeit. So hetzte das britische, im Dauer-Sarkasmus-Modus laufende Online-Magazin The Register. "Es gibt keinen Wikipedia-Eintrag für Moralische Verantwortung." Andere Register-Redakteure freuten sich diebisch, dass es ihnen gelang, eine Fake-Information in die Biografie von Wikipedia-Gründer Jimmy Wales hineinzuschummeln. "Jimmy Wales wurde am 12. Dezember 2005 von einem Freund John Seigenthalers erschossen; stand dort plötzlich zu lesen - laut EditierLog allerdings nur präzise eine Minute lang. Der Software-Entwickler Dave Winer beschwerte sich in seinem Blog lautstark über einen "schlampigen" Artikel, der ihn falsch zitiert. Andere suchten und fanden weitere Haare in der freien Wissens-Suppe. Auch die Tageszeitung Die Welt will plötzlich entdeckt haben, dass sich in der Wikipedia "mehr und mehr Ungereimtheiten, Fehlinformationen, Verdrehungen, Propaganda und Lügen" ansammeln.
    Arne Klempert, zweiter Vorsitzender und Sprecher der Wikimedia e.V sieht die aktuelle Kritikwelle erstaunlich gelassen. "Uns war bei all dem vorangegangenen Lob und all der Schwärmerei der Medien selbst etwas unwohl" beschreibt er die Stimmung unter den Internet-Enzyklopädisten. Vielleicht sei der Hagelsturm sogar förderlich für das Projekt: "Maßnahmen zur Qualitätssicherung und -steigerung diskutieren wir innerhalb der Gemeinschaft bereits seit Jahren." Die Krise als Chance: Nun könnten vielleicht auch Wiki-Puristen und Offenheits-Dogmatiker einsehen, dass grenzenlose Freiheit für jedermann nicht grundsätzlich der beste Weg ist. Die ersten Einschränkungen sind bereits auf den Weg gebracht. So soll es künftig stabile Artikelversionen geben, in die Änderungen erst nach Abnahme durch die Gemeinschaft gelangen können. "Der Nutzer wird dann die Wahl haben, ob er sich die stabile oder die aktuelle Artikelversion anzeigen lässt", erläutert Klempert. "Dieser Schritt war schon länger geplant", weist Arne Klempert einen Zusammenhang mit der aktuellen Qualitätsdebatte zurück. In der deutschen Wikipedia-Version sei diese Hürde jedoch nicht vorgesehen. "Die deutsche Ausgabe hat keinen exponentiellen Zuwachs an neu angelegten Artikeln. Das ist in dein USA ein viel größeres Problem." Doch wer weiß? Vielleicht befindet sich das Medienpendel ja bereits wieder auf dem Rückweg in wohlwollendere Gefilde? Das Wissenschaftsmagazin Nature verglich jüngst Artikel des Online-Lexikons mit ihren Gegenstücken aus der renommierten Enzyclopedia Britannica und kam zu dem Ergebnis: Beide Nachschlagewerke enthalten einige Fehler und Auslassungen, die Wikipedia nur ein wenig mehr. Dieser Umstand reicht offenbar bereits aus, den Blätterwald wieder jubilieren zu lassen. Die Rheinische Post spricht von einem "Ritterschlag für die Online-Enzyklopädie" und auch Die Welt hat ihre erst jüngst so dramatisch vorgetragenen Bedenken schon über Bord geworfen und feiert stattdessen den "Triumph der Lexikon-Amateure". Diese Reaktionen sind Arne Klempert schon wieder entschieden zu hochgestimmt. Er relativiert: "Schließlich waren in diesem Vergleich unsere Artikel nur annähernd so gut wie die professionell geschriebenen und nicht etwa besser." Ein wenig Medienschelte hat er auch dabei: "Wir sagen in Interviews eigentlich immer wieder ganz deutlich, dass die Wikipedia weit von einer eventuellen Perfektion entfernt ist, aber nur die wenigsten Journalisten wollen das hören.""
  4. Sixtus, M.: Absturz im zweiten Level : Wenn in Computerspielen plötzlich Waffen versagen, könnte das an einem neuen Kopierschutz liegen - der bald auch DVD-Seher überraschen soll (2003) 0.01
    0.009483461 = product of:
      0.037933845 = sum of:
        0.037933845 = weight(_text_:und in 2970) [ClassicSimilarity], result of:
          0.037933845 = score(doc=2970,freq=28.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.3206851 = fieldWeight in 2970, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2970)
      0.25 = coord(1/4)
    
    Content
    "Sowjettruppen haben das kleine Eiland Nogova besetzt. Nur Widerstandskämpfer Victor Troska und seine Mannen sind in der Lage, den Eindringlingen Gegenwehr zu leis- ten. Die Szenerie des PC-Spiels Upmtion Flashpoint ist zu Zeiten des Kalten Kriegs angesiedelt und glänzt nicht unbedingt durch Originalität. Es sei denn, es liegt eine kopierte CD im Laufwerk. Denn neben bösen Russen, Explosivgeschossen und anderen genreüblichen Unannehmlichkeiten haben sparsame Fans des Ballerabenteuers mit ganz außergewöhnlichen Schwierigkeiten zu kämpfen: Urplötzlich versagen Waffen, Spielstände lassen sich auf einmal nicht' mehr speichern, und sich spurlos auflösende Ausrüs-tungsgegenstände vermiesen ihnen zunehmend das Vergnügen. "Fade" nennt die Computerspielindustrie ihren Trick. Er soll Kopierschutz und Marketingmasche zugleich sein. Zunächst ist es problemlos möglich, die Software zu vervielfältigen. Und anfangs laufen die Kopien perfekt. Aber mit zunehmender Spieldauer büßen sie mehr und mehr ihre Funktionalitäten ein, bis die genervten Bildschirmdaddler schließlich kapitulieren und das Originalspiel kaufen-das hoffen zumindest die Hersteller. Die britische Spieleschmiede Codemaster hat "Fade" entwickelt. Das Verfahren gehört mittlerweile zum Safedisc-Paket des Kopierschutzspezialisten Macrovision: Unternehmenssprecher Simon Mehlman äußert sich zurückhaltend: "Es ist durchaus begründet anzunehmen, dass der Vorgeschmack auf ein Spiel einen illegalen User dazu ermuntern kann, sich die Software zu kaufen. In erster Linie handelt es sich bei Fade und Safedisc aber um einen Schutz vor Raubkopien." Die Sicherung wird nicht, wie sonst bisher üblich, dem fertigen Spiel übergestülpt. "Unser System erlaubt es den Programmierern, Kopierschutz und AntiHack-Codes bereits während der Entwicklung des Spieles einzufügen "Unerwünschtes Raubkopieren zu verhindern wird damit tatsächlich zu einem kreativen Vorgang: Bereits in der Planungsphase können die Autoren überlegen; über welche Funktionen, die versagen, sich illegale Spieler wohl am meisten ärgern. Der Kopierschutz wird so zu einem Teil des Drehbuchs und - wenn man so will - zu einem Spiel im Spiel: Nicht nur kopierte Computergames haben sich die Leute von Macrovision vorgenommen: Im nächsten Schritt sollen auch Nutzer vervielfältigter Film-DVD Überraschungen der unangenehmen Art. erleben. Mit Hilfe eines ähnlichen Verfahrens namens Safe-DVD soll ein Spielfilm beispielsweise an einer besonders spannenden Stelle einfrierenoder einzelne Szenen nur in einer Endlosschleife zeigen. Nun ist das Erstellen. einer privaten Sicherheitskopie in Deutschland auch nach der Urheberrechtsnovelle egal - sofern dabei' nicht ein Kopierschutz umgangen wird. Laut Macrovision ist es allein Sache der Spielehersteller, den Käufern auf den eventuellen Einsatz von Fade aufmerksam zu machen. Wie kann der rechtmäßige Besitzer einer Software oder eines Films denn nun ein Backup seines Datenträgers herstellen, ohne dass plötzlich auch die legale Kopie an einem wundersamen Funktionsschwund leidet? Zu dieser Problematik möchte man sich im Hause Macrovision nicht äußern. Das muss nicht überraschen, haben sich die Kopierschützer mit ihrem originellen Vorgehen wohl unabsichtlich in eine rechtliche Grauzone gebracht. Erfahrungsgemäß dürften die ersten Tools, die in der Lage sind, Fade auszuhebeln, nicht lange auf sich warten lassen. Ob die Umgehung eines Kopierschutzes, der sich selbst als solcher nicht zu erkennen gibt, strafrechtlich relevant ist, darüber dürften wohl noch einige juristische Fachschriften verfasst werden. Kenner der Szene zweifeln indes auch an dem Erfolg einer Marketingstrategie, die auf der Selbstzerstörung des Produkts basiert. Sie verweisen stattdessen auf den Erfolg der Ego-Shooter Doom und Quake. Die Millionenseller kommen seit jeher gänzlich ohne Kopierschutz aus."
    Footnote
    Falsche Fehler: Das Kopierschutzsystem Fade schaltet auf vervielfältigten CD bestimmte Funktionen ab. Technisch basiert es auf dem Konzept "falsche Fehler". Die Originaldiskwird mit virtuellen Fehlen ge brannt-die herkömmliche Brennprogramme während des Kopierens prompt automatisch beseitigen. Findet das Spiel später die vermeintlichen Datenfehler nicht vor, beginnt der unaufhaltsame Zerfallsvorgang - und zwar genau so langsam, dass den Raubkopierern noch genügend Zeit bleibt, sich mit der virtuellen Welt anzufreunden und sich in ihr zurechtzufinden,
  5. Sixtus, M.: ¬Der Zündfunke erlischt : Der Browser "Netscape", Wegbereiter des Web, ist tot - hinterlassen hat er das Open-Source-Projekt "Mozilla" (2003) 0.01
    0.009217058 = product of:
      0.036868233 = sum of:
        0.036868233 = weight(_text_:und in 1740) [ClassicSimilarity], result of:
          0.036868233 = score(doc=1740,freq=36.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.31167662 = fieldWeight in 1740, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1740)
      0.25 = coord(1/4)
    
    Content
    "Arbeiter schrauben das Logo an der Firmenfassade ab, die zuletzt verbliebenen 58 Entwickler bekommen ihre Entlassungen. Ein Stück Internet wird Geschichte: Das Medienunternehmen AOL/Time Warner gibt Netscape auf. Damit geht nicht irgendeine Internetsoftware den Weg zum Datenfriedhof; es ist das Computerprogramm, das die explosionsartige Verbreitung des World Wide Web ermöglichte. Der Zündfunke des medialen Urknalls erlischt - und niemand scheint ihm eine Träne nachzuweinen. Wie konnte es so weit kommen? Im Jahre 1993 war das Internet noch eine Spielwiese für Datenfreaks: eine binäre Nebenwelt, die sich durch Forschungs-, Universitäts- und Militäreinrichtungen zog und von deren Existenz nur wenige wussten. Das sollte sich ändern. Der aus dem universitären Projekt NCSA-Mosaic hervorgegangene Webbrowser Netscape Navigator bescherte dem Netz eine grafische Benutzeroberfläche - und ermöglichte es so auch Personen ohne höhere Computerweihen, sich fast problemlos durch das Internet zu bewegen. Es war der Ausgangspunkt einer Medienrevolution. Das Unternehmen Netscape Communications ging am 9. August 1995 an die Börse. Am Ende des ersten Handelstags hatte sich der Aktienkurs von 28 auf 58 Dollar mehr als verdoppelt. Der Anteil am Browsermarkt wurde damals auf vier Fünftel geschätzt. Doch im gleichen Jahr brach die Epoche an, die in Internet-Geschichtsbüchern mittlerweile als "Browserkrieg" ihr eigenes Kapitel erhält. Anfang 1998 ging Spätstarter Microsoft zwar mit einigen Monopolrechtsklagen-Stacheln, sonst aber weitgehend unbeschadet als Sieger aus der zum David-gegen-GoliathKampf stilisierten Machtprobe hervor. Da nutzte es auch nichts mehr, dass Netscape-Gründer Marc Andreessen und Vorstandschef Jim Barksdale im Frühjahr 1998 die Reißleine zogen - und die Programmzeilen des Browsers veröffentlichten. Das Kalkül dabei: Freiwillige Entwickler aus aller Welt sollten helfen, seine Software zu verbessern. Das Open-Source-Projekt Mozilla.org entstand. Viele bewerteten den Schritt freilich als unternehmerischen Offenbarungseid. David hatte vor Goliath kapituliert. Ende des Jahres übernahm schließlich AOL das Unternehmen Netscape - für 4,2 Milliarden US-Dollar. Spätestens mit dem Verkauf sahen Skeptiker den Niedergang besiegelt. Sie wiesen darauf hin, AOL dürfte kaum Interesse an der Software haben, sondern sich eher für das populäre Webportal Netscape.net interessieren. Der Browser sei lediglich Drohkulisse und Joker in Verhandlungen mit Microsoft. Heute scheint es, als hätten die Schwarzseher Recht behalten. Im Rahmen eines Vergleichs, als Abschluss eines langen Kartellrechtsprozes ses, zahlte Microsoft im Mai diesen Jahres 750 Millionen Dollar an AOL - und erlaubte dem Onlinedienst, in den kommenden sieben Jahre den Internet Explorer in seine Zugangssoftware einzubauen. Netscape hatte seine Schuldigkeit getan. Es war als Faustpfand überflüssig geworden. Auch an anderer Stelle war Netscape entbehrlich: als schmückender Einband und Namenshülse für das Open-SourceProjekt Mozilla. Während im Laufe der vergangenen Jahre der unabhängige Browser mit der Echse sich zur schlanken, schnellen und leistungsstarken Alternative zum Internet Explorer mauserte - und ihn nach Ansicht vieler Experten um Längen überholt hat -, gelang es Netscape unter der AOL-Ägide stets, seine Fans mit unausgegorenen und überhastet veröffentlichten Programmversionen zu verärgern, die oft schlampig programmiert und lieblos zusammengeschustert waren - obgleich doch darin das gleiche Herz schlägt wie in Mozilla. So verwundert es kaum, dass sich der Verlustschmerz in Grenzen hält: Die meisten Netscape-Fans sind längst zur Echse gewechselt, und allseits gilt die metaphysische Sprachregelung: "In Mozilla wird Netscape weiterleben."
    Die Leguan-Entwickler finden in der nicht gewinnorientierten Stiftung Mozillafoundation ein neues Zuhause. Zur Gründung überweist AOL eine Anschubspende von zwei Millionen Dollar - ob aus alter Treue oder aus schlechtem Gewissen sei dahingestellt. Lotus-Entwickler und künftiger Vorstand Mitch Kapor steuert 300000 Dollar aus seiner Privatschatulle bei. Mit dem Linux-Distributor Redhat und dem Microsoft-Erzfeind Sun-Microsystems haben die ersten prominenten Unternehmen ihre Unterstützung zugesagt. Die alte und neue Chef-Entwicklerin Mitchell Baker übt sich bereits in unverhohlenen Kampfansagen in Richtung Microsoft: "Wir haben halt den besseren Browser, und das ist es, worum es geht." Laut der Statistiksite OnStat.com verfügt Mozilla derzeit über einen Marktanteil von 1,2 Prozent, Netscape liegt bei 2,9 Prozent. Der Microsoft Internet Explorer kontrolliert mit 95,3 Prozent den Browsermarkt nahezu alleine. Insofern erscheinen die markigen Worte aus der ReptilienFraktion zumindest mutig. Aber über die Ausgangslage ist man sich im MozillaTeam durchaus im Klaren: Nur ein Markenstreit verhinderte, dass die neue Miniversion des Browsers Firebird einen Namen bekam, in dem noch eindeutigere Symbolik mitschwingt: Phoenix. Seit dieser Woche steht die deutsche Version von Netscape 7.1 zum kostenlosen Download bereit. Für Kenner der Materie das beste Stück Software, das je das Label Netscape trug. Leider zu spät."
  6. Sixtus, M.: Füttern erlaubt : Webseiten versorgen zunehmend "Feedreader" mit Informationen - das erlaubt gezieltes Lesen statt langem Surfen (2003) 0.01
    0.008957369 = product of:
      0.035829477 = sum of:
        0.035829477 = weight(_text_:und in 1646) [ClassicSimilarity], result of:
          0.035829477 = score(doc=1646,freq=34.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.3028952 = fieldWeight in 1646, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1646)
      0.25 = coord(1/4)
    
    Content
    "Wer im Jahr 2003 in seinen Lieblingsthemen detailliert informiert sein möchte, klappert täglich Dutzende von News-Sites und Webmagazinen ab. Ein Unterfangen, das mitunter recht mühselig sein kann: Neben, über und unter den gewünschten Nachrichten quälen sich bei jedem Aufruf Menüleisten, Banner und Grafiken durch die Leitung, und oft genug wurde die Seite seit seinem vergangenen Besuch nicht einmal aktualisiert. RSS-Clients, auch Feedreader genannt, könnten künftig Surfern die zeitaufwendige Handarbeit abnehmen. Das Prinzip ist denkbar einfach: Die Betreiber von Webangeboten stellen - neben den HTML-Seiten, die übliche Browser benötigen - einen so genannten Newsfeed zur Verfügung. Genau genommen handelt es sich dabei um nichts Weiteres. als eine speziell kodierte Textdatei mit berschriften, Zusammenfassungen und Textausschnitten der jeweils jüngsten Meldungen. Der Feedreader dreht in regelmäßigen Abständen seine Runden, holt diese Dateien und - wieder daheim - präsentiert die enthaltenen Informationen übersichtlich lesbar. Erst ein Klick auf eine Überschrift lädt den entsprechenden Originalartikel schließlich in den Webbrowser. Statt sich der Reizüberflutung auf Dutzenden, unterschiedlich gestylten Websites auszusetzen, genügt so ein Blick auf die systematisch geordneten Texteinträge im Fenster des Feedreaders, um zu entscheiden, welche Beiträge einer genaueren Betrachtung würdig sind und welche nicht. Diese Sammel-und-Zeige-Programme gibt es mittlerweile in vielen Geschmacksrichtungen und für nahezu jedes Betriebssystem (siehe "Feedreade"). Der Haken: Die Betreiber der Webangebote müssen den Dienst unterstützen und die nötigen RSS-Dateien zur Verfügung stellen. Da sich die meisten News-Magazine allerdings mit Bannerwerbung finanzieren, standen ihre Herausgeber dieser Verbreitung ihrer Texte bisher skeptisch gegenüber. Doch langsam denken viele um: Immerhin kann das System Besucher anlocken. Und nicht irgendwelche. Die Leser sind ausgesprochen interessiert und motiviert, da sie sich explizit für ein bestimmtes Angebot entschieden haben - und nicht zufällig oder unter Zeitdruck durch die einzelnen Seiten stolpern. Spätestens seit mit Yahoo einer der großen Anbieter seine aktuellen Meldungen als Newsfeed verbreitet, darf man davon ausgehen, dass etliche Mitbewerber folgen werden. So könnte die praktische Technologie in absehbarer Zeit zum nützlichen Alltagswerkzeug werden. Bis das soweit ist, übernehmen spezialisierte Dienste den Job des Mittlers zwischen den Welten: Unter NewsIsFree.com kann sich jeder User seine individuelle Auswahl an RSSFeeds zusammenstellen. Sollte das betreffende Internet-Angebot die Technik noch nicht unterstützen, wird einfach kurzerhand der notwendige Feed extern generiert - ob es dem Betreiber nun passt oder nicht. Der Service ist in der Basis-Version kostenlos. RSS steht für "Rich Site Summary". Doch zuletzt werden die drei Buchstaben häufiger als Akronym für "Really Simple Syndication" eingesetzt. Die Idee geht zurück auf das Jahr 1999, als das mittlerweile beinahe verblichene Unternehmen Netscape mit Hilfe dieses Verfahrens die Popularität seines Portals MyNetscape.com erhöhen wollte. Der Durchbruch kam mit der Verbreitung der Weblogs. Angeregt durch die Integration des RSS-Standards in das beliebte Blog-Tool Radio Userland, übernahmen die Hersteller anderer Publishing-Systeme schnell diese Strategie, und heute kommt kaum noch ein Online-Journal ohne eigenen Newsfeed aus - erkennbar am kleinen XML-Button auf der Startseite.
    Die Neuigkeits-Ströme können mehr, als einen schnellen Überblick über frische Artikel zu verschaffen: Mit Hilfe kleiner, handlicher Skripte lassen sich die externen Inhalte problemlos in eigene Webseiten einbinden. Die Aktualisierung läuft dabei automatisch. Einmal integriert, kann man so seinen Besuchern, neben den eigenen, stets aktuelle Meldungen aus anderen Ecken des Netzes anbieten. Vor allem wissenschaftliche oder fachspezifische Portale nutzen das zunehmend. Unterschiedliche Entwicklerteams mit verschiedenen Zielrichtungen haben in den vergangenen Jahren unglücklicherweise für eine recht unübersichtliche Versionsvielfalt im RSS-Lager geführt. Will man auf Nummer sicher gehen, empfiehlt sich der angestaubte Standard 0.91. Zwar hat sich eine Gruppe von Programmierern aufgemacht, News-Syndication mit einem einheitlichen Format aufs nächste Level zu befördern. Doch einstweilen scheinen zunächst noch einige Glaubenskriege ausdiskutiert zu werden. Bislang herrscht noch nicht einmal Einigkeit über den Projektnamen. Davon gänzlich ungerührt schickt sich die RSS-Technologie an, mindestens einen Veteranen aus den Anfangstagen des Internets abzulösen: den Newsletter. In den zunehmend überquellenden Postfächern finden die elektronischen Rundmails sowieso kaum Beachtung, und wer regelmäßig seinen Feedreader im Auge behält, benötigt schlichtweg keine Benachrichtigungen per E-Mail. Ob künftig kommerzielle Websites die Möglichkeiten der News-Syndication nutzen und Hinweise auf fremde Seiten in ihr Angebot integrieren werden, darf bezweifelt werden. Man stelle sich folgendes Szenario in der Offline-Welt vor: Neben einem Artikel im gedruckten Spiegel findet sich ein Kasten mit den Hinweisen: Zu diesem Thema finden Sie im aktuellen Focus diesen Beitrag und im neuen Stern jenen. Unvorstellbar. Aber bei genauerer Betrachtung wahrscheinlich sogar vorteilhaft für alle Beteiligten. Im Web ist das technisch bereits ohne weiteres machbar. Allein der Wille fehlt. Bisher."
  7. Sixtus, M.: Falsche Türen : Google kämpft gegen Tricks, mit denen sich Webseiten in den Suchlisten nach oben drängeln - und bestraft BMW (2006) 0.01
    0.007891355 = product of:
      0.03156542 = sum of:
        0.03156542 = weight(_text_:und in 4917) [ClassicSimilarity], result of:
          0.03156542 = score(doc=4917,freq=38.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.26684773 = fieldWeight in 4917, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4917)
      0.25 = coord(1/4)
    
    Content
    ""Das Suchen hat einen religiösen Charakter angenommen. Die Leute wollen gar nicht mehr finden, sie wollen suchen", sinnierte kürzlich der Netzpionier und Schriftsteller Peter Glaser. Vielleicht bleibt den Menschen nichts anderes übrig als eine Recherche ähnlich wie eine buddhistische Meditation anzugehen. Denn, dass sie finden, was sie suchen, wird immer weniger wahrscheinlich. "Deutschland ist momentan sicher das Spam-Land Nummer eins", bestätigt Stefan Keuchel, nationaler Sprecher von Google. Er meint damit nicht die Massenmails, die für raubkopierte Software und Genitalvergrößerungen werben, sondern SuchmaschinenSpam: Webseiten, die es nur gibt, um weit oben in den Trefferlisten aufzutauchen. Wer eine Suchmaschine nach Test- oder Erfahrungsberichten zu einem bestimmten Produkt bemüht, kennt das: Auf den ersten Seiten tummeln sich Preisvergleichsdienste, ominöse Branchenverzeichnisse, oder man wird ungefragt auf eine Internetauktion umgeleitet. Oft genug haben die Seiten nichts mit der Suchanfrage zu tun. Diese Form der Bauernfängerei ist ärgerlich und zeitraubend für die Nutzer einer Suchmaschine - und gefährlich für ihre Betreiber. Mit der sinkenden Qualität der Ergebnisse verlieren sie Vertrauen - und Werbekunden. BMW wollte mit dutzendfachen Wortwiederholungen täuschen Zwar ändern Google, Yahoo und die anderen ständig ihre Bewertungen, um die falschen Treffer zu verdammen. Allerdings beschränkten sie sich dabei bislang auf ihren englischsprachigen Heimatmarkt. Das soll sich nun ändern. Vor rund drei Wochen gab Software-Ingenieur Matt Cutts, bei Google für die Qualität der Suchergebnisse zuständig, in seinem Weblog bekannt, man wolle sich verstärkt dem nicht-englischsprachigen Internet widmen. Das erste prominente Opfer: BMW. Die Hauptadresse des bayerischen Autobauers www.bmw.de war in dieser Woche bei Google zeitweise nicht zu finden. Mittlerweile taucht sie dort wieder auf. Die Höchststrafe fing sich BMW ein, weil das Unternehmen mit Brückenseiten arbeitete. Das sind Phantomseiten, die mit dutzendfachen Wiederholungen von Worten wie Gebrauchtwagen, Neuwagen, Jahreswagen und natürlich BMW die Suchmaschinenroboter füttern sollen. Menschliche Internetnutzer sehen die Wörtersuppe nicht, sie werden automatisch auf eine andere Seite gelenkt. "Das ist einklarer Verstoß gegen unsere Richtlinien% sagt Google-Sprecher Keuchel. Auch BMW habe Regeln für seine Zulieferer. Naturgemäß sieht das München anders. Zwar gesteht Sprecher Markus Sagemann die umstrittenen Trickseiten ein, aber: "Wir haben den Leuten keine falschen Inhalte vorgespiegelt. Wer auf BMW-Gebrauchtwagen geklickt hat, ist auch dort gelandet." Und man solle das Thema bitte nicht groß reden: "Über Google kommen gerade einmal 0,4 Prozent unserer Besucher."
    Der Experte Philipp Lenssen hatte in seinem Weblog Anfang Februar als erster über die BMW-Praktiken berichtet. Er wundert sich: "Wenn wirklich nur so wenige Besucher via Google bei BMW landen, warum legen die dann Hunderte von Köder-Seiten aus?" Auch die Argumentation, man habe keine falschen Inhalte vorgespiegelt, hält er für verfehlt: "Welche Seiten für einen Suchbegriff relevant sind und welche nicht, bestimmt aus gutem Grund die Suchmaschine und nicht der Seitenbetreiber." Der empfinde seine Seiten stets als relevant. Einige Google-Fänger seien auf Begriffe wie BMW-Testberichte optimiert worden. "Da erwartet man doch eher, auf einer Seite neutraler Herkunft zu landen als direkt beim Hersteller." Allerdings ist es eher unwahrscheinlich, dass der Autobauer mit Methoden aus den virtuellen Rotlicht- und Spielbank-Vierteln auf Kundenfang gehen wollten. Der Griff in die Kiste der dunklen Tricks war eher eine unüberlegte Notlösung, denn zuvor waren große Teile der BMW-Seite überhaupt nicht in Suchmaschinen zu finden. Das wundert Lenssen nicht: "Die Navigation funktioniert nur mit eingeschaltetem Javascript, außerdem besteht die komplette Websites aus ineinander verschachtelten Frames", also Fenstern. Genauso gut hätte man ein "Für Suchmaschinen verboten!" auf die Site kleben können. "Die Seiten sollten einfach wieder bei einer Suche auftauchen", versucht sich BMW zu erklären. Das Sichtbarmachen der versteckten Inhalte sollte das Frankfurter Unternehmen Netbooster übernehmen. Vielleicht nicht die beste Wahl: Die Hauptadresse des Unternehmens fehlt bei Google ebenfalls. In Frankreich war die Firma bereits vor zwei Jahren negativ aufgefallen. Netbooster verweigert eine Stellungnahme. BMW scheint Opfer des Stan-Laurell-Syndroms geworden zu sein: dem Versuch, einen Fehler mit einem weiteren zu vertuschen. Die Unbeholfenheit im Umgang mit dem Internet verwundert Google-Sprecher Keuchel nicht: "Gerade die großen deutschen Unternehmen achten meist nur auf Design und Erscheinungsbild ihrer Seiten." Viele Manager verstünden nicht, wie das Netz und die Suchmaschinen funktionieren. "Und dann wundern sie sich, dass sie nicht zu finden sind", sagt Keuchel. Die Debatte könnte einem anderen Thema Auftrieb geben: barrierefreiem Webdesign. Als Faustregel gilt: Wer seine Seiten so gestaltet, dass sie ohne Zusatzprogramme oder Spezialfunktionen wie Javascript lesbar sind, macht es Suchmaschinen leicht, sie zu finden. Auch sonst könnte die Unstimmigkeit zwischen Google und BMW für ein reinigendes Gewitter sorgen. Viele Fachleute glauben, Suchmaschinen-Spammer würden aus Furcht vor dem drohenden GoogleBann nun ihre vorgeschalteten Seiten einsammeln. Dann könnte Suchen vielleicht wieder etwas mehr mit finden zu tun haben und etwas weniger mit Religion."
    Footnote
    BESSER SUCHEN - Alternativen nutzen: Auch die Konkurrenz von Google ist nicht schlecht. Klassiker sind search.msn.de und search.yahoo.de. Neu auf dem deutschen Markt ist ask.de. Das Unternehmen hat sich mit der Übernahme des vielversprechenden NewcomersTeoma frisches Fachwissen geholt. - Genauerformulieren: Liefert eine erste Anfrage zu viele irrelevante Treffer, lohnt sich ein Wechsel in den erweiterten Modus (bei Google und Yahoo: "erweiterte Suche", MSN: "Such-Assistent"). So kann man die Ergebnisse auf bestimmte Sprachen oder Länder eingrenzen. Wunder wirkt es oft, einzelne Worte (etwa "Auktion") aus der Trefferliste zu verbannen. Man kann auch bestimmte Domains aussieben. Das ist besonders hilfreich, wenn Suchmaschinen-Spammer mit Subdomains arbeiten, etwa mit shop.domain.de, kaufen.domain.de, sparen.domain.de.
  8. Sixtus, M.: Durchblick im Daten-Labyrith : Bescheidener Auftritt, starke Wirkung: Googles "Desktop-Search", das Suchwerkzeug für die heimische Festplatte, im Praxistest (2004) 0.01
    0.0075256964 = product of:
      0.030102786 = sum of:
        0.030102786 = weight(_text_:und in 6751) [ClassicSimilarity], result of:
          0.030102786 = score(doc=6751,freq=24.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.2544829 = fieldWeight in 6751, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=6751)
      0.25 = coord(1/4)
    
    Content
    "Unordentliche Zeitgenossen hatten es mit Windows-Rechnern bislang schwer. Wer sich nicht genau erinnert, wo dieses oder jenes Dokument abgespeichert liegt, war auf die systemeigene Suche angewiesen - und musste viel Geduld mitbringen. Windows durchforstet Festplatten im Schneckentempo. Der Grund: Jede Suche läuft in Echtzeit. Ein zentrales Nachschlagewerk, das sämtliche Dateien und die darin verborgenen Informationen bereit hält, kennt das Betriebsystem nicht. Erst die nächste Version, die unter dem Code-Namen "Longhorn" entwickelt wird, sollte mit dem auf Datenbanktechnik basierendem Dateisystem Win-FS das Problem beseitigen. Doch daraus wird vorerst nichts: Kürzlich hat Microsoft die voraussichtliche Veröffentlichung von "Longhorn" auf den Sommer 2006 verschoben. Und: Das intelligente Dateisystem wird darin noch fehlen; Win-FS wird frühestens im Jahr 2007 nachgeliefert. Google macht sich den Makel zunutze - und bietet mit "Desktop Search" kostenlos ein kleines Werkzeug an, das endlich flott den eigenen Rechner durchstöbert. Die 447 Kilobyte kleine Installationsdatei lässt sich unter Windows XP oder 2000 (mit Service Pack 3) ausführen. Mit älteren WindowsVersionen verweigert sie den Dienst. Nach der Installation beginnt das Programm, die Festplatten zu durchsuchen und einen Index der gefundenen Dateien zu erstellen. Google warnt zwar, der Vorgang könne mehrere Stunden dauern; auf unserem TestNotebook benötigte das Programm aber nur etwa 30 Minuten, um die prallvolle 40-Gigabyte-Platte zu erfassen. Die Google Desktop-Suche nutzt fortan die Leerlaufzeit des Rechners, die so genannte "Idle Time", um den Index auf dem neuesten Stand zu halten. Hat der PC länger als 30 Sekunden nichts zu tun, springt das Programm an und fahndet nach Dateien. Das Werkzeug findet Inhalte der gängigen Büroprogramme Word, Excel und Powerpoint; es durchforscht reine Text-Dateien, zwischengespeicherte Webseiten, Nachrichten des Instant-Messengers von AOL sowie E-Mails in Outlook und Gutlook-Express. Andere Dateien können bislang nur anhand ihres Namens gefunden werden. Noch bezeichnet Google seine RechnerRecherche als Beta-, also unfertige Vorab-Version. Zurzeit gibt es nur eine Variante in englischer Sprache. Etwas kurios: Während der Installation fordert das Programm dazu auf, sämtliche Browser-Fenster und Outlook zu schließen. Kurz darauf heißt es: "Outlook kann nur durchsucht werden, wenn das Programm geöffnet ist."
    Die Oberfläche spartanisch zu nennen, würde den Kern nicht treffen: Genau genommen gibt es gar keine Oberfläche. Die installierte Suchfunktion erkennt man nur daran, dass die Google-Homepage nun auch den Suchbereich "Desktop" anbietet. Einkleines Symbol am Bildschirmrand neben der Uhrzeit bietet außerdem Zugriff auf die Einstellungen. Was Ungeübte verwirren könnte: Auch nach einer Google-Suche im Web erscheinen Treffer von der eigenen Festplatte unter der Überschrift "Results stored an your Computer". Diese Suchergebnisse sehen natürlich ausschließlich die jeweiligen Anwender. Erst darunter folgen die gewohnten Ergebnisse aus dem Netz. Datenschützer sind auf das kleine Programm aufmerksam geworden: "Die Kernfrage ist, ob dieses Ding nach Hause, zum Mutterschiff telefoniert % sagt Pam Dixon, Direktorin des World Privacy Forums. Google versichert, es würden keinerlei Informationen über den Festplatteninhalt an Unternehmen übermittelt. Auch während unseres Kurztests konnten wir keinerlei verdächtige Verbindungen feststellen. Aller. dings schickt die Desktop-Suche nach eigenen Angaben von Zeit zu Zeit Informationen über Programmabstürze und "nichtpersönliche Nutzungsdaten" auf den Weg.. Skeptische Zeitgenossen können die Funktion unter "Preferences" abstellen. Wer einen Rechner mit anderen Nutzern teilt, sollte sich die Installation der Suchfunktion gründlich überlegen. Denn problematisch könnte werden, dass das fleißige, Progrämmchen-unter anderem auch Seiten im Webbrowser-Zwischenspeicher indiziert, dem,so genannten Cache. Damit legt Google unter Umständen Überbleibsel der letzten Surftour offen. Unfreiwillige Einblicke Wer also den Kontostand über das Internet abgefragt oder seine Mails übers Web gelesen hat, kann dem nächsten PC-Nutzer mitunter unfreiwilligen Einblick in sein Privat-leben geben. Der unabhängige IT-Sicherheitsexperte Richard Smith bezeichnet, die Desktop-Suche deshalb als "Spyware ". Aus dem Hause Google heißt es dazu, das Ganze sei kein Fehler, sondern ein gewolltes Merk mal. Die Suchfunktion sei schlicht nicht für Mehrplatzrechner vorgesehen. In der Praxis gestaltet sich die Arbeit mit dem Suchwerkzeug praktisch und schnell. Allerdings vermisst man Filtermöglichkeiten, um allzu umfangreiche Ergebnisseiten zurechtzustutzen: Eine "Erweiterte Suche"; wie sie Google für das Web bietet, fehlt für den heimischen Rechner bislang. Google ist mit seinem so genannten Page-Rank-Verfahren zum Star der InternetSuchmaschinen aufgestiegen. Das System bewertet die Wichtigkeit einer Seite anhand der Anzahl und der Qualität der darauf verweisenden Webseiten: Mangels Verknüp fangen lässt sich das Prinzip nicht auf -einen isolierten Computer übertragen. Somit ist Googles Werbeslogan "Durchsuchen Sie ihren eigenen Computer so wie das Internet" etwas übertrieben."
  9. Sixtus, M.: Schlüssel gegen Spam : Yahoo macht seine Technik öffentlich, die gefälschte Mails erkennt - in Hoffnung dass sie zum Standard wird (2004) 0.01
    0.0075256964 = product of:
      0.030102786 = sum of:
        0.030102786 = weight(_text_:und in 2217) [ClassicSimilarity], result of:
          0.030102786 = score(doc=2217,freq=6.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.2544829 = fieldWeight in 2217, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2217)
      0.25 = coord(1/4)
    
    Abstract
    Unerwünschte Mails legen das Kommunikationssystem der Bundesregierung lahm. Die Universität Braunschweig schaltet gar ihren Reklameschutz aus, weil selbst 20 Systeme zu langsam filtern - und gewünschte Nachrichten zu spät ankommen. Die Probleme, die Spam auslösen, spitzen sich dramatisch zu - aller verschärften juristischen Vorgaben zum Trotz. Yahoo geht nun in die Offensive und stellt fremden Anbietern und Entwicklern Teile seiner Abwehrtechnik zur Verfügung. Der Portalbetreiber hat den Programmcode an das Standardisierungsgremium Internet Engineering Task Force (IETV) übermittelt. Dass alleine Gesetze gegen Werbemails wenig bewirken, befürchten Fachleute schon lange. Als Grund nennen sie das mehr als 20 Jahre alte Transportprotokoll MP Die Abkürzung steht für "Simple Mail Transfer Protocol`: Die Absprache, die die Übertragung von Nachrichten zwischen zwei Mailrechnern regelt, hat nicht zu Unrecht "Simple" in Namen. Denn ein Test, ob die Absender wirklich die sind, die sie vorgeben zu sein, fehlt dort. Das nutzen die Absender von Reklame genauso aus wie Betrüger, die von unbedarften Internet-Nutzern Passwörter oder Zugangsdaten ergaunern wollen ("Phishing").
  10. Sixtus, M.: Verirrter Wegweiser : Die Suchmaschine Google findet nicht immer die korrekte Richtung - wie ein ungewöhnlicher Wettbewerb zeigt (2004) 0.01
    0.0075256964 = product of:
      0.030102786 = sum of:
        0.030102786 = weight(_text_:und in 2430) [ClassicSimilarity], result of:
          0.030102786 = score(doc=2430,freq=24.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.2544829 = fieldWeight in 2430, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=2430)
      0.25 = coord(1/4)
    
    Content
    Kennen Sie "Nigritude Ultramarine"? Nein? Fragen Sie doch Anil Dash. Oder vielleicht Google - aber dann könnten-Sie ebenfalls bei Dash landen. Der Internetautor ist Sieger eines ungewöhnlichen Wettbewerbs der Online-Werbefirma Darkblue: Einen Monat lang sollten Webseitenmacher Google veräppeln - und dafür sorgen, dass ihre Seite oben steht, wenn Surfer nach dem Phantasiebegriff suchen. Fast eine halbe Million Seiten stehen nun in der Ergebnisliste. Das stärkt Kritiker, die schon lange warnen, Google sei manipulierbar. Zugleich sammelt mit Yahoo und Microsoft die Konkurrenz ihre Kräfte. Die Lage für den Marktführer wird schwieriger - und das just in der Zeit, in der Google an die Börse strebt. Fachleute spekulieren, das Unternehmen wolle noch in diesem Monat seine Aktien über eine Internet-Auktion verkaufen. Die Stärke wird zur Schwäche Googles "Nigritude Ultramarine"-Schwäche ist die Folge einer eigentlichen Stärke: Die Suchmaschine merkt sich die Inhalte von Webseiten - und sie bewertet darüber hinaus deren Wichtigkeit. Als Maßstab prüft sie, wie viele andere Seiten auf die gefundene Adresse verweisen. Die Logik dahinter: Nennen viele Webautoren eine bestimmte Seite, muss sie interessanter sein als andere mit ähnlichem Inhalt. Google schaut zudem nach, mit welchen Begriffen Surfer auf weitere Angebote verwiesen werden - diese Link-Texte sind besonders wichtig für die Bewertung der Zielseiten. Politische Aktivisten nutzen das manchmal aus. Sie sorgen etwa dafür, dass bei einer Suche nach "miserable failure" ("klägliches Versagen") die Biografie von US-Präsident George W. Bush die Ergebnisliste anführt. Auch konservative Internetkenner arbeiten mit dem Trick: Eine Recherche nach "Waffles" (Geschwafel) führt zum Herausforderer John Kerry. Wesentlich ärgerlicher als solche Politik-spielereien sind' die Machenschaften vieler so genannter Search Engines Optimizers, kurz SEO. Der boomende Wirtschaftszweig lebt davon, die Webangebote der Kunden auf Trefferlisten möglichst weit nach oben zu bugsieren. Webmaster aus der Pornobranche nehmen die Grauzonen-Dienstleistungen gerne in Anspruch. Auch professionelle Ebay-Händler und Partner des Webkaufhauses Amazon arbeiten mit Tricks, um ihre Adressen mit allen nur erdenklichen Suchanfragen zu verknüpfen. Die neueste Masche: Die SEO-Branche lässt eine Software auf das Internet los, die automatisiert und massenweise Kommentare schreibt. Die austauschbaren Stellungnahmen der Güteklasse "coole Website" oder "interessanter Text" enthalten einen Verweis zu der Seite, für die geworben werden soll. Das Kalkül dabei: Google findet die Einträge und erhöht die Bewertung der verlinkten Seite. "In einer Nacht sammelten sich Hunderte der Kommentar-Spams in meinem Weblog an", stöhnt der Düsseldorfer Blogger Siggi Becker, "allesamt führten sie zu Porno-Websites des untersten Niveaus." Ihn ärgert der Arbeitsaufwand, um die Roboter-Hinterlassenschaften zu löschen. Und er fügt hinzu: "Man fühlt sich ein wenig beschmutzt."
    - Eine Chance für die Konkurrenz - Des einen Dilemma könnte des anderen Chance sein: Schon seit Monaten arbeitet der Software-Riese Microsoft an einer eigenen Suchmaschinen-Technik, um Google Marktanteile abzujagen. Vor wenigen Tagen ging eine Vorabversion der neuen MSN-Suche online. Die Startseite präsentiert sich schlicht und aufgeräumt, auch der Index wirkt aktuell. An der Relevanzbewertung scheint der Redmonder Konzern jedoch noch zu arbeiten. Eine Testsuche nach "Quitten" lieferte als ersten Treffer das Profil eines russischen Nutzers der Tagebuchschreiber-Gemeinschaft Live Journal, während die gleiche Anfrage bei Google zur Website Quitten -fast vergessene Köstlichkeiten der WDR-Sendung Hobbythek führte. Zweifellos die bessere Wahl. Einen Schritt weiter als Microsoft ist der Portalanbieter Yahoo. Bereits seit Februar indiziert er mit einer selbst entwickelten Technik das Netz. Die Qualität der Ergebnisse kann mit dem Marktführer durchaus konkurrieren, wie Fachleute bestätigen. Kein Wunder: Der Algorithmus orientiert sich an der Seitenbewertungstechnik des großen Vorbilds. Auch von grafisch beladenen Seiten nimmt Yahoo wohl Abschied - die neue Abfragemaske wirkt für YahooVerhältnisse geradezu spartanisch. Einen anderen Ansatz, die Recherche im Web zu vereinfachen, probiert das deutsche Portal Web.de. Das "Smart Search" genannte Verfahren blendet neben der Ergebnisliste einen Themenbaum ein, der helfen soll, die Treffer' einzuordnen. Die Anfrage "Koch" liefert beispielsweise die Ergänzungsvorschläge "Kochbuch" und "Rezepte`; aber auch "Robert Koch". Ein "Ministerpräsident" wurde jedoch nicht angeboten, und Begriffe wie "moved" (verschoben) oder "offers" (Angebote) dürften bei der Suche kaum weiterhelfen. Auch fällt die mangelnde Aktualität des Datenbestands negativ auf, den das Karlsruher Unternehmen vom Zulieferer Inktomi bezieht. Sollte die Konkurrenz von Google wieder stärker werden, könnte das möglicherweise auch den Deutschen Bundestag ein wenig beruhigen. Der Unterausschuss des Parlaments für Neue Medien sorgt sich um den Suchmaschinenmarkt. Um Monopolbildungen und Manipulationen vorzubeugen, sinnierte man in Berlin über die Notwendigkeit einer "öffentlich-rechtlichen" Suchmaschine. Besonders die Grünen befürchten eine mögliche Einschränkung des Rechts auf Informationsfreiheit, sollten nur wenige Unternehmen die Recherchen im Internet anbieten."