Search (4748 results, page 213 of 238)

  • × year_i:[2000 TO 2010}
  1. Kostädt, P.: Innovative Recherchemöglichkeiten in Katalogen und Bibliotheksportalen (2008) 0.01
    0.0067917244 = product of:
      0.027166897 = sum of:
        0.027166897 = weight(_text_:und in 3295) [ClassicSimilarity], result of:
          0.027166897 = score(doc=3295,freq=12.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.24009462 = fieldWeight in 3295, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=3295)
      0.25 = coord(1/4)
    
    Abstract
    Die Überführung der konventionellen Zettelkataloge in weltweit frei zugängliche Online-Kataloge zählt zu den größten Errungenschaften der Bibliotheksautomatisierung. Seit den ersten Implementierungen in den siebziger Jahren des letzten Jahrhunderts wurden die Programmfunktionen der "elektronischen Zettelkästen" stetig ausgebaut. Heutige Kataloge bilden den Kern integrierter Bibliothekssysteme, die sowohl die innerbetrieblichen als auch die geschäftsübergreifenden Prozesse unterstützen - angefangen von der Erwerbung über die Katalogisierung bis hin zur Ausleihe von Medien. Die Entwicklung der Bibliothekssysteme orientierte sich lange Zeit ausschließlich an bibliothekarischen Anforderungen. Die Bedürfnisse der Nutzer fanden kaum Berücksichtigung oder wurden in einigen Bereichen gänzlich außer Acht gelassen. Es ist daher nicht verwunderlich, dass ein Großteil der heutigen Benutzer Internet-Suchmaschinen als Einstieg für ihre Literaturrecherche verwendet. Internet-Suchmaschinen haben in den letzten zehn Jahren den Prozess der Informationsrecherche revolutioniert. Bekanntestes Beispiel ist der Weltmarktführer Google, der in Deutschland knapp 90 Prozent der an Suchmaschinen gerichteten Anfragen beantwortet. Der große Erfolg von Google gründet sich im Wesentlichen auf vier Faktoren: leichte Bedienbarkeit, Schnelligkeit der Suche, Größe des Indexvolumens und relevanzbezogene Ranking-Algorithmen. Insbesondere die von Internet-Suchmaschinen standardmäßig vorgenommene Sortierung der Treffer nach Relevanz hat das Suchverhalten der Nutzer nachhaltig beeinflusst. So zeigen verschiedene Studien, dass die Benutzer in der Regel nur zwei bis drei Begriffe in das einzeilige Suchformular eingeben und sich dann anschließend auf die Treffer beschränken, die ohne Scrollen zu erreichen sind. Durchschnittlich werden daher pro Recherche lediglich fünf Treffer angeklickt und gesichtet. Der gesamte Vorgang dauert nur etwa 15 Sekunden. Wird das Gesuchte in dieser Zeit nicht gefunden, wird die Suche abgebrochen oder modifiziert. Das bei den Suchmaschinen zur Gewohnheit gewordene Suchverhalten wird von den Nutzern zunehmend auch auf andere Recherchesysteme übertragen. Bibliotheken und Softwarehersteller von Bibliothekssystemen haben diesen Trend erkannt und in den letzten Jahren verstärkt damit begonnen, ihre Suchsysteme an die geänderten Nutzungsgewohnheiten der Endanwender anzupassen.
  2. Reiner, U.: Automatische DDC-Klassifizierung bibliografischer Titeldatensätze der Deutschen Nationalbibliografie (2009) 0.01
    0.0067917244 = product of:
      0.027166897 = sum of:
        0.027166897 = weight(_text_:und in 271) [ClassicSimilarity], result of:
          0.027166897 = score(doc=271,freq=12.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.24009462 = fieldWeight in 271, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=271)
      0.25 = coord(1/4)
    
    Abstract
    Das Klassifizieren von Objekten (z. B. Fauna, Flora, Texte) ist ein Verfahren, das auf menschlicher Intelligenz basiert. In der Informatik - insbesondere im Gebiet der Künstlichen Intelligenz (KI) - wird u. a. untersucht, inweit Verfahren, die menschliche Intelligenz benötigen, automatisiert werden können. Hierbei hat sich herausgestellt, dass die Lösung von Alltagsproblemen eine größere Herausforderung darstellt, als die Lösung von Spezialproblemen, wie z. B. das Erstellen eines Schachcomputers. So ist "Rybka" der seit Juni 2007 amtierende Computerschach-Weltmeistern. Inwieweit Alltagsprobleme mit Methoden der Künstlichen Intelligenz gelöst werden können, ist eine - für den allgemeinen Fall - noch offene Frage. Beim Lösen von Alltagsproblemen spielt die Verarbeitung der natürlichen Sprache, wie z. B. das Verstehen, eine wesentliche Rolle. Den "gesunden Menschenverstand" als Maschine (in der Cyc-Wissensbasis in Form von Fakten und Regeln) zu realisieren, ist Lenat's Ziel seit 1984. Bezüglich des KI-Paradeprojektes "Cyc" gibt es CycOptimisten und Cyc-Pessimisten. Das Verstehen der natürlichen Sprache (z. B. Werktitel, Zusammenfassung, Vorwort, Inhalt) ist auch beim intellektuellen Klassifizieren von bibliografischen Titeldatensätzen oder Netzpublikationen notwendig, um diese Textobjekte korrekt klassifizieren zu können. Seit dem Jahr 2007 werden von der Deutschen Nationalbibliothek nahezu alle Veröffentlichungen mit der Dewey Dezimalklassifikation (DDC) intellektuell klassifiziert.
    Die Menge der zu klassifizierenden Veröffentlichungen steigt spätestens seit der Existenz des World Wide Web schneller an, als sie intellektuell sachlich erschlossen werden kann. Daher werden Verfahren gesucht, um die Klassifizierung von Textobjekten zu automatisieren oder die intellektuelle Klassifizierung zumindest zu unterstützen. Seit 1968 gibt es Verfahren zur automatischen Dokumentenklassifizierung (Information Retrieval, kurz: IR) und seit 1992 zur automatischen Textklassifizierung (ATC: Automated Text Categorization). Seit immer mehr digitale Objekte im World Wide Web zur Verfügung stehen, haben Arbeiten zur automatischen Textklassifizierung seit ca. 1998 verstärkt zugenommen. Dazu gehören seit 1996 auch Arbeiten zur automatischen DDC-Klassifizierung bzw. RVK-Klassifizierung von bibliografischen Titeldatensätzen und Volltextdokumenten. Bei den Entwicklungen handelt es sich unseres Wissens bislang um experimentelle und keine im ständigen Betrieb befindlichen Systeme. Auch das VZG-Projekt Colibri/DDC ist seit 2006 u. a. mit der automatischen DDC-Klassifizierung befasst. Die diesbezüglichen Untersuchungen und Entwicklungen dienen zur Beantwortung der Forschungsfrage: "Ist es möglich, eine inhaltlich stimmige DDC-Titelklassifikation aller GVK-PLUS-Titeldatensätze automatisch zu erzielen?"
  3. Braun, M.: Lesezeichen zum Stöbern : "Social bookmark"-Seiten setzen auf die Empfehlungen ihrer Nutzer (2007) 0.01
    0.0067917244 = product of:
      0.027166897 = sum of:
        0.027166897 = weight(_text_:und in 360) [ClassicSimilarity], result of:
          0.027166897 = score(doc=360,freq=12.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.24009462 = fieldWeight in 360, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=360)
      0.25 = coord(1/4)
    
    Content
    "Irgendwann ist es einfach zu viel Information. Einmal "Schokolade" bei Google eingeben und mal eben 9 870 000 Links zur Auswahl. "Pilgern - 800 000 Einträge. 21400 000 für "Hörbuch. Die Auswahl fällt schwer, und wer hat schon die Geduld, sich alle Seiten anzugucken. Am besten wäre es, irgendjemand könnte eine der, vielen Seiten empfehlen. Auf eben dieses Prinzip setzen immer mehr Internet-Seiten. Seiten wie www.mister-wong.de bestehen nur aus Empfehlungen von Nutzern für Nutzer. Immerhin vier empfehlen die Webseite zum Pralinenclub, acht Nutzer haben sich für www.theobroma-cacao.de ein Lesezeichen angelegt, beim Pilgern sind sich auch gleich einige Benutzer einig, welche Seite sie am liebsten zum Thema lesen und empfehlen. "Social bookmarks" - Lesezeichen, die man anderen zur Verfügung stellt - sind vor allem auf englischsprachigen Seiten zu finden. Mit Anbietern wie "Mister Wong" oder "Netselektor" können jetzt auch die Deutschen ihre Lieblingslesezeichen im Internet mit anderen teilen. "Bei den großen Suchmaschinen haben es gute Seiten oft schwer: Wenn sie nicht bei Yahoo oder Google nach der Suchanfrage ganz oben stehen, findet sie niemand", sagt "Mister Wong"Pressesprecher Christian Clawien. Für ihn ist das Konzept der "Social bookmarks" die ideale Alternative zur mechanischen Suchmaschine. Noch sind die Zahlen der Aktiven aber gering. 1,3 Millionen abgespeicherte Bookmarks verzeichnet "Mister Wong" seit der Gründung im März 2006. Vor allem Leute, die sowieso bereits einen guten Draht zum Internet haben, nutzten das Angebot, sagt Clawien. Langsam beginnt die Phase, wo Monetarisierung möglich ist." Langfristig soll auch Werbung auf der Seite erscheinen. Bei "www.netselektor.de", im November 2006 gegründet, sitzt zudem noch eine Redaktion vor dem Computer, die die abgelegten Lesezeichen der Nutzer durchforstet und die besten Empfehlungen noch mal als qualitativ hochwertig vorstellt. Nach und nach soll so in Zusammenarbeit mit den Usern ein "Best-of-Internet" entstehen. Natürlich nur mit den Internet-Juwelen, die einer Empfehlung würdig sind. Allerdings erreichen die "Social bookmark"-Seiten auch schnell ihre Grenzen: Nicht alle Stichworte bringen Ergebnisse, nicht immer sind die Vorlieben der Nutzer für Internet-Seiten nachvollziehbar, und noch reicht auch nicht die Anzahl der beteiligten Nutzer, um tatsächlich all die verborgenen Juwelen im riesigen weltweiten Netz zutage zu fördern. Originelles gibt es aber trotzdem schon jetzt - vom Karaoke Trainer bis zu www.dontclick.it", die Seite, die ohne Maus funktionieren soll."
  4. Brocke, J. vom: Referenzmodellierung : Gestaltung und Verteilung von Konstruktionsprozessen (2003) 0.01
    0.0067917244 = product of:
      0.027166897 = sum of:
        0.027166897 = weight(_text_:und in 401) [ClassicSimilarity], result of:
          0.027166897 = score(doc=401,freq=12.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.24009462 = fieldWeight in 401, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=401)
      0.25 = coord(1/4)
    
    Abstract
    Die Motivation dieser Arbeit entspringt praktischen Problemstellungen. So sind zur Bewältigung betriebswirtschaftlicher Probleme in zunehmendem Ausmaß Informationssysteme zu entwickeln, die zur Förderung der Wirtschaftlichkeit anhand von Informationsmodellen beschrieben werden. Dabei fällt auf, dass - obwohl die jeweils behandelten betriebswirtschaftliche Problemstellungen durchaus thematisch verwandt sind -, einzelne Entwicklungsprojekte kaum voneinander profitieren. Bedauerlich ist hierbei nicht allein der wiederholt zu betreibende Konstruktionsaufwand, sondern auch die Inkompatibilität der inter- und intraorganisational vorliegenden Ergebnisse. In der Theorie sind für derartige Probleme Referenzmodelle einzusetzen, in denen repräsentative Konstruktionsergebnisse so beschrieben werden, dass sie in einzelnen Konstruktionsprozessen von Informationsmodellen wieder verwendet werden können. In der Praxis jedoch scheint das "passende" Referenzmodell meist nicht vorzuliegen. Dies ist umso beachtlicher, da mittlerweile sowohl eine Vielzahl an Informationsmodellen als Referenzmodelle vorgeschlagen werden als auch im jungen Forschungsgebiet der Referenzmodellierung bereits Gestaltungsempfehlungen für die Konstruktion von Referenzmodellen erarbeitet wurden. Warum werden vorgeschlagene Referenzmodelle kaum verwendet und wie können Konstruktionsprozesse gestaltet werden, damit die theoretisch gegebenen Potenziale von Referenzmodellen auch praktisch genutzt werden? Antworten auf diese erkenntnisleitenden Fragen zu finden, bildete die Motivation der vorliegenden Forschungsarbeit. Im Zuge der Untersuchungen sind einige grundsätzliche Erkenntnisansätze sowie Gestaltungsstrategien sichtbar geworden: Die geringe Akzeptanz der Referenzmodelle erklärt sich zu einem großen Teil dadurch, dass bislang eine zu enge Sicht auf die Gestaltung ihrer Konstruktionsprozesse eingenommen wird. Arbeiten beschränken sich auf Beiträge zu methodenbezogenen Aspekten, während die Verwendung der Modelle auf pragmatischer Ebene fehlschlägt. Durch die Ausweitung dieser Sicht, vor allem auf organisationsbezogene Aspekte, werden erhebliche Verbesserungspotenziale durch eine Verteilung der Konstruktionsprozesse aufgezeigt. Eine solche Gestaltung folgt der Vorstellung, relevante Interessengruppen von Referenzmodellen durch Austausch- und Diskursprozesse kontinuierlich in die Entwicklung einzubeziehen, sodass ein bewährter Bestand an Modellen erzeugt und evolutionär an neue Anforderungen angepasst werden kann. Innovative Ansätze des Open Source und Component Based Software Engineering belegen das Erfolgspotenzial derartiger Gestaltungen, zeigen jedoch zugleich kritische Anforderungen an die Prozessgestaltung auf. Zur Erschließung dieser Potenziale für die Referenzmodellierung wird hier das Konzept der verteilten Referenzmodellierung eingeführt.
  5. Time, quantum and information (2003) 0.01
    0.0067116623 = product of:
      0.02684665 = sum of:
        0.02684665 = weight(_text_:und in 3900) [ClassicSimilarity], result of:
          0.02684665 = score(doc=3900,freq=30.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.23726434 = fieldWeight in 3900, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=3900)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: Spektrum der Wissenschaft. 2004, H.11., S.92-96 (S. Stier): "Nach Einsteins Allgemeiner Relativitätstheorie gibt es im Kosmos Objekte von so ungeheurer Gravitationskraft, dass aus ihrem Inneren keinerlei Informationen, auch nicht in Form von Licht, nach außen dringen können; sie werden deshalb als Schwarze Löcher bezeichnet. Eines der vielen Rätsel, die sie umgeben, war lange Zeit die Größe ihrer Entropie (siehe »Das holografische Universum« von Jacob Bekenstein, Spektrum der Wissenschaft 11/ 2003, S. 34). Nach der herkömmlichen Definition ist die Entropie ein Maß für den Informationsgehalt eines Objekts; sie berechnet sich aus der Zahl seiner inneren Zustände, in denen es dieselben Eigenschaften hat. Damit hängt sie davon ab, welche Eigenschaften man zur Beschreibung des Objekts wählt und wie detailliert man seine inneren Zustände beschreibt. Entropie und Information sind also relative, vom Kontext einer bestimmten Beschreibung abhängige Maße. je detaillierter die Beschreibung seiner inneren Zustände, desto größer die Entropie. Nicht so bei einem Schwarzen Loch: Da es alle Informationen über sein Inneres verbirgt, ist seine Entropie die Obergrenze für alles, was man überhaupt darüber wissen könnte, unabhängig von irgendwelchen Modellen seiner Struktur. Information wird damit zu einer unabhängigen Eigenschaft eines Objekts und zu einer absoluten physikalischen Größe. Das ist ein radikaler Bruch im Verständnis von Information. Mit Hilfe der von Bekenstein vor dreißig Jahren angegebenen Formel kann man berechnen, wie die Entropie eines Schwarzen Lochs von der Größe unseres Universums dadurch zunimmt, dass von außen ein Proton hineinstürzt. Diese Änderung lässt sich als der Informationsgehalt des Protons selbst interpretieren: Es sind 10**40 Bit, ein Wert, der im Rahmen der etablierten Physik eigentlich nicht erklärbar ist.
    Zu genau diesem Ergebnis war schon einige Jahre zuvor Carl Friedrich von Weizsäcker auf völlig anderem Weg gekommen. Die von ihm entwickelte Urtheorie ist der radikale Versuch, die gesamte Naturwissenschaft, mit der Quantentheorie an der Spitze, auf den Informationsbegriff zurückzuführen: Ure sind nichts weiter als die Quantenbits (»Qubits«), die im Zusammenhang mit den Quantencomputern zu Ehren gekommen sind. Dabei setzt die Urtheorie nicht einmal die Struktur des Raumes voraus; diese ergibt sich erst aus der Verknüpfung der kleinsten Informationseinheit, der Entscheidung zwischen zwei Möglichkeiten, und der Quantentheorie. Bis heute ist die Urtheorie ein Fragment geblieben; so ist es nicht gelungen, eine Theorie der Wechselwirkung der Ure zu entwickeln, die schließlich zu einer Theorie der Elementarteilchen führen sollte. Der vorliegende Sammelband ist von Weizsäcker zu seinem 90. Geburtstag gewidmet; die sehr wenigen Forscher, die an der Urtheorie weitergearbeitet haben, kommen in mehreren Beiträgen zu Wort. Der Frankfurter Physiker Thomas Görnitz fasst seine eigenen einschlägigen Arbeiten zusammen. Dazu gehört die oben genannte Verknüpfung der Entropie Schwarzer Löcher mit der Urtheorie, die für Görnitz die »zentrale Anbindung« an die etablierte Physik ist. Ausgehend von den heute bekannten Größenordnungen für Radius und Dichte des Universums kommt er zu Abschätzungen für die Entropie des gesamten Universums und die Anzahl der darin enthaltenen Nukleonen und Photonen, die nach seiner Aussage mit den empirisch bekannten Daten gut übereinstimmen. Das gelte auch für die Energie der Photonen im Universum, der so genannten » kosmischen Hintergrundstrahlung«. Die Verknüpfung der Urtheorie mit der Allgemeinen Relativitätstheorie führe zu einem plausiblen kosmologischen Modell, in dem sich die extreme Kleinheit der »kosmologischen Konstanten«, der Vakuumenergie des Kosmos, in natürlicher Weise ergebe. Für die etablierten Theorien stelle dies ein erhebliches Problem dar.
    Während sich die Beiträge zur Urtheorie an Spezialisten wenden, finden sich zu anderen Arbeitsgebieten von Weizsäckers eher allgemeinverständliche Darstellungen: Astro- und Kernphysik mit den thermonuklearen Prozessen in Sternen und der Entstehung der Planetensysteme sowie die Philosophie der Naturwissenschaft und der Zeit - alles in der für solche Festschriften typischen bunten Mischung. Hervorgehoben sei die Darstellung des Hamburger Friedensforschers Götz Neuneck zur deutschen Atomforschung während des Zweiten Weltkriegs und zu den nachfolgenden Bemühungen internationaler Wissenschaftler, die Institution des Kriegs nach dem Bau der Atombombe abzuschaffen. In beiden hat von Weizsäcker eine herausragende Rolle gespielt. Ein wichtiges Thema des Buchs sind die Grundlagen der Quantentheorie. Mit der Charakterisierung von Objekten durch Information ist die Urtheorie eine radikale Weiterführung der »Kopenhagener Deutung«, jener orthodoxen, aber von vielen Physikern nur mangels einer überzeugenden Alternative akzeptierten Interpretation der Quantentheorie. Ein seit deren Anfängen andauernder Streit geht darum, ob die Wellenfunktion, die Wahrscheinlichkeiten für Messergebnisse vorhersagt, gemäß der Kopenhagener Deutung das mögliche Wissen eines Beobachters darstellt oder eine davon unabhängige Realität beschreibt. Wie lebendig diese Debatte ist, machen mehrere Beiträge in diesem Buch deutlich. Hans Primas und Harald Atmanspacher lösen den Widerspruch nach dem Muster des Teilchen-Welle-Dualismus auf Beide Positionen beruhen auf unterschiedlichen Auffassungen der Wirklichkeit, die beide für eine Beschreibung der Natur je nach der zu Grunde liegenden Fragestellung notwendig seien. Claus Kiefer erläutert das Phänomen der »Dekohärenz«, wonach der quantenmechanische Messprozess in neuem Licht erscheine, wenn auch die Kopplung des Messgeräts an seine Umgebung berücksichtigt werde, denn unrealistische Überlagerungszustände im Messprozess wie die berühmte sowohl tote als auch lebendige »Schrödinger'sche Katze« seien bereits durch die Quantenmechanik selbst ausgeschlossen. Spätestens wenn der Kosmos als Ganzes betrachtet werde, komme die Kopenhagener Deutung an ihr Ende, denn hier gebe es keinen Beobachter mehr, für den die quantentheoretischen Möglichkeiten zu Fakten werden könnten.
    Einen interessanten Vorschlag machen schließlich Ceslav Brukner und Anton Zeilinger von der Universität Wien. Ganz in von Weizsäckers Sinn, die Naturwissenschaft auf Ja-Nein-Aussagen zurückzuführen, streben sie nach einer Herleitung der Quantentheorie aus der Informationstheorie. Ihr Ausgangspunkt ist die Annahme, dass jedes physikalische Objekt einen endlichen Informationsgehalt hat. Da diese Information aber nicht ausreiche, um die Resultate aus allen möglichen Messungen festzulegen, könne eine bestimmte Messung nicht mehr mit Sicherheit vorhergesagt werden. Der Indeterminismus der Quantentheorie ist damit auf ein fundamentaleres Prinzip zurückgeführt. Viele Autoren heben die Bedeutung von Weizsäckers Fragen und Antworten als Quelle der Inspiration und als Herausforderung an die etablierte Wissen schaft hervor, die in ihrer Vorausschau noch nicht an ihr Ende gekommen sei. Dem ist wenig hinzuzufügen."
  6. Misslbeck, A.: ¬Der Sesam öffnet sich :-) (2003) 0.01
    0.0067116623 = product of:
      0.02684665 = sum of:
        0.02684665 = weight(_text_:und in 4768) [ClassicSimilarity], result of:
          0.02684665 = score(doc=4768,freq=30.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.23726434 = fieldWeight in 4768, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=4768)
      0.25 = coord(1/4)
    
    Content
    "Menschenleer sind die asbestsanierten Gänge der Silberlaube an der Freien Universität Berlin in den Semesterferiem. Doch irgendwo im rechtwinkligen Wirrwarr zwischen Gang K und L steht eine Tür offen. Sie führt zum Büro von Katja Mruck am Fachbereich Erziehungswissenschaft und Psychologie. Die zarte Frau mit langem und dichtem Haar tritt ihren Gesprächspartnern selten persönlich gegenüber. Mit Forschungspartnern verkehrt sie meist auf elektronischem Weg - das aber umso reger. Katja Mruck ist geschäftsführende Herausgeberin der Online-Zeitschrift Forum Qualitative Sozialforschung / Forum: Qualitative Social Research / Foro: Investigación Social Cualitativa, kurz FQS. Der Name verweist schon auf die internationale Ausrichtung. "Überall auf der Welt arbeiten Leute an der gleichen Sache", sagt Mruck, "das ist ein Traum, wie Wissenschaft funktionieren kann." Im dreisprachigen OnlineJournal erscheinen regelmäßig wissenschaftliche Texte aus dem Bereich der qualitativen Forschung einer Methode, bei der die Forscher ihre Erkenntnisse unter anderem aus langen, tief gehende Interviews gewinnen statt standardisierte Fragebögen zu verwenden. Jeder kann sie lesen, wenn er des Englischen, Deutschen oder Spanischen mächtig ist und einen Internetzugang besitzt. Psychologen, Soziologen und Kulturforscher arbeiten oft qualitativ: doch meist befinden sie sich damit am Rand. ihrer Disziplinen. Das war einer der Anstöß für Katja Mruck, eine gemeinsame Plattform einzurichten, um die Forschung voranzutreiben. Wichtiger war ihr aber. der internationale Ansatz, denn in anderen Ländern hat die qualitative Forschung teilweise einen höheren Stellenwert. Wenn ihr wollt, dass die Leute euch weltweit wahrnehmen, dann müsst ihr bei uns schreiben", sagt Mruck mitunter zu ihren Autoren. Durch das Feedback aus aller Welt weiß sie, dass FQS überall gelesen wird. "Weil es uns gibt, kann diese deutschsprachige Literatur nach draußen, und das Wissen von draußen kommt nach Deutschland", sagt Mruck. Nichts geht mehr ohne Qualitätssicherung. Damit das möglichwurde, kommt in FQS das Peer-Review-Verfahren zum Einsatz, bei dem zwei unabhängige externe Gutachter den Text vor der Veröffentlichung beurteilen, ohne den; Autor zu kennen. Um-gekehrt kennt auch der Autor die Gutachter. nicht: Damit wird sichergestellt, dass die Beurteilung ohne Ansehen der Person geschieht. Nur begrenzt betreibt die deutsche Sozialforschung diese aufwändige Qualitätssicherung bei Veröffentlichungen von qualitativen Forschungsergebnissen. Mruck sagt: "Ich glaube, unsere Standards sind höher als die von manchen sozialwissenschaftlichen Printzeitschriften im deutschen Raum." Zusätzlich arbeiten deutsche, englisch- und spanischsprachige Wissenschaftler finit den Autoren an den eingereichten Texten, bevor sie im Internet erscheinen. Dann stehen sie weltweit-nicht nur anderen Wissenschaftlern, sondern auch dem breiten Publikum zur Verfügung. Jeder kann seinen Kommentar dazu abgeben. Auch die Deutsche Forschungsgemeinschaft (DFG), die FQS fördert, hält die Qualitätssicherung für extrem wichtig. Der Leiter der Gruppe Wissenschaftliche Literaturversorgungs- und Informationssysteme der DFG, Jürgen Bunzel, ist der Meinung, "dass das Peer-Review-Verfahren letztendlich die Erfolgsbedingung der Open-Access-Bewegung" ist.
    Im naturwissenschaftlichen Bereich sind Peer Reviews längst Gang und. Gäbe. Extrem teure Wissenschaftsmagazine begründen unter anderem damit oft ihre hohen Preise. Mit Open Access im Internet geht es plötzlich auch kostenlos. Das empfinden viele Wissenschaftsverlage als Affront. Einer der: geistigen Väter der Bewegung, Nobelpreisträger Harold Varmus, sagte in einem Zeit-Interview: "Es gibt Zeitschriften, die verlangen für ein institutionelles Abonnement bis zu 15.000 Dollar pro Jahr - das ist irrational, denn es behindert den Aus;tausch von Information zwischen den Forschern:" Varmus ist einer der Gründer der US-amerikanischen Public Library of Science (PLoS), die am 9. Oktober mit einem kostenlosen Biologiejournal an die Internet-Öffentlichkeit getreten ist. Die Nonprofit-Organisation verlangt das nötige Geld nicht von den Lesern, sondern von den Autoren oder den wissenschaftlichen Instituten, die durch die Veröffentlichung ihr Renommee erhöhen. Ohne Peer Review könnte PLoS Biology nicht in Konkurrenz zu den teuren Zeitschriften treten. Die wissenschaftliche Gemeinde würde die Online-Veröffentlichung nicht anerkennen. Für den freien Zugang zu den Erstveröffentlichungen nennt Varmus einleuchtende Gründe: "Der größte Teil der Wissenschaft wird durch Steuern finanziert. Deshalb sind wir der festen Überzeugung, dass die Publikationen allen zugänglich sein sollten." Zwar sind geisteswissenschaftlichen Zeitschriften noch vergleichsweise preisgünstig. Dennoch führt Klaus Graf von der Universität Freiburg auch für diesen Bereich an einem Beispiel vor Augen, dass die öffentliche Hand gleich viermal in ihre eigenen Taschen greifen muss, bis die Ergebnisse einer eingeschränkten Öffentlichkeit zur Verfügung stehen: Die Gehälter der Wissenschaftler, Reisekosten und einiges mehr zahlt der Staat. Auch die redaktionelle Überarbeitung finanziert die öffentliche Hand: Der Verlag will kostendeckend arbeiten und holt sich Druckkostenzuschüsse von öffentlichen Geldgebern dazu. Schließlich sind auch die Bibliotheken, die die Publikation anschaffen, vom Steuerzahler finanziert. Graf fasst zusammen: "Der Staat kauft seine eigenen Forschungsergebnisse zurück."
    Damit wissenschaftliche Veröffentlichungen finanziell künftig besser auf eigenen Beinen stehen können; fördert die DFG seit einigen Jahren auch Open-Ac-, cess-Projekte. "Wir stehen der Open-Access-Bewegung mit großer Sympathie gegenüber, sagt Bunzel von der DFG, "aber wir akzeptieren auch den Wunsch nach Veröffentlichung in namhaften Zeitschriften." Ein "Paradeprojekt" der Open-Access-Bewegung in Deutschland seien die German Academic Publishers (GAP), eine Publikationsplattform, die es Hochschulen ermöglichen soll, im Netz zu publizieren. Viele Universitätsbibliotheken, allen voran die Universitäten Hamburg und Karlsruhe; haben sich GAP ange-schlossen. Sie arbeiten mit dem FQS von Katja Mruck zusammen. GAP entwickeln technische Komponenten für den elektronischen Publikationsprozess. Dazu steht FQS gewissermaßen als Übungsterrain zur Verfügung. FQS arbeitet nicht nur, selbst international und vernetzt, sondern engagiert sich: auch in der breit angelegten Budapest Open Access Initiative (BOAI). Sie wird nicht nur von- wissenschaftlichen Projekten unterstützt, sondern zum Beispiel auch von. der Berliner Rosa-Luxemburg-Stiftung. Die Mitglieder unterzeichneten am 17. Januar 2002 die Budapest Open Access Declaration. Sie enthält im Schlusssatz die Vision der Bewegung: "Unsere gemeinsame Anstrengung wird auch zu einer Entwicklung beitragen, in deren Verlauf Wissenschaft und Bildung sich in der Zukunft überall auf der Welt freier und offener entfalten können, als dies bisher der Fall war."
  7. Libraries and Google (2005) 0.01
    0.006648725 = product of:
      0.0265949 = sum of:
        0.0265949 = weight(_text_:und in 2973) [ClassicSimilarity], result of:
          0.0265949 = score(doc=2973,freq=46.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.23503943 = fieldWeight in 2973, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.015625 = fieldNorm(doc=2973)
      0.25 = coord(1/4)
    
    Footnote
    Co-published simultaneously as Internet reference services quarterly, vol. 10(1005), nos. 3/4 Rez. in: ZfBB 54(2007) H.2, S.98-99 (D. Lewandowski): "Google und Bibliotheken? Meist hat man leider den Eindruck, dass hier eher ein oder gedacht wird. Dies sehen auch die Herausgeber des vorliegenden Bandes und nehmen deshalb neben Beiträgen zur Diskussion um die Rolle der Bibliotheken im Zeitalter von Google auch solche auf, die Tipps zur Verwendung unterschiedlicher Google-Dienste geben. Die allgemeine Diskussion um Google und die Bibliotheken dreht sich vor allem um die Rolle, die Bibliotheken (mit ihren Informationsportalen) noch spielen können, wenn ihre Nutzer sowieso bei Google suchen, auch wenn die Bibliotheksangebote (zumindest von den Bibliothekaren) als überlegen empfunden werden. Auch wenn die Nutzer geschult werden, greifen sie doch meist lieber zur einfachen Recherchemöglichkeit bei Google oder anderen Suchmaschinen - vielleicht lässt sich die Situation am besten mit dem Satz eines im Buch zitierten Bibliothekars ausdrücken: »Everyone starts with Google except librarians.« (5.95) Sollen die Bibliotheken nun Google die einfache Recherche ganz überlassen und sich auf die komplexeren Suchfragen konzentrieren? Oder verlieren sie dadurch eine Nutzerschaft, die sich mittlerweile gar nicht mehr vorstellen kann, dass man mit anderen Werkzeugen als Suchmaschinen bessere Ergebnisse erzielen kann? Diese sicherlich für die Zukunft der Bibliotheken maßgebliche Frage wird in mehreren Beiträgen diskutiert, wobei auffällt, dass die jeweiligen Autoren keine klare Antwort bieten können, wie Bibliotheken ihre Quellen so präsentieren können, dass die Nutzer mit der Recherche so zufrieden sind, dass sie freiwillig in den Bibliotheksangeboten anstatt in Google recherchieren. Den Schwerpunkt des Buchs machen aber nicht diese eher theoretischen Aufsätze aus, sondern solche, die sich mit konkreten Google-Diensten beschäftigen. Aufgrund ihrer Nähe zu den Bibliotheksangeboten bzw. den Aufgaben der Bibliotheken sind dies vor allem Google Print und Google Scholar, aber auch die Google Search Appliance. Bei letzterer handelt es sich um eine integrierte Hard- und Softwarelösung, die die Indexierung von Inhalten aus unterschiedlichen Datenquellen ermöglicht. Der Aufsatz von Mary Taylor beschreibt die Vor- und Nachteile des Systems anhand der praktischen Anwendung in der University of Nevada.
    Ebenfalls direkt aus der Praxis erhält der Leser Informationen zum Google-PrintProgramm. Robert Milne beschreibt die Zusammenarbeit von Google und der Universität Oxford. In diesem Aufsatz wird - was dem Autor natürlich nicht anzulasten ist - ein Problem des vorliegenden Werks deutlich: Viele Informationen sind doch von sehr beschränkter Haltbarkeit. Der Redaktionsschluss war im Frühsommer 2005, sodass sich in vielen Bereichen bereits neue Entwicklungen ergeben haben. Dies ist beim Print-Programm der Fall, vor allem wird es aber bei dem Hauptthema des Bandes, nämlich Google Scholar, deutlich. Dieser Dienst wurde im November 2004 gestartet und stieß auf unterschiedlichste Reaktionen, die (anhand von Beispielen amerikanischer Bibliotheken) im Beitrag von Maurice C. York beschrieben werden. Einige Bibliotheken nahmen den Dienst begeistert auf und verlinkten diesen mit Lob versehen auf ihren Websites. Andere reagierten gegenteilig und warnten vor dessen schlechter Qualität. Auch weil vorauszusehen war, dass Google Scholar bei den Nutzern gut ankommen würde, darf das folgende Statement von einer Bibliothekswebsite geradezu als ignorant gelten: Google Scholar »is wonderful for those who do not have access to the library's databases« (S.119). Wie nun die Scholar-Nutzer auf die Bibliotheksangebote gelenkt werden können, beschreibt der ironisch »Running with the Devil« betitelte Aufsatz von Rebecca Donlan und Rachel Cooke. Die Autorinnen beschreiben den Einsatz von Link-Resolvern und gehen auf die in Google Scholar bestehenden Probleme durch unklare Bezeichnungen in den Trefferlisten ein. Einige Beispiele zeigen, dass Google Scholar auch in Kombination mit der Verlinkung auf die Bibliotheksbestände keine befriedigende Recherchesituation herstellt, sondern vielmehr weitere Anstrengungen nötig sind, um »das Beste beider Welten« zusammenzuführen. Zwei weitere Aufsätze beschäftigen sich mit der Frage, wie gut Google Scholar eigentlich ist. Einmal geht es darum, wie gut Scholar den »ACRL Information Literacy Standards« genügt. Der zweite Beitrag vergleicht Google Scholar anhand von fünf Suchaufgaben einerseits mit einem lokalen Bibliothekskatalog, andererseits mit EBSCOs Academic Search Premier und jeweils einer fachspezifischen Datenbank. Die Ergebnisse zeigen keine durchgehende Überlegenheit einer Suchlösung, vielmehr wird deutlich, dass es auf die Auswahl des richtigen Suchwerkzeugs für die bestehende Suchanfrage ankommt bzw. dass erst eine Kombination dieser Werkzeuge zu optimalen Ergebnissen führt. Man könnte also auch hier wieder sagen: Google und Bibliotheken, nicht Google oder Bibliotheken.
    Ein besonders interessanter Aufsatz widmet sich der Frage, wie Bibliotheken ihre Web-Angebote (hier: vor allem die Seiten zu digitalisierten Werken) so optimieren können, dass sie von Google und anderen Suchmaschinen optimal indexiert werden können. Dies wird leicht verständlich erklärt und dürfte für viele Bibliotheken, deren entsprechende Websites noch suboptimal gestaltet sind, eine gute Hilfestellung sein. Auch sehr praktisch orientiert ist der letzte Beitrag des Bandes, der verschiedene Quellen vorstellt, die sich mit aktuellen Entwicklungen bei Google (bzw. bei Suchmaschinen allgemein) beschäftigen, diese einzeln bewertet und Empfehlungen abgibt, welche man regelmäßig und welche man ab und zu lesen sollte. Die Bedeutung ist hier klar: Wenn Bibliotheken sich mit Google messen (oder darüber hinaus gehen?) möchten, müssen sie die Konkurrenz und ihre aktuellen Produkte kennen. Interessant wäre gewesen, noch den einen oder anderen Beitrag zu Suchprodukten von Bibliotheksseite zu lesen. Wie sollten solche Produkte beschaffen sein, um den Google-Nutzer zu den Bibliotheksangeboten zu führen? Welche Angebote gibt es hier bereits? Wie sehen die Anbieter von OPACs und Bibliothekssystemen die Zukunft der Bibliotheksrecherche? Und auch auf die nach Meinung des Rezensenten zurzeit wohl wichtigste Frage im Google-Kontext wird nicht eingegangen: Wie kann es den Bibliotheken gelingen, ein System (oder Systeme) zu schaffen, das nicht nur versucht, die Stärken der Suchmaschinen zu adaptieren, sondern ihnen einen Schritt voraus zu sein? Diese Kritik soll aber nicht darüber hinwegtäuschen, dass es sich bei dem vorliegenden Werk um eine gut lesbare Zusammenstellung von Aufsätzen handelt, die allen empfohlen werden kann, die sich einen Überblick zur Thematik verschaffen wollen, die Diskussion in den internationalen Fachzeitschriften aber nicht sowieso minutiös verfolgen."
  8. Pawlak, A.: Durch das Internet mit Links (2002) 0.01
    0.0065760585 = product of:
      0.026304234 = sum of:
        0.026304234 = weight(_text_:und in 1558) [ClassicSimilarity], result of:
          0.026304234 = score(doc=1558,freq=20.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.2324706 = fieldWeight in 1558, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=1558)
      0.25 = coord(1/4)
    
    Content
    "Wie findet der einzelne Nutzer in der "allwissenden Müllhalde" Internet genau die verlässliche Information, die er sucht? Immerhin stehen dem wissbegierigen User auf über 36 Millionen Web-Angeboten (Sites) mehr als vier Milliarden Einzelseiten zur Verfügung. Deshalb gibt er meist in ein eigens dafür konzipiertes Internet-Programm, eine so genannte Suchmaschine, eine Kombination von Suchwörten ein und erhält eine Liste von Webseiten, in denen diese Wörter vorkommen. Nur allzuoft enthält diese Liste einen hohen Anteil Unbrauchbares, denn aus dem bloßen Vorhandensein eines Wortes geht nicht hervor, ob die Webseite zu dem zugehörigen Begriff etwas zu sagen hat. Mehr Sinn steckt schon in den in Hyperlinks, anklickbaren Verweisen, die der Autor der Webseite selbst in diese eingefügt hat. Das Web lässt sich als ein riesiges Netz aus Knoten auffassen, die durch die Hyperlinks miteinander verknüpft sind. Spezielle Computerprogramme sind in der Lage, in diesem unübersehbaren, zufällig erscheinenden Fadengewirr eine gewisse Ordnung zu finden (Spektrum der Wissenschaft 8/1999, S.44). Dabei erweist sich die Hyperlink-Struktur oftmals als ein deutlicheres Kennzeichen für die inhaltliche Verwandtschaft von Webseiten als noch so geschickt gewählte Suchbegriffe. Alle Verknüpfungen im gesamten Internet unter die Lupe zu nehmen scheitert jedoch an ihrer riesigen Menge. Deshalb haben Gary Flake und seine Kollegen vom Forschungsinstitut der amerikanischen Firma NEC in Princeton einen eiwas anderen Weg gewählt. Sie beschränken sich nicht auf eine vorgegebene Menge von Seiten, sondern wählen zunächst eine aus, die als Keimzelle für eine so genannte Commu nity (Gemeinschaft) dient. Kandidaten für die Community sind zunächst die Webseiten, die mit der Keimzelle direkt oder indirekt über (einoder ausgehende) Hyperlinks verknüpft sind. Durch einen raffinierten Algorithmus wird dann bestimmt, welche Webseiten endgültig zur Community gehören: Per Definition ist jedes Mitglied einer Community mit mehr Mitgliedern als Nicht-Mitgliedern verbunden. Das Computer-Programm der NEC-Forscher identifiziert somit ausgehend vom gewählten Startpunkt die Gemeinschaft, die sich selbstorganisiert über die Hyperlinks im Internet gebildet hat (IEEE Computer, Bd. 35, S. 66, 2002). Ein Beispiel für diese Methode findet sich unter http://webselforganization.corn/example.html. Dort hat der Algorithmus der NEC-Forscher einer Internetseite mit Themen zum 11. September eine Gemeinschaft von mehr als 6000 weiteren Seiten zugeordnet - nur auf grund der Verknüpfungen über Hyperlinks und ohne Zuhilfenahme von Textinformationen. Innerhalb dieser Community führt das Suchwort "why" nun sofort auf Seiten, die sich mit der Frage "Why did it happen and why did the buildings collapse?" beschäftigen. Auch die ansonsten mehrdeutigen Begriffe "bin" und "laden" führen nicht mehr in die Irre, sondern auf Informationen über Usama Bin Laden. Filtersoftware zur Abwehr pornografischer oder anderer anstößiger Web-Inhalte könnte mit dem Community-Algorithmus noch treffsicherer werden. Wie sich herausstellt, ist eine Pornografie-Seite nicht unbedingt am Vorhandensein gewisser Reizwörter zu erkennen, die von den Betreibern vielleicht mit Fleiß vermieden werden, sondern weit zuverlässiger daran, dass sie auf andere Pornografie-Seiten verweist oder auf sie von diesen verwiesen wird. Auch sind effektivere Suchmaschinen denkbar, bei denen sich text- und linkbasierte Methoden geschickt ergänzen.
    Allerdings läuft man im kurzlebigen Internet oft ins Leere. Was nützt der schönste Fund, wenn die zugehörige Internetseite nicht mehr existiert? John Markwell und David Brooks von der Universität von Nebraska in Lincoln haben das bei den von ihnen entwickelten Web-basierten Kursen zur Biochemie (http: //dwb.unl.edu/Teacher/NSF/C10/C10.html, -C11/C11.html und -C08/C08.html) schmerzlich zu spüren bekommen: Häufig fielen Hyperlinks aus - als würden aus einem Lehrbuch immer wieder Seiten ausgerissen. Einen vorläufigen Bericht dazu haben Markwell und Brooks unter http://www-eiass.unl.edu// biochem/url/broken_links.html veröffentlicht. Ihr Ergebnis: Hyperlinks haben eine Halbwertszeit von etwa 55 Monaten. Nach dieser Zeit sind somit die Hälfte von ihnen "zerbrochen", nach 13 Monaten schon 16,5 Prozent. Dabei erwiesen sich die Links von Regierungsstellen (Kürzel .gov) mit nur vier Prozent Verlust als einigermaßen robust, solche von Bildungsstätten (.edu) mit 17,5 Prozent als besonders kurzlebig. Diese Resultate haben die Begeisterung von Markwell und Brooks für die Verwendung von Hyperlinks erheblich gedämpft. Der Psychologe Ulf-Dietrich Reips von der Universität Zürich hat das Problem bereits seit längerem erkannt und für sich gelöst. Der Spezialist für psychologische Web-Experimente verweist nicht nur auf die Experimente seiner Kollegen, sondern archiviert sie gleich komplett unter der Adresse http://130.60. 239.96/wexlist/, um sie so langfristig verfügbar zu halten.
  9. Kleinz, T.: Angst vor der zweiten Internetblase : Web 2.0 hat inzwischen das Establishment erreicht / Medienkonzerne investieren Milliardenbeträge (2006) 0.01
    0.0065760585 = product of:
      0.026304234 = sum of:
        0.026304234 = weight(_text_:und in 303) [ClassicSimilarity], result of:
          0.026304234 = score(doc=303,freq=20.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.2324706 = fieldWeight in 303, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=303)
      0.25 = coord(1/4)
    
    Abstract
    Das US-Magazin Time hat sich in diesem Jahr etwas Besonderes ausgedacht: Statt einen Politiker oder Wissenschaftler zum Jahresende zu würdigen, klebte ein Stück Spiegelfolie auf der Titelseite. Dazu die Überschrift: "Person des Jahres: Du". Damit würdigt das Medium die Millionen von Internetnutzern, die in diesem Jahr die Lust am eigenen Publizieren entdeckt und damit das Internetgeschäft aufgemischt haben. Das Jahr 2006 stand ganz im Zeichen des Internets zum Mitmachen, des so genannten Web 2.0. Eine Vielzahl von neuen Angeboten geben dem Netz eine soziale Dimension: Web 2.0-Angebote sollen von den Nutzern nicht nur konsumiert, sondern auch mitgestaltet werden. Florian Koch vom Branchenverband Bitkom fasst die Entwicklung so zusammen: "Die Grenze zwischen dem privatem PC und dem Internet verwischt. Es entstehen Social Communities, bei denen Nutzer miteinander agieren, sich austauschen, persönliche Dateien ins Web stellen."
    Content
    "Spektakuläre Übernahmen Bekanntester Vertreter der Web 2.0 Communities ist die US-Plattform Espace, die es innerhalb von nur drei Jahren geschafft hat, mehr als 100 Millionen Nutzer zu gewinnen. Die Nutzer berichten hier über ihre persönlichen Vorlieben, stellen Bilder und Videos online. Besonders beliebt ist die Community bei Musikern, die die Plattform entdeckt haben, um ohne Plattenvertrag berühmt zu werden. Allein über die Mund-zu-MundPropaganda in solchen Netzwerken konnten zahlreiche neue Bands ihren Weg zum Publikum finden, berühmtester Vertreter: die Arctic Monkeys. Die Web 2.0-Branche macht in diesem Jahr wieder durch spektakuläre übernahmen von sich reden. So kaufte der Suchmaschinenkonzern Google im Oktober das Video-Portal Youtube für fast 1,7 Milliarden Dollar auf. Konkurrent Yahoo erwirbt viel versprechende Internet-Startups gleich im Dutzend. So hat der Konzern für den Bilderdienst Flickr im Januar 50 Millionen Dollar gezahlt und ihn in sein Portal integriert. Symptomatisch ist auch der Wechsel im Publikumsgeschmack: Stand im vergangenen Jahr noch das Spiel World Of Warcraft im Blickpunkt, genießt nun die Online-Plattform Second Life die gesamte Medienaufmerksamkeit. Auch hier treffen sich virtuelle Charaktere in einer Fantasiewelt. Der Unterschied: Während World Of Warcraft ein althergebrachtes Abenteuer-Spiel mit festen Spielregeln ist, gibt es bei "Second Life" keine Spielhandlung - hier darf jeder selbst bestimmen, was er machen will. Von dem Aussehen der Figuren bis zum Bau eigener Häuser - die Benutzer können hier ihre Kreativität voll ausleben. Das Konzept kommt an: Mitte Dezember konnte Second-Life-Betreiber Linden Labs den zweimillionsten Nutzer feiern. Und auch wirtschaftlich ist das Angebot beeindruckend erfolgreich: Pro Tag werden auf der Plattform eine Million Dollar umgesetzt - die Teilnehmer kaufen dafür virtuelle Kleidung, gehen auf Online-Konzerte und spielen in virtuellen Kasinos.
    Neben den vielen neuen Möglichkeiten des Web 2.0 sorgen in den vergangenen Jahren aber auch die Schattenseiten des sozialen Netzes für Unruhe. Espace fahndet zum Beispiel schon seit einiger Zeit nach Pädophilen, die versuchen über das Angebot in Kontakt mit Kindern zu treten. Auch die Sicherheit der Daten ist nicht immer gewährleistet: Immer wieder machen die sozialen Börsen durch Sicherheitslücken von sich reden, besonders in den USA grassiert der Identitätsdiebstahl. Angesichts der großen Summen befürchten viele schon eine zweite Internetblase, Milliardeninvestitionen könnten sich in Luft auflösen. Der Meinung ist Branchenvertreter Koch nicht: "Das Internet hat mit Web 2.0 definitiv eine neue Entwicklungsstufe erreicht, bei der sich auch die Geschäftsmodelle verändern." Viele etablierte Medien-Konzerne integrieren bereits jetzt Web 2.0-Tech-niken in ihre Angebote. Sie wollen sich von den Newcomern nicht die Butter vom Brot nehmen lassen. So hat sich Pro-Sieben-Sat 1 bei dem deutschen Youtube-Konkurrenten Myvideo eingekauft und bringt die Videos seiner Nutzer sogar in einer eigenen Fernsehshow unter. Konkurrent RTL setzt auf die Eigenentwicklung Clipfish und will im Januar mit einem eigenen Fernsehformat auf Sendung gehen. Nachholbedarf in Deutschland Koch sieht in Deutschland Nachholbedarf: "Die meisten Angebote entstehen in den USA und sind häufig noch auf den amerikanischen beziehungsweise englischsprachigen Markt ausgerichtet." Aber: Auch in der Bundesrepublik seien erste Erfolge zu sehen. So konnte die deutsche Kontakt-Börse Xing im Dezember beim Börsengang immerhin 75 Millionen Euro erlösen. Während viele Web 2.0-Angebote noch in den Anfängen stecken, machen sich zahlreiche Vordenker schon Gedanken über die weitere Entwicklung. Der US-Journalist John Markoff rief in der New York Times vorsichtshalber bereits das "Web 3.0" aus. Wie lange dies auf sich warten lassen wird, steht aber noch in den Sternen."
    Footnote
    DAS WEB 2.0 - Bei aller Euphorie über die neuen Möglichkeiten und die eigene Kreativität: Nutzer von Web 2.0-Angeboten sollten einige Ratschläge befolgen. - Urheberrechte achten: Das Urheberrecht gilt auch hier. Es ist nicht erlaubt, kommerzielle Filme oder Fernsehmitschnitte einzustellen. - Daten sparen: Wer alle persönlichen Daten von sich ins Internet stellt, erlebt oft böse Überraschungen. Deshalb sollte man gut überlegen, welche Informationen man von sich preisgibt. - Rechte sichern: Wer Rechte anderer achtet, sollte auch sich selbst schützen. Ein Blick in die Geschäftsbedingungen ist ratsam, bevor persönliche Videos eingestellt werden.
  10. Klimes, T.: ¬Der Freunde-Verkäufer : Mark Zuckerberg handelt mit Privatdaten - nun umgarnt ihn die globale Werbewirtschaft (2008) 0.01
    0.0065760585 = product of:
      0.026304234 = sum of:
        0.026304234 = weight(_text_:und in 2307) [ClassicSimilarity], result of:
          0.026304234 = score(doc=2307,freq=20.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.2324706 = fieldWeight in 2307, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=2307)
      0.25 = coord(1/4)
    
    Content
    ""I'm CEO . bitch" soll bis vor kurzem noch auf seiner Visitenkarte gestanden haben - "ich bin Geschäftsführer ... du Pisser." Er trägt Adiletten und Schlabberpullis, auch bei wichtigen Geschäftstreffen in Silicon Valley. Mark Zuckerberg, Kopf der Web-Plattform "Facebook", inszeniert sich gern als der Anti-Boss, als das coole College-Kid. "Der aufgeblasene kleine Scheißer hinter dem jüngsten Internet-Phänomen", höhnte das US-Satireblatt The Onion. Jetzt ist die Frotzelei in heftige Kritik umgeschlagen. "Facebook" sei der neue "Big Brother" im Internet, warnt der britische Guardian. Zuckerbergs Konzern werde von Hintermännern gesteuert, die allein an die persönlichen Daten der Nutzer heranwollten - um sie gezielt mit Werbung zu beschicken. Auf Zuckerbergs Visitenkarte steht mittlerweile nur noch "Gründer und Geschäftsführer". Die neuerliche Kritik hat an seiner Wertschätzung durch die Industrie nichts geändert. Der 23-jährige Unternehmer wird heute auf dem Weltwirtschaftsforum in Davos vor Politikern und Unternehmern aus aller Welt reden. Sein Thema: die Zukunft der Werbung. Es gibt gewichtige Gründe für seine Einladung in die Schweiz. Die Internetplattform, die Zuckerberg vor vier Jahren aufbaute, ist zu einem Massentreffpunkt im Netz avanciert. Rund 60 Millionen Mitglieder stellten bislang ihr Profil auf die Seite: persönliche Angaben zu Hobbys, Vorlieben - zu ihrem Leben. Zuckerberg kann diese Daten zu Werbezwecken nutzen - so steht es in den Geschäftsbedingungen. Deshalb reißt sich nun die Industrie um den jungen Gründer. Für sie verspricht "Facebook" nicht neue Freunde, sondern neue Kundschaft - die sie ganz gezielt bewerben kann.
    In vier Jahren zum Milliardär Der wirtschaftliche Wert des Unternehmens wird heute auf 15 Milliarden Dollar geschätzt. Im Oktober kassierte Zuckerberg 240 Millionen Dollar von Microsoft, dem Bill-Gates-Konzern. Für 1,6 Prozent an "Facebook". Die Erfolgsgeschichte von Zuckerberg beginnt, wie viele dieser Geschichten von Computer-Revolutionären beginnen - mit einer Legende. Wie die von Bill Gates, der aus einer Garage heraus die Welt veränderte, indem er das erste Betriebssystem für Computer programmierte. Die Legende von Zuckerberg beginnt im Jahr 2004 in der US-Elite-Universität Harvard. Der Psychologie-Student sitzt in einer Vorlesung, vorne am Pult fordert ein Gastredner die Studenten auf, ihre persönlichen Chancen und Möglichkeiten zu nutzen, zu versuchen, etwas Eigenes zu schaffen. Wenn nötig, sollten sie sich eine Auszeit von der Universität nehmen - er habe das damals schließlich auch gemacht. Er, Bill Gates. Mit 19 Jahren beherzigt Zuckerberg den Rat des Gastredners und bricht sein Studium ab. Theoretisch könne er ja wieder zurück nach Harvard gehen und sein Studium beenden, sagt er. Das hat auch Bill Gates einmal erzählt, auch er war damals 19. Mark Zuckerberg wurde 1984 in Westchester County geboren. Der Vater war Zahnarzt, die Mutter Psychotherapeutin - der Sohn ein Computernarr. 2002 geht er nach Harvard, um Psychologie zu studieren. In seiner Freizeit baut der Student ein Uni-internes Netzwerk auf, über das seine Kommilitonen miteinander kommunizieren können. Es wird ein Riesen-Erfolg. 2004 kommt Gates nach Harvard - und Zuckerberg macht sich mit seiner Idee auf den Weg ins kalifornische Silicon Valley, auf der Suche nach Geldgebern. In Kalifornien trifft Zuckerberg den deutschen Investor Peter Thiel, Gründer des Internet-Bezahldienstes PayPal. Der glaubt an Zuckerbergs Idee und investiert 500000 Dollar. Heute hält Thiel sieben Prozent an "Facebook".
    Nun soll "Facebook" nicht mehr nur der nette Internetmarktplatz sein, auf dem sich Freunde treffen - Zuckerberg will einen neuen Internet-Standard schaffen. Ob E-Mails oder Einkäufe, alles soll über "Facebook" laufen. Dazu machte er im Mai 2007 die Programmcodes des Netzwerks öffentlich. Dutzende Informatiker entwickelten eigene kleine Programme um "Facebook" herum, neue Firmen gründeten sich. Bis heute gibt es über 4000 Zusatzfunktionen für das Netzwerk. Spiele wie etwa "Foodfight", in denen man sich gegenseitig mit digitalen Speisen bewerfen kann. Aber auch Programme zum Handel auf der Auktionsplattform eBay. Zuckerbergs Vision erinnert an eine andere aus den späten 70ern. Auch damals wurde ein Standard gesucht - für die sich verbreitenden Computer. Damals entwickelte Bill Gates "Microsoft Dos". Der Weg zum Standard ist für Mark Zuckerberg auch der Weg zum Geld. Das Konzept hinter den Programmen ist simpel: Wer die kostenlosen Spielereien nutzen will, muss weitere persönliche Daten hinterlassen. Diese Daten sind Zuckerbergs Währung. Protest gegen Späh-Programm Doch vielen Nutzern ging die Expansion von "Facebook" zu weit. Das Programm "Beacon" verfolgte nach, welcher Nutzer welches Produkt im Netz kaufte - und schickte Kaufempfehlungen an alle, die im persönlichen Adressbuch eingetragen waren. Nach Protesten entschuldigte sich Zuckerberg und zog das Programm zurück. Dennoch: Für die großen Wirtschaftsunternehmen gilt er weiter als Visionär. Er hat gezeigt, wie es funktionieren könnte. Der "kleine Scheißer", der immer noch in Adiletten geht, ist in Davos ganz oben angekommen. Neben ihm auf der Gästeliste: Bill Gates."
  11. Scalla, M.: Auf der Phantom-Spur : Georges Didi-Hubermans neues Standardwerk über Aby Warburg (2006) 0.01
    0.0065760585 = product of:
      0.026304234 = sum of:
        0.026304234 = weight(_text_:und in 54) [ClassicSimilarity], result of:
          0.026304234 = score(doc=54,freq=20.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.2324706 = fieldWeight in 54, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=54)
      0.25 = coord(1/4)
    
    Content
    "Der Bildtheoretiker Georges Didi-Huberman hat sich viel vorgenommen: Er will ein Phantom beschreiben. Wer so etwas beginnt, möchte das flüchtige Wesen am Ende auch zuverlässig dingfest machen. In seiner Studie über den Hamburger Kunstwissenschaftler Aby Warburg leistet Didi-Huberman beeindruckende Rekonstruktionsarbeit - aber am Ende trägt das Phantom den Sieg davon. Didi-Hubermans Buch kann als Standardwerk das bisherige des Warburg-Schülers Erwin Panofsky ablösen, und doch bleibt der einflussreiche Intellektuelle Warburg schwer zu fassen. Warburgs zentrale Begriffe, wie "bewegtes Beiwerk" oder "Pathosformel", wurden in den vergangenen Jahrzehnten häufig zitiert, aber wie es so ist, wenn Wörter und Termini inflationär gebraucht werden, verflüchtigt sich bald der Gehalt - zumal im Falle Warburgs wenig Hemmnisse in Form stabiler Rezeptionsmuster, Werkausgaben oder einer gesicherten Tradierung seiner Grundthesen vorliegen. Immerhin gibt es mittlerweile einen Band mit Warburgs Schriften, der zwar nicht alles, aber das meiste Wichtige enthält (Suhrkamp Verlag). Darüber hinaus besteht Warburgs Werk nach wie vor aus Manuskripten, Notaten, Entwürfen, Essays sowie einem "Mnemosyne"-Atlas mit etwa 1500 Fotografien von Bildern unklarer Anordnung - ein riesiges Archiv für die Nachwelt, die sich einen ganz eigenen Reim auf die jeweiligen Trouvaillen machen kann.
    Didi-Huberman liefert eine grundsolide Rekonstruktion von Warburgs Methode der Bildanalyse. Er erklärt, warum dessen kunsttheoretische Arbeiten zur Florentiner Renaissance bereits bei ihrem Erscheinen seit Ende des 19. Jahrhunderts als bahnbrechend galten: Sie erweiterten die Grenzen des Fachs Kunstgeschichte durch eine kulturhistorische Perspektive, als noch tout le monde sich auf eine rein ästhetische Einflusshistorie kaprizierte. Ohne weiteres wird klar, warum Warburg (1866-1929) in den 1990er Jahren, als eine neue Bildwissenschaft und ihr "iconic turn" vollends die Fachgrenzen in Frage stellten und der neumedialen Bildproduktion mit kunsthistorischer Qualifikation zu Leibe rückten, zum Fixstern aufstieg. Walter Benjamin entdeckte in der Welt der Pariser Passagen eine Erscheinung, anhand deren er eine Gesellschaftstheorie wie eine Geschichtsphilosophie entfalten konnte. Aby Warburg versenkte sich in das "bewegte Beiwerk", den Faltenwurf von Gewändern oder die von Windstößen aufgewühlten Haare in den Bildern der frühen Florentiner Renaissance, vor allem in Botticellis "Geburt der Venus" und "Frühling". Didi-Huberman weist detailliert nach, wie Warburg darin zunächst ein konkretes "Nachleben der Antike" in der Renaissance entschlüsselt. Das allein wäre nicht sonderlich überraschend. Den Zeitgenossen müsste jedoch die Einsicht missfallen haben, dass ihre Vorstellung vom Renaissance-Menschen als säkularem, rationalem homo faber nur eine Projektion der eigenen Epoche war.
    Warburg mokiert sich über den Reisetypus des "Übermenschen in den Osterferien, mit Zarathustra in der Tasche seines Lodenmantels". Wo ein Nietzscheaner vermutet wurde, residierte ein braver Florentiner Bürger, der in seiner Kapelle zu Gott betete und sich die Glaubensstätte durch qualifizierte Malfachkräfte ausschmücken ließ. Der Autor rekapituliert philologisch die Begriffe, auf die sich Warburgs Denken fokussieren lässt: Nachleben, Dynamogramm, Einfühlung, Pathosformel. Das Phantom gewinnt Konturen. Der Begriff Nachleben etwa bezeichnet hier eben nicht nur ein Bildmotiv, eine Geste, die früher schon einmal da war, eine Zeit lang verschwand, und auf einmal in den Kunstwerken wiederkehrt - wie es innerhalb der bürgerlich-linearen, an einem Fortschrittsbegriff orientierten Geschichtsmodelle interpretiert wurde: "Nachleben bedeutet für ihn nichts anderes als eine Erhöhung der Komplexität geschichtlicher Zeit, die Wahrnehmung spezifischer, nichtnatürlicher Zeiten in der Welt der Kultur." Diese Komplexität versucht Didi-Huberman durch Wendungen wie "Verschlingung", "wimmelnder Schlangenhaufen" oder "Dynamographie verschlungener Polaritäten" auszudrücken. Das klingt nach französischem Begriffszauber - auch die notorischen Rhizome arbeiten sich hier wieder durch den Text -, doch durch den Wirbel hindurch gelingt ein erkenntnisfördernder Blick auf ein heute noch faszinierendes Werk. Wenige Kunsthistoriker haben vergleichbar die sinnliche Dimension von Gemälden zu erspüren und erfassen gesucht. Für eine Zeit, die vom menschlichen Körper fasziniert, zuweilen sogar besessen ist, sind Warburgs Texte ein einzigartiger Bezugspunkt. Wenn am Ende dem Phantom Warburg der Sieg über den Interpreten Didi-Huberman gelingt, liegt das am "Bildhintergrund". Der zeithistorische Hintergrund verblasst nämlich in diesem Buch, die Lage des deutschen Bürgertums vor dem Ersten Weltkrieg oder in der jungen Weimarer Republik tritt nur schemenhaft zutage. So bleiben die Konturen unscharf, und das Phantom kann weiter durch die Zeiten geistern."
    Footnote
    Vgl.: http://www.fr-online.de/kultur/literatur/auf-der-phantom-spur/-/1472266/5062826/-/index.html. Besprechungsaufsatz zu: Didi-Huberman, Georges: Das Nachleben der Bilder: Kunstgeschichte und Phantomzeit nach Aby Warburg. Frankfurt: Suhrkamp 2010.
  12. Theories of information behavior (2005) 0.01
    0.0065025813 = product of:
      0.026010325 = sum of:
        0.026010325 = weight(_text_:und in 1068) [ClassicSimilarity], result of:
          0.026010325 = score(doc=1068,freq=44.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.2298731 = fieldWeight in 1068, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.015625 = fieldNorm(doc=1068)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: Mitt. VÖB 59(2006) H.3, S.90-93 (O. Oberhauser): "What a marvellous book! [dies vorwegnehmend als Quintessenz der folgenden Rezension und auch für den englischsprachigen Verlag gedacht]. Den drei Herausgeberinnen, die an den Universitäten von Washington (Seattle, WA), Missouri (Columbia, MO) und Western Ontario (London, Kanada) lehren, ist das seltene Kunststück geglückt, einen Band zu erstellen, der nicht nur als mustergültige Einführung in die Thematik human information behaviour zu dienen vermag, sondern gleichzeitig auch als Nachschlagewerk zu den vielfältigen theoretischen Ansätzen innerhalb dieser bedeutenden Teildisziplin der Informationswissenschaft herangezogen werden kann. Wie sie selbst in der Danksagung feststellen, ist das Buch "a collaborative work of the information behavior community" (S. xvii), wobei die editorische Leistung vor allem darin lag, 85 Beitragende aus zehn Ländern zu koordinieren bzw. zur Abfassung von 72 Artikeln von jeweils ähnlicher Länge (bzw. Knappheit und Kürze), Gestaltung und Lesbarkeit zu veranlassen. Unter diesen 85 Beitragenden ist im übrigen alles versammelt, was in dieser Teildisziplin Rang und Namen hat, mit Ausnahme der leider bereits verstorbenen Soziologin Elfreda A. Chatman, einer der einflussreichsten Theoretikerinnen im Bereich des Informationsverhaltens, deren Andenken das Buch auch gewidmet ist.
    Im Gegensatz zur früher üblichen Praxis, Informationsverhalten auf die Aktivitäten der Informationssuche zu beschränken, folgt man heute Tom Wilsons Definition, wonach es sich dabei um "the totality of human behaviour in relation to sources and channels of information, including both active and passive information-seeking, and information use" handelt, bzw. jener von Karen Pettigrew [nunmehr Fisher] et al., "how people need, seek, give and use information in different contexts". Im Laufe der letzten Jahre, ja schon Jahrzehnte, hat sich dazu ein fast nicht mehr überschaubarer Bestand an Literatur angesammelt, der sich sowohl aus theoretischen bzw. theoretisierenden, als auch aus auch praktischen bzw. empirischen Arbeiten zusammensetzt. Einige wenige dieser theoretischen Ansätze haben weite Verbreitung gefunden, werden in Studiengängen der Informationswissenschaft gelehrt und tauchen in der laufend veröffentlichten Literatur immer wieder als Basis für empirische Untersuchungen oder modifizierende Weiterentwicklungen auf. Das Buch beginnt mit drei Grundsatzartikeln, die von herausragenden Vertretern des gegenständlichen Themenbereichs verfasst wurden. Im ersten und längsten dieser Beiträge, An Introduction to Metatheories, Theories and Models (S. 1-24), gibt Marcia J. Bates (Los Angeles, CA), zunächst eine wissenschaftstheoretische Einführung zu den drei im Titel genannten Begriffen, nicht ohne darauf hinzuweisen, dass der Großteil der theoretisierenden Ansätze in unserer Disziplin erst dem Modellstadium angehört. Am Beispiel des Principle of Least Effort zeigt sie, dass selbst für diesen am besten abgesicherten Befund der Forschung zum Informationsverhalten, keine ausreichende theoretische Begründung existiert. In der Folge versucht Bates, die in der Informationswissenschaft gängigen Metatheorien zu identifizieren und gelangt dabei zu der folgenden Kategorisierung, die auch als Bezugsrahmen für die Einordnung der zahlreichen in diesem Buch dargestellten Modelle dienen kann:
    1. historisch (die Gegenwart aus der Vergangheit heraus verstehen) 2. konstruktivistisch (Individuen konstruieren unter dem Einfluss ihres sozialen Kontexts das Verständnis ihrer Welten) 3. diskursanalytisch (Sprache konstituiert die Konstruktion der Identität und die Ausbildung von Bedeutungen) 4. philosophisch-analytisch (rigorose Analyse von Begriffen und Thesen) 5. kritische Theorie (Analyse versteckter Macht- und Herrschaftsmuster) 6. ethnographisch (Verständnis von Menschen durch Hineinversetzen in deren Kulturen) 7. sozialkognitiv (sowohl das Denken des Individuums als auch dessen sozialer bzw. fachlicher Umraum beeinflussen die Informationsnutzung) 8. kognitiv (Fokus auf das Denken der Individuen im Zusammenhang mit Suche, Auffindung und Nutzung von Information) 9. bibliometrisch (statistische Eigenschaften von Information) 10. physikalisch (Signalübertragung, Informationstheorie) 11. technisch (Informationsbedürfnisse durch immer bessere Systeme und Dienste erfüllen) 12. benutzerorientierte Gestaltung ("usability", Mensch-Maschine-Interaktion) 13. evolutionär (Anwendung von Ergebnissen von Biologie und Evolutionspsychologie auf informationsbezogene Phänomene). Bates Beitrag ist, wie stets, wohldurchdacht, didaktisch gut aufbereitet und in klarer Sprache abgefasst, sodass man ihn mit Freude und Gewinn liest. Zu letzterem trägt auch noch die umfangreiche Liste von Literaturangaben bei, mit der sich insbesondere die 13 genannten Metatheorien optimal weiterverfolgen lassen. . . .
    Zusammenfassend möchte ich folgende Behauptung wagen: Wer dieses Buch gründlich studiert (und natürlich auch die zahlreichen Literaturhinweise verfolgt), kennt mehr oder weniger alles, was es zum Themenbereich Informationsverhalten - als Teildisziplin der Informationswissenschaft - zu wissen gibt. Kann man über ein Buch noch etwas Besseres sagen? Und kann man voraussehen, welche neuen metatheoretischen Ansätze mit einer solchen Gesamtschau noch gefunden können und werden? In formaler Hinsicht bietet der Verlag Information Today mit dem vorliegenden Buch einen ansprechend gestalteten Hardcover-Band ohne größere Mängel und mit einem dem Gebotenen angemessenen Preis. Von dem fast 30 Seiten langen kombinierten Namens- und Sachregister könnten manche europäischen Verlage - die diesbezüglich eher auf Einsparung setzen oder wenig professionelle Register anbieten - lernen, wie man derlei macht. Als fehlend könnte man vielleicht einen Anhang mit den Kurzbiographien aller Beitragenden empfinden, doch mag es verständlich erscheinen, dass dies angesichts deren großer Zahl auf eine Vorstellung der drei Herausgeberinnen beschränkt wurde. Nicht gefallen hat mir der wenig konsistente Zitierstil bei den bibliographischen Angaben, einschließlich der Mode, beim Zitieren von Zeitschriftenaufsätzen vorgeblich redundante Heftangaben wegzulassen. Über die Exaltation der dritten Herausgeberin, ihrem Vornamen (auch auf dem Titelblatt!) noch den Klammerausdruck "(E. F.)" hinzuzufügen, sei rasch der Mantel des Schweigens gebreitet. In Summe daher, wie schon eingangs festgestellt wurde, ein vorzügliches und sehr empfehlenswertes Buch."
  13. Lehmann, H.: Letzte Chance! Jetzt kopieren! : Das bringt die neue Rechtslage (2002) 0.01
    0.006484081 = product of:
      0.025936324 = sum of:
        0.025936324 = weight(_text_:und in 2159) [ClassicSimilarity], result of:
          0.025936324 = score(doc=2159,freq=28.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.22921911 = fieldWeight in 2159, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=2159)
      0.25 = coord(1/4)
    
    Content
    "Am 22.6.2001 trat, von vielen kaum wahrgenommen, die für die digitale Welt einschneidende EU-Richtlinie 2001/29/EG über die "Urheberrechte in der Informationsgesellschaft" in Kraft. Diese Richtlinie muss von allen EU-Staaten bis zum 22.12.2002 in nationales Recht umgesetzt werden. Ist das geschehen, steht die Privatkopie wahrscheinlich vor dem Aus. Denn diese Richtlinie verlangt im Artikel 6, dass die Mitgliedsstaaten einen ange messenen Rechtsschutz schaffen, der ein Umgehen von wirksamen technischen Maßnahmen verhindert und unter Strafe stellt. Unter wirksamen technischen Maßnahmen ist, einfach ausgedrückt, der Kopierschutz auf digitalen Datenträgern zu verstehen, der dann weder umgangen noch beseitigt werden darf. Was ist aber mit der bisher für den privaten Gebrauch zugelassenen Privatkopie von Software oder MusikCDs? Zwar gibt es kopiergeschützte Datenträger bereits längere Zeit, doch findige Tüftler und Programmierer heizten durch Kopierprogramme wie beispielsweise "CIoneCD" oder den simplen Filzstift-Trick das Wettrüsten an der digitalen Verschlüsselungsfront immer wieder an; sehr zum verständlichen Leidwesen der Urheberrechteverwalter und der Urheberrechteeigentümer. Jeder neue Kopierschutz erwies sich nach einiger Zeit als Makulatur. Eine Privatkopie ließ - sich erstellen. Alte Rechtslage Bisher war es durchaus legal, von rechtmäßig erworbenen Musik-CDs oder von nicht durch Lizenzbestimmungen geschützer Software eine für den Privatgebrauch bestimmte Kopie anzufertigen. Grundlage für diese Regelung war bis heute § 53 I UrhG. Diese Regelung wurde damit begründet, dass der Urheber in den betreffenden Bereichen kaum Kontrollmöglichkeiten von Privatkopien besitzt und man den privaten Bereich von einer Überwachung freihalten wollte. Die Kopie war ja nicht ganz umsonst, wie oft behauptet wird. In §§ 54 ff UrhG wird die so genannte Urheberabgabe bestimmt, die beispielsweise von der Verwertungsgesellschaften wie die GEMA von Herstellern und Importeuren auf Geräte und Medien erhoben wird. Diese musste dann letztendlich der Käufer und Benutzer beim Erwerb von diesen Produkten bezahlen. Sie brauchten also bei Kopien nach dem oben genannten Paragraphen kein schlechtes Gewissen haben. In der bisherigen Rechtssprechung war man der Auffassung, dass jeder zu einer Kopie berechtigt ist, der rechtmäßig in den Besitz eines Werkstücks gelangt ist. Auch die rechtmäßig erworbene CD eines Freundes konnten Sie für den privaten Gebrauch kopieren. Selbst Dritte konnten unentgeltlich Kopien anfertigen, wenn Sie selbst nicht hardwaretechnisch dazu in der Lage waren. Über die Anzahl von Kopien einer Musik-CD für den privaten Gebrauch gab es keine generellen Festlegungen. Maßgeblich ist das Erfordernis für den persönlichen Gebrauch. Bei der privaten Nutzung sind sicher mehr als zwei oder drei Kopien von Musik-CDs schwer zu rechtfertigen. Übrigens: Kopien von bereits kopierten CDs sind immer strafbar und nicht erlaubt. Daneben mussten bei bestimmter Software die Lizenzbestimmungen beachtet werden. Außerdem gilt das Verbot aus § 53 VI UrhG: "Die Verfielfälti- - gungsstücke dürfen weder verbreitet noch zu öffentlichen Wiedergaben benutzt werden." - Geplante Maßnahmen - Was wird sich in Zukunft ändern? Die neue EURichtlinie verbietet es, Kopierschutzmaßnahmen und ähnliche Mechanismen zu umgehen. Dabei spielt es keine Rolle mehr, ob der Zugriff auf ein geschütztes Werk legal oder illegal ist. Geschützt ist danach die technische Maßnahme, die im normalen Betrieb dazu bestimmt ist, ein geschütztes Werk vor nicht von den Urhebern genehmigten Handlungen zu bewahren. Was ist jedoch eine wirksame technische Maßnahme? Wo liegt die Messlatte zwischen Schutzsystemen, die mit relativ einfachen Mitteln zu umgehen sind und Maßnahmen, die nur mit erheblichen Aufwand zu knacken sind? Zur Zeit wird in den Ausschüssen noch über klare Rechtsvorschriften diskutiert. Zum Thema finden Sie in diesem Artikel ein Statement der Elaborate Bytes AG und einen Kasten mit interessanten Rechtsaspekten unseres Anwalts Christian Czirnich. - Knacken bis nichts mehr geht -
    In den Artikeln der folgenden Seiten bieten wir Ihnen noch einmal alles, was das Kopiererherz begehrt. Im Workshop ab Seite 40 erklären wir, wie Sie Programm- und Musik-CDs mit dem Programm CIoneCD ohne Probleme kopieren. Damit Sie gleich Ioslegen können, haben wir das Programm CIoneCD auf unserer CD1 unter "Kopiertools" für Sie bereitgestellt. Mit dieser DemoVersion können Sie 21 Tage arbeiten. Wir zeigen Ihnen Schritt für Schritt, wie Sie zum optimalen Kopierergebnis gelangen. Beim Kopieren wird in einschlägigen Kopier- oder Brennprogrammen oft mit Abkürzungen oder Fachbegriffen gearbeitet. Da ist oft von Macrovision, Rippen oder Disc-at-Once die Rede. Im "Einmaleins der Knack-Profis" im Kasten rechts finden Sie wichtige Begriffe und Abkürzungen zum Kopieren erklärt. Was für die CD gilt ist ebenso kein Problem bei einer DVD. In unserem DVD-Workshop ab Seite 44 zeigen wir Ihnen, wie Sie eine gekaufte DVD auf die Festplatte kopieren. Ist der Film erst einmal auf der Festplatte, ist es möglich, den Kopierschutz zu umgehen sowie Ländercods auszuschalten. Danach sind es wenige Schritte, um den Film auf eine oder mehrere CD-Rohlinge brennen. Wir verraten Ihnen im Workshop außerdem wichtige Internet-Adressen, von denen Sie sich die Tools zum Workshop herunterladen können. Die Links finden Sie im Text in blauer Farbe gedruckt. Wenn Sie den Workshop nachvollziehen wollen, ist es ratsam, sich zuvor die benötigten Tools aus dem Netz zu holen. Bleibt noch ein Problem: Oft befinden sich vertrauliche oder persönliche Daten auf dem PC oder es ist notwendig bestimmte Tabellen oder Excel-Zellen vor unbefugtem Zugriff zu schützen. MS Office bietet dafür die Möglichkeit, solche relevanten Daten mit Passwörtern zu schützen. Oft bleiben Dateien lange Zeit ungenutzt. Was können Sie tun, wenn Sie ein persönliches Passwort einer Excel-, Word- oder ZIP-Datei vergessen oder verlegt haben? Die PCgo hilft bei der Wiederherstellung der persönlichen Passwörter ab Seite 46. Beachten Sie aber unbedingt, dass es nur erlaubt ist, eigene Dateipasswörter wieder herzustellen. Sie machen sich strafbar, wenn Sie Passwörter von fremden Dateien aktivieren. Also, kopieren Sie, solange die alte Rechtslage noch gilt. Die Umsetzung der EU-Richtlinie wird zur Zeit in diversen Ausschüssen vorbereitet und ist in Deutschland noch nicht rechtskräftig. Aber spätestens zur Jahreswende kann schon ein anderer Wind wehen. Wir halten Sie in jeder Hinsicht auf dem Laufenden.
  14. Brown, L.: Google auf zwei Beinen (2005) 0.01
    0.006484081 = product of:
      0.025936324 = sum of:
        0.025936324 = weight(_text_:und in 4367) [ClassicSimilarity], result of:
          0.025936324 = score(doc=4367,freq=28.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.22921911 = fieldWeight in 4367, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=4367)
      0.25 = coord(1/4)
    
    Content
    "Die Fußballer sind im Toilettenschrank. Den habe sie extra bauen lassen, sagt Edda Tasiemka, Kopf in den Nacken, Füße auf Zehenspitzen, Armenach oben gestreckt, um dem Besuch zu zeigen, was sich in dem schmalen, weiß gestrichenen Kabinett unter der Decke des schmalen Raumes verbirgt. Wie eine Klavierspielerin lässt sie ihre Finger über eine Tastatur aus Ordnerrücken laufen: Pele, Robson, Rooney, Ronaldo. Alle Fußballer sorgfältig alphabetisch aneinander gereiht, nur Maradona, der liegt quer. Ordnung müsse man, haben, sonst sei man verloren, sagt Tasiemka später im Wohnzimmer, wie ein Storch über ein Meer aus vergilbten Zeitungsausschnitten stolzierend. Im Flur bilden Zeitungstürme bizarre Berglandschaften, an der Treppe droht eine Papierlawine. In der Küche stapeln sich neben einem Brotlaib verblasste Papierordner, auf denen in schwarzem Filzstift "Embryos" und "Bulimie" stehen. Noch ist es ruhig im Haus, später wird das Telefon keine Ruhe geben: Zu ihren Kunden gehören bekannte Biografen wie Michael Crick, aber auch Boulevard-Blätter wie der Daily Express. Anrufe bei einer 82-jährigen Deutschen auf der Suche nach Informationen, die selbst für große Verlagsund Zeitungshäuser nicht mehr zu finden sind, außer vielleicht in einer unauffälligen Doppelhaushälfte im Londoner Stadtteil Golders Green: "Worüber wollen Sie etwas wissen?", fragt sie und zieht energisch die Schubladen einer antiken Mahagoni-Kommode auf "Amerikanischer Bürgerkrieg? Die Hochzeit Queen Viktorias? Elle MacPherson? Lockerbie?" Chronologisch, alphabetisch, tasiemkisch: Seit 55 Jahren schneidet und sammelt Tasiemka Wissenswertes und Faktenreiches aus Zeitungen und Magazinen und verteilt es - je nach Thema - in ihrem geräumigen Haus. Artikel aus abonnierten oder geschenkten Zeitschriften, Artikel aus auf Flohmärkten aufgestöberten, hundert Jahre alten Originaleditionen, aber auch aus aktuellen Ausgaben der Sun, dem New Yorker oder Paris Match.
    Drei Mitarbeiterinnen helfen mit dem Kopieren und Verschicken von Artikeln; doch nur Tasiemka entscheidet über Ordnung und Aufteilung ihres papierenen Königreichs. Da kann es schon passieren, dass über Bush senior nur ein Ordner zu sehen ist, über Bill Clinton dafür fünf, bei Tasiemka ist in den überfüllten Schränken nicht immer Platz für Objektivität. Ihr eigenwilliges Ordnungssystem aber scheint aufzugehem: In den 80er Jahren, als viele britische Zeitungsarchive durch Protestbewegungen der Gewerkschaften geradezu gelähmt waren, sei das Archiv unentbehrlich gewesen, erinnert sich Lynn Barber vom Observer: Nirgendwo könne man sonst so schnell und' effizient Informationen bekommen. Längst gilt sie unter Journalisten als Geheimtipp, immer hat sie eine Extra-Information pa-. rat. Tasiemka, so der Königshausexperte Robert Lacey, sei eine Suchmaschine lange bevor Google erfunden wurde: ein Kompliment, dass ihr nichts sagen wird, da sie das Internet noch nie benutzt hat. Wenn sie läuft,' wippt Edda Tasiemka, leicht auf den Zehenspitzen, die geliebten' schwarzen Strumpfhosen hat sie an diesem Tag gegen dunkelblaue eingetauscht. Beine einer Balletttänzerin, Augen, die alles sehen, weiß-graue Haare im einfallenden Sonnenlicht fast transparent. "Hinter den Hogarths sind die Gurkhas": Unter ihren Hän den werden Wände zu verschiebbaren Schranktüren, MahagoniKommoden zu Museumsvitrinen, in denen Originalartikel über den Tod Abraham Lincolns berichten oder über die Hochzeit Queen Viktorias. Nichts ist im Haus wie es zu sein scheint, am wenigsten aber seine Besitzerin. Neben der Archivpflege hat sie selbst viele Jahre als Journalistin gearbeitet, für die Bravo hat sie die Beatles und Jimi Hendrix interviewt. Unter dem Dach stehen die neuen "Abteilungen": Internet, Straßenkriminalität. Derartiges gab es damals nicht, sagt Tasiemka über ihre Jugend, dafür einen richtigen Krieg. Tasiemkas Eltern waren unverheiratet, ihr Vater war Kommunist. Ihre Mutter wurde 1938 verhaftet, da war sie gerade 15: Eine vernünftige Schulausbildung gab es nicht, sagt sie, ihre Eltern "waren zu links". 1949 lernte sie ihren Mann in Hamburg kennen, ein jüdischer Journalist, der nach Jahren auf der Flucht als Übersetzer beim Kriegsverbrechertribunal arbeitete: "Schon als ich ihn zum ersten Mal traf, waren seine Hosentaschen voller Zeitungsausschnitte". Zusammen zogen sie nach London, in ihrer Einzimmerwohnung lag eine erste Kiste mit Artikeln unter dem Bett. Sie ließ sich von seiner Faszination für Geschichten anstecken: Viele Wochenenden verbrachten die Tasiemkas auf Flohmärkten mit der Suche nach alten Zeitschriften. Zu ihren Schätzen gehört eine Sammlung der Belle Epoque Zeitschrift Le Rire mit Illustrationen Toulouse-Lautrecs.
    Nach dem Tod ihres Mannes 1979 taufte Edda Tasiemka ihre gemeinsame Artikelsammlung das "Hans Tasiemka Archiv. In einem schmalen, ledergebundenen, roten Buch stehen sie, die Aufträge der vergangenen Woche: Justin Timberlake, David Blunkett, Hugh Grant. Wer wollte über sie etwas wissen und warum jetzt? Ein Dutzend Ausschnitte kostet kostet etwa 35 Pfund, wenn es schnell gehen muss, werden diese auch mal durchgefaxt. Aufgelistet steht steht auch: "Tony Blair und Frauenmagazine". Wenige Tage später wird großes Interview mit dem Premierin der Cosmopolitan erscheinen. Heute vergilben die Zeitungen schon nach drei Wochen, sagt Tasiernka. Wie zum Beweis liegt eine Guardian-Ausgabe auf einem Treppenabsatz, weniger als ein Jahr alt: "Kellys erschreckende Wörter: Irendwann wird man mich tot im Wald auffinden", steht dort vorwurfsvoll in dicken, schwarzen Buchstaben über den britischen Experten für Massenvernichtungswaffen. Wer erinnert sich heute noch daran? Wenige Wochen später wurde aus der skandalumwitterten Schlagzeile traurige Wirklichkeit. Der letzte, den sie mit ins Bett nahm, sei Orlando Bloom gewesen, seufzt Tasiemka, der Ausschnitt liegt noch auf ihrem Nachttisch. Immer wieder passiert es, dass sie ein Thema recherchiert und dabei über interessante Details stolpert, hängen bleibt. Jetzt sucht Tasiemka einen Nachfolger für ihr Archiv. Bei dem Wort "Museum" blitzt Empörung in den dunk len Augen auf; Tasiemka möchte, dass das Archiv weiter betrieben und gepflegt wird. Sie hofft auf eine Universität. An der Tür eine letzte Bitte: Tasiemka hätte gerne ein Belegexemplar. Unter dem Dach stapelt sich ein noch heimatloser Haufen Ordner, auf denen die Namen verschiedener Journalisten stehen."
  15. Lewandowski, D.: Wikipedia in großen Suchmaschinen (2005) 0.01
    0.006484081 = product of:
      0.025936324 = sum of:
        0.025936324 = weight(_text_:und in 4576) [ClassicSimilarity], result of:
          0.025936324 = score(doc=4576,freq=28.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.22921911 = fieldWeight in 4576, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=4576)
      0.25 = coord(1/4)
    
    Abstract
    Die großen Suchmaschinen Google und Yahoo setzen beide auf die Inhalte des freien Nachschlagewerks Wikipedia. Sie wollen die Inhalte bei entsprechenden Anfragen prominent platziert vor der eigentlichen Trefferliste anzeigen. Google verwendet sie auch, um an die Suchmaschine gestellte Fragen zu beantworten. Damit gewinnt die nicht unumstrittene Freiwilligen-Enzyklopädie weiter an Bedeutung.
    Content
    "Google hat im April die aus dem US-Angebot bekannte bekannte Funktion der Begriffsdefinitionen für die deutschsprachige Seite vorgestellt. Leitet man eine Anfrage mit "definiere" ein, so wird an erster Stelle (noch vor der regulären Trefferliste) eine Definition des entsprechenden Begriffs angezeigt. Zwar werden andere Quellen aus dem offenen Web eingebunden, es zeigt sich aber, dass die Wikipedia-Einträge an erster Stelle platziert sind. Es wird jeweils der erste Abschnitt aus dem Wikipedia-Artikel präsentiert, der vollständige Text kann über einen Link abgerufen werden. Klickt man die Oberschrift "Definitionen von ... im Web" an, bekommt man, wenn vorhanden, weitere Treffer aus anderen Quellen angezeigt. Ein Beispiel zeigt die Bandbreite der Definitionen: Die Suche nach einer Definition für Glück ergibt neben dem ausführlichen Wikipedia-Artikel unter anderem Treffer von skat.com ("Faktor, der beim Skatspiel nicht wegzudenken ist") und von jesubotschaft.de. Hier muss sich Google (wieder einmal) den Vorwurf gefallen lassen, nicht die Autoritäten, also die hochwertigsten Quellen einzubeziehen, sondern irgendwelche, die (vermeintlich) etwas zum Thema zu melden haben. Eine weitere Einbindung der Wikipedia-Quellen wird bereits auf Googles US-Site getestet: Stellt man der Suchmaschine eine Frage (und nicht wenige Suchmaschinennutzer tun dies tatsächlich!), so bekommt man mit etwas Glück direkt eine Antwort angezeigt, zum Beispiel auf die Frage "Who is David Bowie?" die Antwort: "is a British rock and roll musician, actor, and artist who has had a profound influence an rock". Unter jedem Treffer ist ein Link auf die Quelle angegeben. Die Informationen kommen nicht nur aus der Wikipedia, sondern zum Beispiel auch aus dem World Fact Book (bei geographischen Anfragen) oder von Seiten wie "Pub Quiz Help". Die aus den Webseiten gezogenen Exzerpte sind von unterschiedlicher Qualität: Fragt man nach (populären) Zahlenangaben wie etwa der Höhe des Mount Everest, funktioniert es gut, bei den Fragen nach Personen wird manchmal ein etwas unpassender Teil des Artikels angezeigt, so dass man sich auf den vollständigen Artikel weiterklicken muss. Bislang geht Yahoo einen anderen Weg als Google. Gibt man in der US-amerikanischen Version Begriffe ein, die auf ein klassisches "Nachschlage-Bedürfnis" hindeuten, wird ähnlich wie bei Google mit den Definitionen ein "Shortcut" angezeigt (Password 2/2004 und 11 /2004). Die Quellen dort sind allerdings direkt in das Yahoo-Angebot eingebaut, d.h. man verlässt nicht das Yahoo-Portal, wenn man sich die vollständigen Artikel ansehen möchte. Und die Quellen wirken wesentlich vertrauenerweckender: Die Enzyklopädie-Einträge kommen aus der Columbia Electronic Encyclopedia. Sucht man nach Ländernamen, so bekommt man Treffer aus dem World Fact Book, "the U.S. government's complete geographical handbook". Nun hat Yahoo angekündigt, die Einträge aus der Wikipedia bei solchen Anfragen prominent platziert anzeigen zu wollen. Bisher sind allerdings nur einzelne Beispiele zu sehen: Gibt man beim französischen Ableger von Yahoo einen Ländernamen ein, so wird bereits ein Treffer aus der Wikipedia angezeigt. Des weiteren stellt Yahoo den Betreibern der Wikipedia Serverplatz zur Verfügung. Es wird jedoch betont, dass dies nicht das Ende der Gespräche zwischen Wikipedia und Google bedeute.
    Mit der sehr umfangreichen Wikipedia bietet sich für die Suchmaschinenbetreiber eine Möglichkeit, durch die manuelle Einbindung einer einzigen Quelle vermeintlich alle Fragen kompetent abzudecken. Der bisher zumindest bei Yahoo betriebene technische Aufwand, verschiedene Quellen (für die man als Suchmaschinenbetreiber vielleicht sogar bezahlen muss!) einzubinden und trotzdem nicht auf jede Frage eine schnelle Antwort liefern zu können, kann gespart werden. Letztlich stellt sich allerdings die Frage nach der Qualität der Treffer aus Wikipedia. Die Wikipedia wird von Freiwilligen erstellt, wobei es sich nicht um eine geschlossene Gruppe handelt. Vielmehr wird jeder Internet-Nutzer dazu eingeladen, sich an der Erstellung der Enzyklopädie zu beteiligen. Artikel werden gemeinschaftlich erarbeitet und sollen so dem Ideal nach mit der Zeit immer besser werden. Gibt es aktuelle Entwicklungen, so können diese direkt in die Artikel eingebunden werden. Es ist aber zu fragen, ob die Artikel durchweg die von einem Nachschlagewerk zu erwartende Qualität liefern können. Sicherlich gibt es in der Wikipedia sehr gute Artikel. Allerdings gibt es auch einen großen Anteil von schlechten, unsystematischen und fragwürdigen Eintragungen. Ein Blick auf das "Portal Bibliothek, Information, Dokumentation" zeigt exemplarisch einige Schwachstellen: Zunächst ist das Portal unvollständig. Das ist verständlich und wäre nicht besonders schlimm, wenn dies für den Nutzer immer ersichtlich wäre. Zwar ist dies klar, wenn zu einem Begriff kein Artikel angezeigt wird. Artikel, die sich noch in einem "frühen Stadium" befinden (und deshalb noch nicht oder nur marginal überarbeitet wurden), sind jedoch nicht als solche gekennzeichnet. Sie können deshalb, insbesondere wenn Suchmaschinen an prominenter Stelle auf sie verweisen, in ihrer Qualität leicht mit Einträgen aus echten Enzyklopädien verwechselt werden. Viele Nutzer werden ihnen damit eine vergleichbare Autorität zumessen. Ein weiterer Kritikpunkt betrifft den unsystematische Aufbau der Wikipedia. Wieder ein Beispiel aus dem Portal BID: Ein Artikel zum Booleschen Retrieval ist nicht vorhanden, wohl aber zum Erweiterten Booleschen Retrieval. Dieser besteht hauptsächlich aus einer Ansammlung von Formeln und hat damit wenig mit einem enzyklopädischen Artikel zu tun.
    Eine Enzyklopädie sollte etwas über die Bedeutung der behandelten Themen aussagen. Klassisch bekommen die wichtigeren Themen längere Artikel, die weniger wichtigen entsprechend kürzere. Die Wikipedia gibt hier keine Orientierung: Alle Themen scheinen gleich bedeutend zu sein, zumindest drückt sich die Bedeutung nicht in der Länge aus. So ist der Artikel über den Computerspiel-Helden Super Mario, bei dem man sich ja schon generell fragen darf, was er in einer Enzyklopädie zu suchen hat, ca. 30.000 Zeichen lang, der über Gerhard Schröder nur 17.000. Was bedeutet die zumindest zu hinterfragende Qualität der Wikipedia und ihre Einbindung in die Suchmaschinen für den Such maschinen-Nutzer? Der Kernpunkt wurde bereits erwähnt: Die Nutzer werden der Wikipedia eine Autorität beimessen, die diese nicht hat. Die Suchmaschinen unterstützen mit der Einbindung die Annahme, die Wikipedia könne die Qualität und Orientierung einer echten Enzyklopädie bieten. Die Suchmaschinen wären besser beraten, verstärkt auf die Einbindung geprüfter, hochwertiger Quellen zu setzen. Einen solchen Ansatz verfolgt MSN mit der Einbindung der hauseigenen Encarta-Enzyklopädie. Deren Nutzung ist immerhin für jeden Nutzer zwei Stunden lang kostenlos, dann muss bezahlt werden."
  16. Ermert, M.: Wer hat, dem wird gegeben : Von wegen Mitbestimmung: Nur noch Industrie und Domain-Inhaber sollen die Direktoren der Internet-Verwaltung Icann wählen dürfen (2001) 0.01
    0.006418913 = product of:
      0.025675653 = sum of:
        0.025675653 = weight(_text_:und in 890) [ClassicSimilarity], result of:
          0.025675653 = score(doc=890,freq=14.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.22691534 = fieldWeight in 890, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=890)
      0.25 = coord(1/4)
    
    Content
    "So schwierig hat sich der ehemalige schwedische Ministerpräsident Carl Bildt das nicht vorgestellt, als er im letzten Jahr um seinen Rat bei der Reform der Internet Corporation for Assigned Names and Numbers (Icann) gebeten wurde. Aber bei der Jahrestagung der Organisation, die für die Standards im Netz zuständig ist, musste der Politiker eine Menge Kritik einstecken - für seine Empfehlungen, künftig nur noch den Inhabern von Domains ein Wahlrecht für ein Drittel der Sitze im Icann-Direktorium zuzugestehen. Ein Politikum, denn im vergangenen Jahr durften noch alle, die eine E-Mail-und eine Post-Adresse besaßen, bei der ersten weltweiten Online-Wahl fünf Direktoren in den 19-köpfigen Vorstand entsenden. Besonders in Europa und einigen asiatischen Ländern sorgte das für Aufsehen. Das Netz - oft als anarchischer Raum gescholten - präsentierte sich' als Muster für demokratische Mitbestimmung. 140 000 Nutzer weltweit hatten sich dafür registrieren lassen. Auch wenn Icann selbst die Wahl als Erfolg bejubelte, war schon vorher klar, dass der Wahlmodus nach der ersten Runde überprüft werden müsse. ;,Wir wollten nie eine Demokratie sein", beteuerte lcanns Politikstratege, Andrew McLaughlin. Bildt, die Ex.Icann-Chefin Esther Dyson und ihr Komitee sollten daher grundsätzlich überprüfen, ob eine Mitbestimmung durch Nutzer überhaupt notwen-dig ist. "Was wir vorlegen, ist natürlich ein Kompromiss", sagte der Schwede jetzt bei der Tagung in Marina del Rey, Kalifornien. Er erfülle aber die notwendigen Standards von Fairness, Integrität und Finanzierbarkeit. Denn zum einen war die Authentifizierung der Wähler per Post vor einem Jahr ziemlich teuer. Zum anderen sei eine reine E-Mail-Anmeldung wegen des möglichen Wahlbetrugs derzeit nicht machbar, urteilt Bildts Komitee. Darum sollen nur noch Besitzer von Domains (etwa www.suedeutsche.de) wählen dürfen. Zudem müssen die Wähler selbst für ihre Organisati-on aufkommen, per Mitgliedsbeitrag. "Die Einschränkung des Wahlrechtes ist unakzeptabel", sagt Christopher Chiu von der Bürgerrechtsorganisation American Civil Liberty Union. "Das ist so, als dürften nur Landbesitzer wählen." Chiu steht mit seiner Kritik nicht allein. Gerade in Entwicklungsländern würden. dies beträchtliche Hürden für die Wahl aufbauen. Man wolle immerhin über zusätz-liche Möglichkeiten der Authentifizierung nachdenken, etwa die persönliche Anwesenheit, sagt Esther Dyson. Endgültig vom Tisch aber scheint das Versprechen zu sein, den Nutzern die "Hälfte der Macht" zu geben, mit dem Icann 1998 angetreten war. Auch künftig dürfen sie statt neun nur sechs der 19 Direktoren wählen. Das immerhin will das Bildt-Komitee festschreiben - gegen die Stimmen, die die Mitsprache ablehnen. Andy Müller-Maguhn, gewählter Icann-Direktor für Europa, nannte Bildts Aussagen schlicht "prozeduralen Mist": Mit seinen Kollegen, die die User anderer Kontinente vertreten, hat er jetzt erreicht, dass bis zur endgültigen Abstimmung im kommenden März alles offen bleibt. Aber die Zeit drängt, im nächsten Jahr läuft ihre Amtsperiode ab. Auch die NGO and Academic Icann Study (NAIS), eine Art Alternativgremium zum Bildt-Komitee, hat es eilig. Sie besteht auf die neuen Direktorenposten für die Nutzer, um ein Gegengewicht zu den neun Industrievertretern zu bilden. Unterstützung bekam die Gruppe ausgerechnet vom Vertreter der Europäischen Kommission. Die Regierungen, sagte er, seien durchaus an einer gleichberechtigten Selbstregulierung von Unternehmen und Bürgern interessiert. Ohne diese Balance und allgemeines Wahlrecht verliere das Icann-Modell an Attraktivität, sagt auch Iliya Nickelt vom Virtuellen Ortsverein der SPD. Bei der Wahl vor einem Jahr habe es die "Vision einer Art globaler Demokratie" gegeben. Möglicherweise sei diese Hoffnung "irrational", räumt sie ein, so irrational wie die Mondspaziergänge vor 30 Jahren. Die Astronauten seien dennoch gestartet"
  17. Resenhoeft, T.: Aluminium-Schwindsucht bereitet CDs ein sicheres Ende : Chemische Reaktion macht Datenträger nach 25 bis 100 Jahren unbrauchbar - Keine Warnung der Hersteller (2001) 0.01
    0.006418913 = product of:
      0.025675653 = sum of:
        0.025675653 = weight(_text_:und in 1254) [ClassicSimilarity], result of:
          0.025675653 = score(doc=1254,freq=14.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.22691534 = fieldWeight in 1254, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=1254)
      0.25 = coord(1/4)
    
    Abstract
    "Milliarden CDs werden langsam, aber unaufhaltsam zerstört. Ihre glänzende Aluminiumschicht wird durch eine chemische Reaktion innerhalb von Jahrzehnten durchsichtig und damit unbrauchbar. Bei Musik-Liebhabern oder Computer-Freaks ist dieser drohende Verlust von Milliardenwerten weitgehend unbekannt. Warnungen der CD-Hersteller fehlen. Die deutsche Musikindustrie hält entsprechende Hinweise wörtlich für "überflüssig". Ein Ersatzanspruch für zerstörte Ton- beziehungsweise Datenträger besteht nicht. Wer seine mit viel Geld und Mühe zusammengestellte Musiksammlung erhalten möchte, muss sie auf ein neues Speicherinedium umkopieren. Die Alternative: alles verlieren oder komplett neu kaufen. Fachleute in den großen Archiven richten sich längst darauf ein, ihre CDs eines Tages zu überspielen. "Rechtlich ist die Lage vollkommen klar", sagt Edda Costello, Rechtsexpertin der Verbraucherzentrale Hamburg. Die gesetzliche Gewährleistung betrage in Deutschland sechs Monate. Diese Zeit gelte für eine Waschmaschine ebenso wie für CDs. Nach Ablauf dieser Frist müssten die Hersteller eine schadhafte CD nicht ersetzen. Auch gebe es keine Rechtspflicht, auf den möglichen Ausfall der Musikträger hinzuweisen, ergänzt sie. Ihrer Ansicht nach sollten Kunden jedoch auf das Problem aufmerksam gemacht werden. Diese verbänden mit der CD einen dauerhaften, verlustfreien Datenstrom. Doch wie lange eine CD wirklich hält, ist umstritten. Die Angaben scheinen mit der Interessenlage zu schwanken - zwischen 25 und 100 Jahren. Henning Hopf, geschäftsführender Leiter des Institutes für organische Chemie der Technischen Universität Braunschweig, schätzt die Haltbarkeit von CDs auf etwa 25 bis 30 Jahre: Das ist ein ernstes Problem." Es entsteht, weil es im Inneren der CD chemische Reaktionen gibt, wie der Ingenieur Rainer Vesper von der Bayer AG in Leverkusen erklärt. Unter der bedruckten Oberseite einer CD kommt eine Schicht aus Klarlack, gefolgt von einer dünnen Schicht aus Aluminium. Unterhalb dieses feinen Metallfilms liegt der durchsichtige Kunststoff Polycarbonat. Darin sind in Form kleiner Vertiefungen die Informationen abgelegt. Ein Laserstrahl tastet die Vertiefungen ab und gibt die Daten wieder. Das Aluminium reflektiert dabei das Licht. Nun können von beiden Seiten einer CD Sauerstoff- und Wassermoleküle ans Metall gelangen. Damit reagiert das Aluminium über Jahre hinweg zur durchsichtigen Verbindung Aluminiumhydroxid. Zwar bleiben dabei die Erhöhungen und Vertiefungen in der Polycarbonat-Schicht erhalten. Der Laserstrahl wird aber nicht mehr vom Aluminium zurückgeworfen, der Datenträger mithin unlesbar. Rafael Ball, Direktor der Zentralbibliothek des Forschungszentrums Jülich, sieht darin kein dringendes Problem. Die CD-ROM ist ein Auslaufmodell. Niemand macht sich mehr Gedanken über deren Langzeithaltbarkeit", sagt er. Der Höhe punkt des Einsatzes von CI)s sei bereits überschritten. Bibliotheken richteten zunehmend Online-Datenbanken auf zentralen Servern ein, sagt er. Vollkommen ungelöst sei hingegen die Frage, wie ein künftiger Großvater seinen Enkeln in 50 Jahren vorspielen wolle, welche Musik er im Jahr 2001 gehört habe. Hartmut Spiesecke, Sprecher des Bundesverbandes der Phonographischen Wirtschaft, meint: CI)s halten ein Leben lang. Kein anderes Speichermedium ist so haltbar und unempfindlich wie die CD." Freilich sei nichts für die Ewigkeit, aber ein solcher Hinweis an unsere Kunden scheint uns überflüssig, weil selbstverständlich". Aus diesem Grund sei ein Umkopieren von CI)s nicht nötig. ,Meine Berufskollegen raten zur Vorsicht', sagt dagegen Ingo Kolasa, Leiter des Deutschen Musikarchivs in Berlin. Dort wird seit 1973 ein Exemplar jeder in Deutschland erscheinenden CD gesammelt. Die internationalen Musikarchive gingen zurzeit davon aus, dass eine CD etwa 50 Jahre halte, sagt er." - Wieder abgedruckt in: Online Mitteilungen 2002, Nr.72, S.15-17.
  18. Dienelt, O.: ¬Ein Workshop über Indexing (2003) 0.01
    0.006418913 = product of:
      0.025675653 = sum of:
        0.025675653 = weight(_text_:und in 2502) [ClassicSimilarity], result of:
          0.025675653 = score(doc=2502,freq=14.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.22691534 = fieldWeight in 2502, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=2502)
      0.25 = coord(1/4)
    
    Content
    "Unter der Leitung von Frank Merrett von der Socieryy of Indexers (www.indexers.org.uk), die in Sheffield ihren Hauptsitz hat, fand am 22. Januar in London ein Workshop statt, in dem Einblicke in das Indexing (Registererstellung) ermöglicht wurden. SechsTeilnehmerinnen und drei Teilnehmer (Bibliothekare, Katalogisierer, angehende Indexer, Benutzer von Indices) bekamen durch Merrett neben den grundlegenden Dingen auch ein wenig Einblick in die Berufswirklichkeit eines Indexers vermittelt. Zunächst wurden einige Definitionen dessen, was ein Index ist, angesprochen: Ein Index (Register) ist eine systematische Anordnung von Eintragungen, die es dem Benutzer ermöglichen, Informationen in einem Dokument zu finden (nach Norm BS ISO 999,1996). Auch andere Definitionen besagen, dass die im Hauptteil eines Dokuments enthaltenen Informationen so herausgefiltert werden sollen, dass durch die Benutzung des Registers ein möglichst benutzerfreundlicher Zugang zum Hauptteil erfolgen kann. Ein Index soll den einen Benutzer entscheiden lassen, ob ein Dokument etwas für ihn Interessantes enthält. Dem anderen soll es dazu dienen, das Gelesene wieder aufzufrischen. Ein Index muss beiden gerecht werden. Nach Eintreffen des Materials vom Verlag (sehr oft als Papierausdruck) beginnt der erste Schritt, der vom persönlichen Arbeitsstil des Indexers abhängt. Manche beginnen sofort beim Lesen mit dem Niederschreiben von Begriffen, oft unter Verwendung von Software (Macrex, Cindex), andere markieren oder unterstreichen zunächst die relevanten Begriffe. Hier beginnt die eigentliche Arbeit, die darin besteht, wichtige Informationen aus dem Text herauszufiltern und so aufzubereiten, dass ein Buchleser zu Wichtigem hingeführt wird. Dazu gehören Entscheidungen wie zum Beispiel »was ist wichtig«, »was kann/ muss weggelassen werden«, »wo müssen Siehe- beziehungsweise Siehe-auch-Verweise eingebrachtwerden«. Bibliothekarisch gesehen, ist dies Sacherschließung und zugleich formale Erfassung, letztlich das Aufbauen eines Kreuzkatalogs. So wie ein Sacherschließer muss auch ein Indexer ständig überlegen, mit welchen Begriffen er dem Benutzer des Registers einen guten Zugang zur Information verschaffen kann. Ein gutes Verständnis des Faches, das in der Vorlage behandelt wird, ist deshalb unbedingt notwendig. Das wurde anhand einiger Seiten geübt, genauso wie das Aufbe-reiten des Index. Äußerste Genauigkeit ist hier nötig. Anhand eines fertigen Index mit eingebauten Ungenauigkeiten wurde geübt, sehr genau hinzuschauen und kleinste Ungenauigkeiten zu erkennen. Merrett sagte, dass ein gut geschriebenes Buch besser zu bearbeiten sei als eines, das einen weniger guten Hauptteil hat. Oft hat ein Indexer nur zwei Wochen Zeit für die Erstellung eines Registers. Die wenigsten dürften allerdings ständig von morgens bis abends an einem Index arbeiten, und nur sehr wenige verdienen ausschließlich mit dem Erstellen von Registern ihren Lebensunterhalt. Meistens ist dies ein Nebenjob. Nach Frank Merrett sind die Verhandlungen mit einem Verlag über einen zu erstellenden Index recht vorsichtig zu führen. Insbesondere über die Termine (Eintreffen des Manuskripts, Abliefern des Produkts) sowie die Form der Vorlage (welches Format, welcher Umfang) muss sich ein Indexer absichern, um keine Überraschungen zu erleben. So kann es sein, dass die Vorlage nicht als Buch, sondern als ein Stapel von Druckbogen, ungefalzt und unsortiert, ankommt. Auch das Honorar muß vom Indexer in Anbetracht des zu erwartenden Aufwandes verhandelt werden. Indexer ist keine geschützte Bezeichnung, deshalb kann sich jeder so nennen. Die Prüfungen, die man bei der Sociery of Indexers ablegen kann, sind aber ein Qualitätsnachweis. Die Society kann durch das Aufführen der Namen und Spezialgebiete auf der Homepage beziehungsweise in einem Verzeichnis einiges für die Mitglieder tun. Die Sociery legt auf das Kontakthalten mit Verlegern großen Wert, um dort auf die Dienste der Indexer hinzuweisen. Um Aufträge muß sich aber jeder selbst kümmern.
  19. Löw, W.: Wo sind sie die Inseln der Vernunft? : Ein Gedenken an Joseph Weizenbaum (2008) 0.01
    0.006418913 = product of:
      0.025675653 = sum of:
        0.025675653 = weight(_text_:und in 2837) [ClassicSimilarity], result of:
          0.025675653 = score(doc=2837,freq=14.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.22691534 = fieldWeight in 2837, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=2837)
      0.25 = coord(1/4)
    
    Content
    "Wer Joseph Weizenbaum kannte weiß, dass man ihn - je nach Gusto - zu den Optimisten oder Pessimisten rechnen konnte, weil er ganz einfach das Leben in all seinen Widersprüchen kannte und wusste, es ist nicht "logisch". Aber die Hoffnung, auf "Inseln der Vernunft" ist etwas Bleibendes, das er in seinem letzten Buch mit Gunna Wendt in den Titel hob. In ihm wird als eine Art Interview-Report das Leben des großen Computer-Pioniers nachgezeichnet - oder sollte man besser sagen "reflektiert"? Manche bezeichnen Weizenbaum heute eher als Computer-Dissidenten. Doch er wollte kein "Ausruhen" auf solchen Nischenplätzen. Er suchte nicht Randlagen, sondern die rettenden Inseln der Vernunft in dem Meer aus Belanglosigkeiten der so genannten Informationsgesellschaft. In Würdigung seines Lebenswerkes will ich diese optimistische Perspektive auf Inseln der Vernunft jedoch durch eine Hoffnung erweitern. Es wird sicher noch Einige geben, die sich an die Zeiten des kältesten Kalten Krieges erinnern. Da gab es das Lied vom Insulaner das im Refrain kundtat: ". der Insulaner hofft unbeirrt, dass seine Insel wieder'n schönes Festland wird." Es war eine Art Hymne der West-Berliner geworden, doch spätestens nach dem Mauerbau glaubte man eher Ulbricht. Später dann brachte es Honnecker (1988) auf den Punkt, indem er ankündigte, dass es die Mauer noch in hundert Jahren geben werde. Wer die "Menschheitsbeglücker" des 20. Jahrhunderts kennt, weiß allerdings auch, dass da nicht nur läppische hundert Jahre, sondern auch schon mal Tausendjährige Reiche "versprochen" wurden. Wenn ich Weizenbaums Leben zurückverfolge, liegt gerade darin das Hoffnungszeichen: Er überlebte diese "Paradiese". Sein Lebensweg führte ihn durch viele dunkle Täler. Manchmal konnte er aus politischer Konfrontation Nutzen ziehen, so z.B. weil das US-Militär die EDV-Entwicklung der frühen Jahre mehr als großzügig förderte, denn die Angst vor Stalin (und seinen Nachfolgern) ließ für die Computerexperten das Geld nur so sprudeln.
    Allerdings sind solche Geldsegnungen auch dazu geeignet, "Blütenträume" zu erzeugen, die leicht zu Alpträumen werden und Allmachtsphantasien anderer Art hervorzauberten: Die Schattenseiten der Künstlichen Intelligenz hat Weizenbaum gerade in diesem Arbeitsumfeld kritisiert, wahrscheinlich weil gerade seine Kollegen aus dem MIT, wie Ray Kurzweil oder Marvin Minsky, mit ihren Cyborg-Visionen für Horrorvorstellungen sorgten. Weizenbaum hat besonders dort am MIT - und bis in die Interviews der letzten Zeit - immer wieder an das menschliche Maß erinnert. Immer wieder hatte er in diesen Kampf nicht nur starke Gegner, wie die Erwähnten aus den Nachbarzimmern "seines" MIT, sondern er hatte über alle Kontinente hinweg auch Verbündete, so dass sich das Bild der Inseln der Vernunft anbot. In meinem Grußschreiben zu seinem 85. Geburtstag im Januar 2008 war die Idee vom Insulaner, der eines Tages wieder auf einem Festland leben kann, mein Wunsch für die Zukunft. Diese Hoffnung hat mit den Ereignissen des 20. Jahrhunderts eine historische Perspektive gewonnen. Denn als Weizenbaums Eltern vor genau 72 Jahren Deutschland noch rechtzeitig verließen, war es unvorstellbar, dass Joseph Weizenbaum später Bürger eines neuen Berlins sein würde und er - neben dem Bundesverdienstkreuz - ungezählte Ehrungen und Ehrendoktorwürden sein eigen würde nennen können. Ich bin mir im Klaren, dass so schnell aus Inseln der Vernunft keine Kontinente entstehen werden. Aber die Hoffnung soll bleiben!"
    Source
    Information - Wissenschaft und Praxis. 59(2008) H.3, S.149
  20. Digitale Schnüfler (2008) 0.01
    0.006418913 = product of:
      0.025675653 = sum of:
        0.025675653 = weight(_text_:und in 3205) [ClassicSimilarity], result of:
          0.025675653 = score(doc=3205,freq=14.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.22691534 = fieldWeight in 3205, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=3205)
      0.25 = coord(1/4)
    
    Abstract
    Festplatten haben in den vergangenen Jahren beachtliche Größen erreicht und ein Ende scheint immer noch nicht absehbar zu sein. Damit ist auf diesen Datenträgern genügend Platz für sehr viele Dateien jedweder Art, die sich im Laufe eines Computerlebens so ansammeln. Die Krux: Wenn es darum geht, inmitten der riesigen Menge an Dateien eine ganz bestimmte zu finden, kann die Suche recht zeitraubend werden. Abhilfe schaffen so genannte Desktop-Suchmaschinen. Diese haben wir uns für Sie genauer angesehen.
    Content
    "Suche ohne Ende Windows hat bekanntlich von Hause aus ein Suchwerkzeug an Bord. Im einfachsten Fall reicht das aus. Wenn sich hingegen mehrere hunderttausend Dateien auf dem Datenträger tummeln, beginnt meist nach dem Start der Suche eine ebenso unfreiwillige wie ausgiebige Kaffeepause. Dateien mit Hilfe der Bordwerkzeuge zu suchen, kann mittlerweile nur noch als Notlösung betrachtet werden. Weitaus effizienter sind spezielle Suchwerkzeuge, die umfassendere Suchfunktionen anbieten und darüber hinaus auch schneller arbeiten. Hierbei handelt es sich um die Desktop-Suchmaschinen. Am Anfang war der Index Das Hauptargument für die Verwendung einer Desktop-Suchmaschine anstelle der Windowsinternen Dateisuche ist die deutlich höhere Suchgeschwindigkeit. Wenn Sie mit der Windows-Suchfunktion nach einer Datei suchen, werden alle Ordner systematisch durchsucht. Das dauert mitunter unerfreulich lang. Auch Suchmaschinen bleibt eine solche Dateisuche nicht erspart. Allerdings bedient man sich hier eines Tricks: Nach der Installation werden zunächst die Festplatten gescannt und alle gefundenen Dateien werden nebst Pfad in einer Datenbank eingetragen. Das ist der so genannte Index. Sobald eine Suche durchgeführt wird, greift die Software nunmehr auf den Index zu, anstatt jedes Mal die Festplatte aufs Neue umzugraben. Das geht wesentlich schneller und gesuchte Dateien sind schnell gefunden. Gleichzeitig werden die Datenträgen ab sofort überwacht und jede Änderung wird im Index nachgetragen. Das lange Warten nach einem Suchergebnis hat somit ein Ende.
    Nicht nur Desktop-Suche Eine Desktop-Suchmaschine ist ein hilfreiches Werkzeug vor allem, wenn sich außer Dateien noch E-Mails rasch finden lassen. Da heutzutage ohne Internet gar nichts mehr geht, liegt es nahe, die Suche auch auf das World Wide Web auszudehnen. Aus diesem Grunde sind diese Tools darüber hinaus auch mit einer Internet-Suchfunktion ausgestattet. Diese Funktion beschränkt sich jedoch in der Regel darauf, dass der standardmäßig genutzte Internet-Browser gestartet wird und die Seite eines Suchdienstes erscheint. Damit handelt es sich um ein kleines Zusatzbonbon, das dem Anwender einige Umwege erspart. Kostenlos, aber nicht umsonst Niemand hat etwas zu verschenken. Auch wenn die meisten Desktop-Suchmaschinen kostenfrei erhältlich sind, verbergen sich oft einige Stolperfallen im Detail. Die vorliegenden Testkandidaten sind zwar keine Spyware-Programme, doch es empfiehlt sich ein kritischer Blick bei der Auswahl des gewünschten Werkzeugs. Einige Produkte bieten neben einer kostenlosen Home-Edition ein kostenpflichtiges Pendant für professionelle Anwender an. Das mag angehen und ist sicherlich kein Problem. Zudem darf davon ausgegangen werden, dass kostenlose Desktop-Suchmaschinen bei weitem nicht so viele Dateiformate unterstützen, wie die kommerziell erhältlichen Varianten. Immerhin sind die Lizenzen, die Hersteller kaufen müssen, um eine umfassende Unerstützung für unterschiedliche Dateiformate anbieten zu können, sehr teuer. Kritisch zu hinterfragen sind jedoch jene Tools, die von werbefinanzierten Anbietern stammen. Hier besteht die Gefahr, dass persönliche Daten der Anwender zum Zweck der statistischen Auswertung des Nutzungsverhaltens gesammelt werden. Wer nichts zu verbergen oder keine Probleme damit hat, kann diese Programme durchaus auch nutzen. Sensible Daten sollten dann aber gesondert geschützt werden."

Languages

  • d 4221
  • e 485
  • m 11
  • es 2
  • f 2
  • s 2
  • el 1
  • ru 1
  • More… Less…

Types

  • a 3535
  • m 804
  • el 218
  • x 210
  • s 184
  • i 47
  • r 29
  • n 8
  • b 7
  • l 5
  • More… Less…

Themes

Subjects

Classifications