Search (4749 results, page 197 of 238)

  • × year_i:[2000 TO 2010}
  1. Pfeffer, M.: Automatische Vergabe von RVK-Notationen anhand von bibliografischen Daten mittels fallbasiertem Schließen (2007) 0.01
    0.0076898634 = product of:
      0.030759454 = sum of:
        0.030759454 = weight(_text_:und in 1558) [ClassicSimilarity], result of:
          0.030759454 = score(doc=1558,freq=6.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.25465882 = fieldWeight in 1558, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1558)
      0.25 = coord(1/4)
    
    Abstract
    Klassifikation von bibliografischen Einheiten ist für einen systematischen Zugang zu den Beständen einer Bibliothek und deren Aufstellung unumgänglich. Bislang wurde diese Aufgabe von Fachexperten manuell erledigt, sei es individuell nach einer selbst entwickelten Systematik oder kooperativ nach einer gemeinsamen Systematik. In dieser Arbeit wird ein Verfahren zur Automatisierung des Klassifikationsvorgangs vorgestellt. Dabei kommt das Verfahren des fallbasierten Schließens zum Einsatz, das im Kontext der Forschung zur künstlichen Intelligenz entwickelt wurde. Das Verfahren liefert für jedes Werk, für das bibliografische Daten vorliegen, eine oder mehrere mögliche Klassifikationen. In Experimenten werden die Ergebnisse der automatischen Klassifikation mit der durch Fachexperten verglichen. Diese Experimente belegen die hohe Qualität der automatischen Klassifikation und dass das Verfahren geeignet ist, Fachexperten bei der Klassifikationsarbeit signifikant zu entlasten. Auch die nahezu vollständige Resystematisierung eines Bibliothekskataloges ist - mit gewissen Abstrichen - möglich.
    Imprint
    Berlin : Humboldt-Universität / Institut für Bibliotheks- und Informationswissenschaft
  2. Oberhauser, O.; Labner, J.: OPAC-Erweiterung durch automatische Indexierung : Empirische Untersuchung mit Daten aus dem Österreichischen Verbundkatalog (2002) 0.01
    0.0076898634 = product of:
      0.030759454 = sum of:
        0.030759454 = weight(_text_:und in 1883) [ClassicSimilarity], result of:
          0.030759454 = score(doc=1883,freq=6.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.25465882 = fieldWeight in 1883, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1883)
      0.25 = coord(1/4)
    
    Abstract
    In Anlehnung an die in den neunziger Jahren durchgeführten Erschließungsprojekte MILOS I und MILOS II, die die Eignung eines Verfahrens zur automatischen Indexierung für Bibliothekskataloge zum Thema hatten, wurde eine empirische Untersuchung anhand einer repräsentativen Stichprobe von Titelsätzen aus dem Österreichischen Verbundkatalog durchgeführt. Ziel war die Prüfung und Bewertung der Einsatzmöglichkeit dieses Verfahrens in den Online-Katalogen des Verbundes. Der Realsituation der OPAC-Benutzung gemäß wurde ausschließlich die Auswirkung auf den automatisch generierten Begriffen angereicherten Basic Index ("Alle Felder") untersucht. Dazu wurden 100 Suchanfragen zunächst im ursprünglichen Basic Index und sodann im angereicherten Basic Index in einem OPAC unter Aleph 500 durchgeführt. Die Tests erbrachten einen Zuwachs an relevanten Treffern bei nur leichten Verlusten an Precision, eine Reduktion der Nulltreffer-Ergebnisse sowie Aufschlüsse über die Auswirkung einer vorhandenen verbalen Sacherschließung.
  3. Oberhauser, O.: Praktische Lösungen für lokale Systematiken (3) : automatisierte Anzeige der Klassenbenennungen (2007) 0.01
    0.0076898634 = product of:
      0.030759454 = sum of:
        0.030759454 = weight(_text_:und in 2402) [ClassicSimilarity], result of:
          0.030759454 = score(doc=2402,freq=6.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.25465882 = fieldWeight in 2402, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=2402)
      0.25 = coord(1/4)
    
    Abstract
    Im letzten Heft der VÖB-Mitteilungen wurde über die Erstellung eines hie-rarchischen Browse- und Abfrage-Interfaces für die lokale Systematik im Online-Katalog der Bibliothek der Sigmund Freud Privatstiftung, der im Rahmen eines Aleph-Sharing-Lokalsystems an der Verbundzentrale OBVSG betrieben wird, berichtet. Im Hinblick auf die Darstellung der den Titeldatensätzen jeweils zugeordneten Systematikgruppen in der Vollanzeige des OPACs galt damals noch (sinngemäß): Da vonseiten der Bibliothek lediglich die Notationen katalogisiert werden, wird bei der Titel-Vollanzeige mittels einer JavaScript-basierten Umnutzung der Aleph-Funktion "Suchdienste" ein Link auf das hierarchische Interface generiert, um die Bedeutung der jeweiligen Notation im systematischen Kontext zu veranschaulichen. Diese Lösung, die zwar durchaus besser als das kommentarlose Display einzelner "nackter" Notationen war, ist nunmehr obsolet geworden. Ein vor kurzem implementierter, einfacher Automatismus aus der "Werkstatt" der Verbundzentrale bewirkt die Einspielung der Klassennamen bereits im Katalogisierungsprozess und macht so die Anzeige dieser Benennungen im Katalog (OPAC bzw. Bearbeitungs-GUI) möglich.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 60(2007) H.4, S.30-36
  4. Nentwich, M.: Knowledge Base Law - eine neuartige Wissensbasis im juristischen Bereich (2008) 0.01
    0.0076898634 = product of:
      0.030759454 = sum of:
        0.030759454 = weight(_text_:und in 2687) [ClassicSimilarity], result of:
          0.030759454 = score(doc=2687,freq=6.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.25465882 = fieldWeight in 2687, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=2687)
      0.25 = coord(1/4)
    
    Abstract
    Der Beitrag stellt das Konzept "Knowledge Base Law" (KB:Law) vor. Es handelt sich um ein innovatives Datenbanksystem, eine sog Wissensbasis. Juristische Informationen werden sowohl für Laien als auch Experten zugänglich gemacht, indem neben der Grundinformation stets auch eine umfassende rechtliche Analyse zur Verfügung stehen wird. Die Antworten werden in verschiedenen Sprachen und aus Sicht verschiedener Länder und deren Rechtssystemen beantwortet sowie reichlich dokumentiert. KB:Law ist somit eine multidimensionale FAQ-Datenbank, eine neuartige Publikationsmöglichkeit, aber auch ein Instrument der Rechtsvergleichung.
    Source
    Kompatibilität, Medien und Ethik in der Wissensorganisation - Compatibility, Media and Ethics in Knowledge Organization: Proceedings der 10. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation Wien, 3.-5. Juli 2006 - Proceedings of the 10th Conference of the German Section of the International Society of Knowledge Organization Vienna, 3-5 July 2006. Ed.: H.P. Ohly, S. Netscher u. K. Mitgutsch
  5. Croissant, C.R.: MARC21 und die anglo-amerikanische Katalogisierungspraxis (2004) 0.01
    0.0076898634 = product of:
      0.030759454 = sum of:
        0.030759454 = weight(_text_:und in 2764) [ClassicSimilarity], result of:
          0.030759454 = score(doc=2764,freq=6.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.25465882 = fieldWeight in 2764, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=2764)
      0.25 = coord(1/4)
    
    Abstract
    Das MARC21-Datenformat wird aus der Sicht eines praktizierenden AACR2/MARC-Katalogisierers vorgeführt. Der Autor gibt zunächst eine allgemeine Einführung in das MARC21 Bibliographic Format. Der zweite Abschnitt der Arbeit ist der Erschließung von mehrteiligen bzw. mehrbändigen Werken gewidmet. Die Behandlung von mehrteiligen bzw. mehrbändigen Werken, in der AACR2-Welt "Analyse" genannt, ist nämlich der Punkt, an dem die anglo-amerikanische und die deutsche Katalogisierungspraxis am weitesten auseinandergehen. Die verschiedenen Formen der "Analyse" werden erläutert im Hinblick auf die Frage, inwiefern diese Praxen den Bedürfnissen der Benutzer gerecht werden. Auf eine kurze Behandlung der besonderen Problematik der fortlaufenden Sammelwerke folgt dann eine Einführung in das MARC21 Authorities Format für Normdatensätze. Die Rolle der verschiedenen Arten von Normdatensätzen bei der Katalogisierung wird auch besprochen. DerAufsatz schließt mit einem Kommentar über verschiedene Aspekte der Verlinkung von Datensätzen.
    Source
    Bibliothek: Forschung und Praxis. 28(2004) H.1, S.11-35
  6. Bargheer, M.: Quality control and evaluation of scientific Web resources (2003) 0.01
    0.0076898634 = product of:
      0.030759454 = sum of:
        0.030759454 = weight(_text_:und in 2767) [ClassicSimilarity], result of:
          0.030759454 = score(doc=2767,freq=6.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.25465882 = fieldWeight in 2767, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=2767)
      0.25 = coord(1/4)
    
    Abstract
    Wissenschaftliche Informationen im Internet gewinnen zunehmend an Bedeutung. Um sie als zuverlässige Ressourcen für die wissenschaftliche Arbeit zu erschließen, müssen sie auf ihre Qualität geprüft werden - eine Aufgabe, die vermehrt von wissenschaftlichen Bibliotheken über ihre Internetdienste wie Subject Gateways, Digitale oder Virtuelle Bibliotheken wahrgenommen wird. Der vorliegende Artikel bietet eine medientheoretische Diskussion zum wissenschaftlichen Informationsraum im Internet und den medienbedingten Auswirkungen auf die Inhalte sowie einen Überblick zur Entwicklung von Evaluationsansätzen für Internetressourcen. Die theoretischen Abhandlungen werden durch einen umfangreichen Serviceteil ergänzt, der detailliert Qualitätskriterien und den Evaluierungsprozess in einer Weise aufzeigt, welche die Anpassung an (fach-)spezifische Anforderungen ermöglicht.
    Source
    Bibliothek: Forschung und Praxis. 27(2003) H.3, S.153-169
  7. Yahoo kündigt semantische Suche an (2008) 0.01
    0.0076898634 = product of:
      0.030759454 = sum of:
        0.030759454 = weight(_text_:und in 2840) [ClassicSimilarity], result of:
          0.030759454 = score(doc=2840,freq=6.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.25465882 = fieldWeight in 2840, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=2840)
      0.25 = coord(1/4)
    
    Content
    "Yahoo hat angekündigt einige der wesentlichen Standards des semantischen Webs in seine Suchmaschine zu integrieren. Das Unternehmen will einige semantische Web-Indexate in seine Suchtechnik einbauen. Anstatt eine lange Liste von Links auszuspucken, könnte eine semantische Suchmaschine verstehen, welche Art von Objekt oder Person gesucht wird und zusätzliche Information anbieten. Die neue Technologie könnte etablierte Angebote unter Druck setzen, erwarten Experten. Google setzt nach wie vor auf konventionelle Technologie. Der Schachzug des Unternehmens könnte der Verbreitung der Technologie erheblichen Auftrieb geben. Trotz des bemerkenswerten Fortschritts des semantischen Webs der vergangenen Jahre habe der durchschnittliche User davon noch nichts bemerkt, meint Amit Kumar, Product Management Director bei Yahoo. Yahoo habe nun gemerkt, dass sich das langsam ändere. Wie in den Anfangstagen des Web würden viele Menschen Daten mit Kennzeichnungen und Indextermen versehen, die semantische Suchmaschinen brauchen, um das Web zu durchsuchen. Yahoo hat erkannt, dass es nun genug Informationen als Grundlage für eine semantische Websuche gibt."
    Source
    Information - Wissenschaft und Praxis. 59(2008) H.3, S.156
  8. ¬Das Praxishandbuch Wissensmanagement : integratives Wissensmanagement (2007) 0.01
    0.0076898634 = product of:
      0.030759454 = sum of:
        0.030759454 = weight(_text_:und in 2917) [ClassicSimilarity], result of:
          0.030759454 = score(doc=2917,freq=6.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.25465882 = fieldWeight in 2917, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=2917)
      0.25 = coord(1/4)
    
    Abstract
    Das Praxishandbuch Wissensmanagement nähert sich sehr umfassend und dennoch auf den Punkt gebracht dem komplexen Thema Wissensmanagement an. Neben einem einführenden Kapitel über die Grundlagen und Rahmenbedingungen des Wissensmanagements erfährt man im zweiten Kapitel, welche Relevanz Wissensmanagement in den einzelnen Managementdisziplinen (z. B. Innovationsmanagement, Personalmanagement, Controlling etc.) hat. Auch der Aspekt des Wissenstransfers (Netzwerke, IKT) und konkret die Implementierung des Wissensmanagements werden behandelt. Allgemein habe ich den Eindruck, dass das Praxishandbuch seinen Titel zu Recht trägt - die Inhalte werden sehr verständlich mit anschaulichen Grafiken bzw. Diagrammen praxisnah vermittelt. Ein weiterer positiver Punkt sind die Executive Summaries am Ende jedes Kapitels, in denen die wichtigsten Inhalte jeweils sehr knapp, aber übersichtlich zusammengefasst werden. Wer sich für das Thema Wissensmanagement interessiert, ist mit dem Praxishandbuch Wissensmanagement sicher gut bedient...
  9. Beer, S.: Zwischen den Welten : zur kommunikativen Konstruktion von Wirklichkeit im Medium Internet ; eine linguistische Studie zu "VampireLive"-Rollenspielforen (2008) 0.01
    0.0076898634 = product of:
      0.030759454 = sum of:
        0.030759454 = weight(_text_:und in 2947) [ClassicSimilarity], result of:
          0.030759454 = score(doc=2947,freq=6.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.25465882 = fieldWeight in 2947, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=2947)
      0.25 = coord(1/4)
    
    Abstract
    Das Internet ist ein neues Kommunikationsmedium mit vielfältigen, virtuellen Begegnungsräumen. Hier entstehen auch soziale Netzwerke, die gemeinsame Sprachrepertoires entwickeln, um das Medium erfolgreich für ihre Zwecke zu verwenden. Sonja Beer eröffnet einen Einblick in die zahlreichen Gruppen, die die Internetkommunikation für den Entwurf von fiktionalen Parallelwelten entdeckt haben. Ihr Beispiel sind die Foren eines besonders komplexen Wirklichkeitskonstruktionsspiels, das "VampireLive", bei dem sich die Teilnehmer in den Rollen phantastischer Figuren treffen. Können Realität und Phantasie hierbei voneinander unterschieden werden? Welche Bedeutungen und Probleme entwickelt das Medium? Welche Rolle spielt die virtuelle Vergemeinschaftung? Wie wirkt sich eine solche Freizeitbeschäftigung auf die Sprachkompetenz der Teilnehmer aus? Dies sind zentrale Fragen, denen die Autorin in ihrer Untersuchung nachgeht und die anhand von Fallbeispielen anschaulich diskutiert werden.
  10. Hesse, C.: ¬Das kleine Einmaleins des klaren Denkens : 22 Denkwerkzeuge für ein besseres Leben (2009) 0.01
    0.0076898634 = product of:
      0.030759454 = sum of:
        0.030759454 = weight(_text_:und in 3137) [ClassicSimilarity], result of:
          0.030759454 = score(doc=3137,freq=6.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.25465882 = fieldWeight in 3137, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=3137)
      0.25 = coord(1/4)
    
    Abstract
    Jeder Mensch kann denken. Doch ganz so wie beim Laufen, Sprachenlernen oder Organisieren können einige von uns es besser, andere weniger gut oder gar schlecht. Für alle gibt es jedoch eine erfreuliche Nachricht: Ebenso wie die anderen Fähigkeiten lässt sich auch das Denken verbessern - durch Übung, Vervollkommnung der Technik und Einsatz von Hilfsmitteln. Das äußerst vergnüglich zu lesende Buch stellt knapp zwei Dutzend leicht verständliche, doch ungemein wirksame Denkwerkzeuge vom Analogieprinzip über den Widerspruchsbeweis bis hin zur Brute-force-Methode vor. Bei mittlerer Kondition sind sie alle mit einfacher Schulmathematik zu verstehen. Diese bewährten Techniken des formalen Denkens erleichtern die Erzeugung von Ideen und steigern die Erfolgsaussichten bei der Lösung von Problemen. Zugleich zeigen die unterhaltsamen Gedankenreisen des Buches, daß Denken und Spaßhaben sich keineswegs ausschließen.
  11. Irrgang, B.: Lehrbuch der evolutionären Erkenntnistheorie : Thesen, Konzeptionen und Kritik (2001) 0.01
    0.0076898634 = product of:
      0.030759454 = sum of:
        0.030759454 = weight(_text_:und in 3140) [ClassicSimilarity], result of:
          0.030759454 = score(doc=3140,freq=6.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.25465882 = fieldWeight in 3140, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=3140)
      0.25 = coord(1/4)
    
    Abstract
    Dieses grundlegende Werk bietet einen Gesamtüberblick über alle Zweige der Evolutionären Erkenntnistheorie aus philosophischer Sicht. Auch Themen wie Autopoiesis, Künstliche Intelligenz, Chaos-Theorie und Evolutionäre Ethik werden in Zusammenhang mit der Evolutionären Erkenntnistheorie abgehandelt. Gesucht wird letztlich nach Anknüpfungspunkten für eine fächerübergreifende Theorie der Erkenntnis. Übungsfragen zu jedem Kapitel und ein Glossar erleichtern das Selbststudium.
  12. bab: Wikipedia soll wahrer werden (2008) 0.01
    0.0076898634 = product of:
      0.030759454 = sum of:
        0.030759454 = weight(_text_:und in 3220) [ClassicSimilarity], result of:
          0.030759454 = score(doc=3220,freq=6.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.25465882 = fieldWeight in 3220, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=3220)
      0.25 = coord(1/4)
    
    Content
    "Das Internet-Nachschlagewerk Wikipedia soll verlässlicher werden. Seit Dienstag gibt es in der freien Enzyklopädie gesichtete und geprüfte Artikel. Den Status zeigt ein Symbol in der rechten oberen Ecke des Artikels an. Ein gelbes Auge bedeutet, dass der Text von einem regelmäßigen Wikipedia-Autor gesichtet und als frei von offensichtlichen Verunstaltungen eingestuft wurde. "Geprüft" und mit grünem Häkchen versehen ist ein Artikel, wenn ein "fachkundiger Prüfer" darin keine sachlichen Fehler oder verfälschende Lücken findet. Wie jemand als Prüfer bestätigt wird, sei aber noch unklar, heißt es auf der Wikipedia-Seite. Artikel, die weder gesichtet noch geprüft sind, tragen ein graues Minus - das sind bisher die meisten, weil die Kontrolle erst vor kurzem eingeführt wurde. Außerdem will Bertelsmann Wikipedia im September in Buchform herausbringen. Enthalten soll es die 50 000 am häufigsten recherchierten Suchbegriffe der Online-Enzyklopädie."
  13. Umstätter, W.: DDC in Europa : Hat der Einsatz in der Deutschen Nationalbibliothek unsere Zunft weitergebracht? Hat unsere Klientel etwas davon? (2008) 0.01
    0.0076898634 = product of:
      0.030759454 = sum of:
        0.030759454 = weight(_text_:und in 3411) [ClassicSimilarity], result of:
          0.030759454 = score(doc=3411,freq=6.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.25465882 = fieldWeight in 3411, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=3411)
      0.25 = coord(1/4)
    
    Abstract
    Zunächst lässt sich die erste Frage im Titel rasch beantworten: Es war eigentlich ein Jahrzehnte altes Desiderat1 im modernen Bibliothekswesen eine internationale Einheitsklassifikation zu haben. Denn es wäre sicher wünschenswert, wenn man in jede Bibliothek der Welt gehen könnte, und wüsste, dass Bücher, CD-ROMs oder Filme, beispielsweise über Kinderpsychologie, immer unter der Notation 155.4 zu finden sind. Wenn man dann mit dem gleichen Einstieg noch im Internet relevantes finden könnte erschiene das vielen Nutzern sicher hilfreich. Als nächster aber keinesfalls weniger wichtiger Aspekt, kann die DDC2 auch zur Erfassung von Verlagsproduktionen und damit im Digital Rights Management (DRM) verwendet werden. Auch die zweite Frage ist im Prinzip leicht beantwortbar. Wenn die Bibliotheken und ihre Leser das Angebot adäquat nutzen, können sie daraus etliche Vorteile ziehen.
  14. Talbot, D.: Wolfram Alpha vs. Google (2009) 0.01
    0.0076898634 = product of:
      0.030759454 = sum of:
        0.030759454 = weight(_text_:und in 3820) [ClassicSimilarity], result of:
          0.030759454 = score(doc=3820,freq=6.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.25465882 = fieldWeight in 3820, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=3820)
      0.25 = coord(1/4)
    
    Abstract
    Der Kampf ist eröffnet: Als vergangene Woche der britische Physiker Stephen Wolfram erstmals der Öffentlichkeit die neue "Antwortmaschine" Wolfram Alpha[1] vorstellte, kündigte Google einen eigenen neuen Dienst an. Wolfram Alpha greift auf Datenbanken zurück, die von Wolfram Research betrieben werden, und wendet auf ihre Inhalte Algorithmen an, um Antworten auf Fragen zu generieren, die Nutzer stellen. Mit dem vom Wolfram-Team vorab zur Verfügung gestellten Login machte ich die Probe aufs Exempel: Wolfram Alpha vs. Google (in der Standardform). Ich gab jeweils die gleichen Anfragen ein und variierte sie in einigen Fällen, um zu sehen, was passiert. Auf diese Weise wollte ich jenseits der allgemeineren Beschreibungen, die ich bei einem Besuch bei Wolfram Research[2] bekommen hatte, einige reale Ergebnisse produzieren. Und natürlich den Anspruch der neuen Maschine überprüfen: Antworten aus Suchanfragen zu "berechnen". Hier ist das Ergebnis meines Tests. [06.06.2009]
  15. Braun, S.; Schmidt, A.; Walter, A.; Zacharias, V.: Von Tags zu semantischen Beziehungen : kollaborative Ontologiereifung (2008) 0.01
    0.0076898634 = product of:
      0.030759454 = sum of:
        0.030759454 = weight(_text_:und in 3896) [ClassicSimilarity], result of:
          0.030759454 = score(doc=3896,freq=6.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.25465882 = fieldWeight in 3896, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=3896)
      0.25 = coord(1/4)
    
    Abstract
    Die Popularität von Tagging-Ansätzen hat gezeigt, dass dieses Ordnungsprinzip für Nutzer insbesondere auf kollaborativen Plattformen deutlich zugänglicher ist als strukturierte und kontrollierte Vokabulare. Allerdings stoßen Tagging-Ansätze oft an ihre Grenzen, wo sie keine ausreichende semantische Präzision ausbilden können. Umgekehrt können ontologiebasierte Ansätze zwar die semantische Präzision erreichen, werden jedoch (besonders aufgrund der schwerfälligen Pflegeprozesse) von den Nutzern kaum akzeptiert. Wir schlagen eine Verbindung beider Welten vor, die auf einer neuen Sichtweise auf die Entstehung von Ontologien fußt: die Ontologiereifung. Anhand zweier Werkzeuge aus dem Bereich des Social Semantic Bookmarking und der semantischen Bildsuche zeigen wir, wie Anwendungen aussehen können, die eine solche Ontologiereifung (in die jeweiligen Nutzungsprozesse integriert) ermöglichen und fördern.
  16. Hübener, M.: Suchmaschinenoptimierung kompakt : anwendungsorientierte Techniken für die Praxis (2009) 0.01
    0.0076898634 = product of:
      0.030759454 = sum of:
        0.030759454 = weight(_text_:und in 898) [ClassicSimilarity], result of:
          0.030759454 = score(doc=898,freq=6.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.25465882 = fieldWeight in 898, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=898)
      0.25 = coord(1/4)
    
    Abstract
    Methoden der Suchmaschinenoptimierung werden im vorliegenden Buch umfassend beleuchtet. Nach einer Einführung in das Thema besteht ein erster Schwerpunkt darin, konkrete Handlungsanweisungen für die Suchmaschinenoptimierung einer Website aufzuzeigen. Dazu wird ein Optimierungszyklus in neun Schritten vorgestellt, welcher die Felder OffPage-Optimierung, OnPage-Optimierung und Keyword-Recherche einschließt. Darüber hinaus führt der Autor die zusätzliche Kategorie der Content-Strategie ein, um die Quellen und Verbreitungswege potentieller neuer Inhalte zu systematisieren. Um die Anschaulichkeit und den Praxisbezug noch zu erhöhen, stellt der Autor eine konkrete Anwendung des vorgestellten Optimierungszyklus am Beispiel einer real existierenden Website vor.
  17. Pasquinelli, M.: Googles PageRank : Diagramm des kognitiven Kapitalismus und Rentier des gemeinsamen Wissens (2009) 0.01
    0.0076898634 = product of:
      0.030759454 = sum of:
        0.030759454 = weight(_text_:und in 1025) [ClassicSimilarity], result of:
          0.030759454 = score(doc=1025,freq=6.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.25465882 = fieldWeight in 1025, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1025)
      0.25 = coord(1/4)
    
    Abstract
    Ein Großteil der Kritik an Google konzentriert sich auf das imperiale Wesen seines Monopols: seine dominante Position, die Datenschutzprobleme, die Zensur, die globale dataveillance. Studien zur molekularen Ökonomie im Innersten dieser Vorherrschaft gibt es dagegen nur wenige. Während viele kritische Beiträge zu Google Foucaults Jargon missbrauchen und sich der Vorstellung eines digitalen Panoptikons hingeben, entspringt die Macht Googles einer ökonomischen Matrix, die von der kabbalistischen Formel des PageRank bestimmt wird - jenem ausgeklügelten Algorithmus, der die Wichtigkeit einer Webseite und die Hierarchie der Google-Suchresultate bestimmt. Wie sich im folgenden zeigen wird, lässt sich die Funktion von PageRank problemlos nachvollziehen. Eine "politische Ökonomie" dieses Apparats ist jedoch noch ausständig.
  18. Rasch, T.: Verstehen abstrakter Sachverhalte : semantische Gestalten in der Konstruktion mentaler Modelle (2006) 0.01
    0.0076898634 = product of:
      0.030759454 = sum of:
        0.030759454 = weight(_text_:und in 1516) [ClassicSimilarity], result of:
          0.030759454 = score(doc=1516,freq=6.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.25465882 = fieldWeight in 1516, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1516)
      0.25 = coord(1/4)
    
    Abstract
    Um einen Text zu verstehen, baut der Leser eine Vorstellung davon auf, was im Text beschrieben wird. Wie aber verstehen wir Texte, die von unanschaulichen Zusammenhängen handeln? Kommen wir dabei ohne bildhafte Vorstellungen aus - und denken in "bloßen Begriffen"? Die Natur des begrifflichen Wissens ist in der kognitiven Psychologie seit jeher umstritten. Es wird zunehmend in Frage gestellt, ob abstrakte Begriffe tatsächlich losgelöst von sinnlichen Erfahrungen bestehen. Der Autor verbindet Theorien des Textverstehens, Ideen der Gestaltpsychologie und der Kognitiven Semantik zu einem Modell, nach dem wir auch abstrakte Sachverhalte kognitiv mit den Mitteln des anschaulichen Denkens verarbeiten. Eine experimentelle Untersuchung zeigt, dass die Aktivierung von kinästhetisch-bildhaften Schemata das Lesen und Behalten von abstrakten Aussagen erleichtern kann.
  19. Ulfkotte, U.: "Nackte Ehefrau" schaltet ab : Neues Computervirus löscht die Festplatte (2001) 0.01
    0.0076273065 = product of:
      0.030509226 = sum of:
        0.030509226 = weight(_text_:und in 6644) [ClassicSimilarity], result of:
          0.030509226 = score(doc=6644,freq=34.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.25258717 = fieldWeight in 6644, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=6644)
      0.25 = coord(1/4)
    
    Abstract
    Es gibt E-Mails, die man auf keinen Fall öffnen sollte. Doch die meisten E-Mail-Nutzer auf der Welt sind männlich. Und bei vielen scheint die angeborene instinktive Vorsicht dem Unbekannten gegenüber mitsamt den grauen Zellen auszusetzen, wenn in der Adreßzeile einer E-Mail Worte wie nackt", "Teens" oder andere eindeutige Angebote auftauchen. So dürfte es das neueste E-Mail-Virus "naked wife" ("nackte Ehefrau") leicht haben, seinen Siegeszug um die Welt anzutreten. Am Mittwoch nachmittag trat "naked wife" auch unter den Namen "W32/Naked@MM" "troj-nakedwife" und "W32.HLLW.JibJab@mm" auf. Im Gegensatz zu dem Mitte Februar erstmals versandten "Anna-Kurnikova-Virus" ist der E-Mail-Anhang "naked wife", der einen virtuellen Pornofilm im Flash-Format ankündigt, für die Festplatte eine Gefahr: Der Trojaner löscht im Windows-Systemverzeichnis alle ".dll", ".ini", ".exe", ".bmp" und ".com"-Dateien. Zudem versendet er über MS-Outlook Massen-E-Mails und verbreitet sich auf diese Weise weiter. Der zerstörerische Internet-Wurm sendet somit von sich aus Kopien an alle E-Mail-Adressen, die sich im Outlook-Systern des infizierten Rechners befinden. Als echtes Programm (".exe-Datei") formatiert "naked wife" nach dem Anklicken unwiderruflich die eigene Festplatte. Die entsprechenden E-Mails kann man leicht an der Angabe "Fw: Naked Wife" im Betreff-Feld erkennen. Zudem erscheint beim Aufrufen der Mail der Satz: "My wife never looks like that! Best Regards" (Name des Absenders) und daneben der Dateianhang "nakedwife.exe", der per Mausklick die Festplatte löscht. Das neue Virus wurde am Dienstag in den Vereinigten Staaten entdeckt. Nach Angaben des auf Anti-Viren-Programme spezialisierten amerikanischen Softwarehauses McAfee ist "naked wife", das amerikanische Militärs zuerst entdeckt haben sollen, seit Dienstag auch schon in mehreren Rechnern der 500 größten Unternehmen der Welt aufgetaucht. McAfee bewertet dasVirus im Gegensatz zu "Anna Kurnikova" als "hochriskant". Seit langem schon warnen Computerfachleute vor dem Öffnen von Dateianhängen in E-Mails, die der Empfänger nicht angefordert hat. Verdächtige E-Mails sollten vielmehr ungelesen gelöscht werden. Gefährliche Programme, die möglicherweise die eigene Festplatte löschen, können vor allem in Dateianhängen mit den Endungen ".src" (Bildschirmschoner)", ".exe", ".shs", ".com" und ".vbs" (visual basic script) versteckt se056 Zu den bekannten rund 50 000 Viren kommen täglich etwa zehn neue hinzu. Die bekanntesten von ihnen "Melissa" und "I love you" haben dazu beigetragen, daß die durch Viren verursachten Schäden an Rechnern weltweit jährlich mehr als zwölf Milliarden Dollar betragen. Mit der Zahl der Nutzer steigen auch die Schäden. Während "Melissa" noch einen Schaden in Höhe von achtzig Millionen Dollar angerichtet haben soll, waren es bei "I love you", das auf der ganzen Welt mehr als 45 Millionen Rechner infizierte, schon mehrere Milliarden Dollar. Eric Chien vom niederländischen Softwarehaus Symantec vergleicht den Kampf zwischen Anbietern von Virenschutzprogrammen und den Entwicklern der Viren mit einem "Wettrüsten". Er hebt hervor: "Dabei wird niemand gewinnen. Wir entwickeln Technik, um das Virus unschädlich zu machen, und "dessen Autor wird dann versuchen, unser Programm auszutricksen. Es ist ein Wettrüsten. Und das wird wohl so weitergehen." Weil Virenschutzprogramme ständig aktualisiert werden müssen und der Entwicklung trotzdem immer hinterherhinken, dürfte "naked wife" bei den meisten Nutzern in diesen Tagen auf fruchtbaren Boden fallen. Eric Chien vergleicht die Anziehungskraft neuer Viren auf die Nutzer mit Bonbons, welche Kindern von Fremden angeboten werden: "Wenn wir uns alle an das erinnern, was unsere Mütter uns gesagt haben, nämlich keine Süßigkeiten von Fremden anzunehmen, dann kann man auch auf diesem Gebiet schon viel Böses verhindern." Wie die Zahl der gefährlichen Viren nimmt jedoch auch die Zahl der nicht ernstzunehmenden Virenwarnungen zu. Sie werden "hoax" genannt. Bekannt wurden etwa die mit "good times ... .. win a holiday" oder "get more money" in der Betreff-Zeile der Mail gekennzeichneten harmlosen elektronischen Briefe. Nur die wenigsten Virenprogrammierer versenden ihre Entwicklungen und infizieren damit fremde Rechner. Die meisten entwickeln sie vielmehr, um ihre technischen Fähigkeiten zu erkunden, und tauschen ihre Erfahrungen, mit anderen Programmierern aus, bei denen sie damit Anerkennung gewinnen.
    Kevin Poulsen, der im Alter von siebzehn Jahren in das militärische Netzwerk des Pentagons eindrang und später zu fünf Jahren Freiheitsstrafe verurteilt wurde, betrachtet jene, die heute bösartige Virenprogramme verbreiten, als "von einem übertriebenen Ich-Verständnis" getriebene Autisten. Zugleich äußert er jedoch Verständnis für die meist jugendlichen Virenautoren: "Wenn so ein Jugendlicher vierzig oder fünfzig Zeilen Progranuncode schreibt und damit anschließend weltweit Schlagzeilen macht, dann ist das für so ein Kid manchmal schon verlockend." Nicht immer brauchen Jugendliche Programmierkenntnisse, um gefährliche Viren zu versenden. Wer in einer Suchmaschine etwa das Wort "virus kit" eingibt, erhält neben zahlreichen Angeboten für Virenschutzprogramme auch viele Codes von Viren, die man mit einem Mausklick auf die eigene Festplatte laden und dann beliebig verändern kann. Welche dieser Viren gegenwärtig den größten Schaden anrichten, kann man etwa auf der Internet-Seite "www.messagelabs.com/viruseye/" sehen. Nach Angaben der Betreiber dieser Seite war "naked wife" am Mittwoch nachmittag neben den Vereinigten Staaten auch schon in Großbritannien und den Niederlanden aktiv. "Naked Wife" ist ein sogenannter "Trojaner". Computerfachleute bezeichnen damit Programme, die unmerklich im Hintergrund des Rechners schädliche Funktionen ausüben. Viele Trojaner sind darauf programmiert, Benutzerdaten eines Online-Dienstes auszuspähen, nicht selten nur von einem bestimmten Provider. Trojaner, die ständig im Hintergrund im betroffenen System mitlaufen, zeichnen mitunter auch alle Tastatureingaben auf, etwa beim Online-Banking. Ist ein Rechner unmerklich mit einem solchen Trojaner infiziert, dann nutzt es nichts, wenn der Anwender sein Pass-Wort für einen OnlineDienst nicht abspeichert, sondern erst bei der Anmeldung eingibt. Die gesammelten Daten werden nach der Einwahl unbemerkt an den Autor des Trojanischen Pferdes geschickt. Über solche Funktionen verfügt der Trojaner "naked wife" jedoch offenbar nicht.
  20. Schürmann, M.: 404 File Not Found : Immer mehr Wissen wird immer schneller vergessen (2002) 0.01
    0.0076273065 = product of:
      0.030509226 = sum of:
        0.030509226 = weight(_text_:und in 2156) [ClassicSimilarity], result of:
          0.030509226 = score(doc=2156,freq=34.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.25258717 = fieldWeight in 2156, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=2156)
      0.25 = coord(1/4)
    
    Content
    "Und wer hat noch welche von diesen flachen schwarzen Scheiben, viereckig waren die, ziemlich groß, deutlich größer als ein Handteller, und man musste vorsichtig sein, vorne nicht auf das Magnetfeld zu fassen? Genau, Fünfeinviertelzolldisketten hießen die. Süß, oder? Toll waren auch diese dings, diese Kassetten für den Computer, die gab's für den C16, mit Tennisspielen drauf, genau: Datassetten. So nannte man die. Bei Computern vergehen bloß ein paar Jahre, schon darf man in alten Zeiten schwelgen. Die Technik aus den Achtzigern: längst völlig überholt, veraltet wie ein Ochsenpflug. Das ist aber nicht nur romantisch. Es ist auch schlimm. "Historiker werden auf diese Zeit zurückblicken und eine Periode mit sehr wenigen Informationen wahrnehmen", sagt der Computerdesigner Danny Hillis. Damit meint er: Unsere Nachwelt wird von uns kaum etwas finden. Wir, die Menschen des Internet- Zeitalters, des dritten Jahrtausends, der Foto-SMS-WAP-Handys - wir sind den Historikern der Zukunft womöglich ein Rätsel. Was haben die Leute im Jahre 2002 für Musik gehört? Was für wissenschaftliche Experimente haben sie unternommen? Wir sind vielleicht mal eine Lücke in der Geschichte. Was haben die Staatsmänner geschrieben? Was für Bilder, für Filme, für Ideen haben sie gemocht? Wie haben sie gefeiert? Wir werden eine Lücke in der Geschichte sein, weil wir uns nicht hineinschreiben. Oder besser: Weil wir uns ständig selbst löschen. Wer hat denn zu den putzigen ollen 5,25-Disketten noch ein Laufwerk? Und dazu einen passenden Computer, der das Textverarbeitungsprogramm Wordstar lesen kann? Die Daten sind ein paar Jahre alt, und schon sind sie nicht einmal mehr Hieroglyphen; denn auch die rätselhaftesten Schriftzeichen kann der Mensch irgendwann entziffern, solange er sie sehen kann. Für die Daten auf einem Magnetband aber hat der Mensch keine Augen. Da sieht nur das Laufwerk, was draufsteht. Wir sind wie ein umgekehrtes PolaroidFoto. Wir verblassen und sind am Ende gar nicht mehr da. QIC-80-Streamer? Kaum noch zu finden. Lochkarten? Gibt es nichtmal mehr auf dem Müll. Die Nasa durchforstet derzeit das Internet-Aktionshaus E-Bay nach 8086-Computerchips. Die gab es vor rund zwanzig Jahren und sind die Ur-Ur-Ur-UrUr-Ur-Enkel des aktuellen Prozessors Pentium IV Die Nasa braucht die alten Chips, weil sich manche ihrer Systeme darauf stützen und nicht auf die modernen Nachfolger. Selbst wenn man es schafft, alte Lesegeräte für alte Medien aufzutreiben: Womöglich ist es trotzdem zu spät. Der Inhalt von 1,2 Millionen Magnetbändern aus drei Jahrzehnten amerikanischer Raumfahrt ist weg. Wenn so ein Band jetzt bei der Nasa abgespielt wird, löst sich die Magnetschicht von der Trägerfolie, das Band zerschmilzt oder zersetzt sich. Der Archaeology Data Service an der britischen Universität von York kann einen Teil seiner Computerdaten über Bronzezeit-Ausgrabungen in den neunziger Jahren wegschmeißen.
    Auch die digitalen Aufzeichnungen der DDR-Behörden: bis zu 30 Prozent unbrauchbar. Weil falsch gelagert und nicht gepflegt. Moderne Medien sind empfindlicher als Bücher: Wenn ein Gedichtband in die Badewanne fällt, ist er nass. Wenn eine Diskette hineinfällt, ist sie näss und wahrscheinlich kaputt. Wo sind in fünfzig Jahren all die Magisterarbeiten? All die Aufsätze? All die Urlaubsvideos? All die Briefe? So gesehen sind Höhlenmalereien einer CD weit überlegen. Man kriegt in eine Höhle kein Gigabyte, aber das Gekritzel hält sich über Jahrtausende. Eine CD kann nach fünf Jahren unlesbar sein. Auch ägyptisches Pergament und mittelalterliches Papier, noch ohne Säure drin, sind bessere Speichermedien als eine Videokassette. Das heißt: Sie sind ein besseres Gedächtnis. Die heutige Welt speichert viel mehr. Es gibt eine Schätzung, derzufolge wir seit 1945 hundert Mal mehr Informationen erzeugt und gespeichert haben als die Menschheit in ihrer ganzen Geschichte zuvor. Die heutige Welt vergisst aber auch viel schneller. Also: Ein Magnetband hält sich zehn bis 30 Jahre. Ein VHS-Band auch. Ein Mikrofilm lebt zehn bis 500 Jahre, je nach Pfle ge. Säurehaltiges Zeitungspapier: zehn bis 20 Jahre. Dia: hundert Jahre. Festplatte: 20 Jahre. CD: fünf bis 200 Jahre. Die Schätzungen sind umso gröber, je neuer die Medien sind - es fehlen die Erfahrungswerte. Und das Internet? Die größte aller Bibliotheken, das gewaltigste aller Postämter? In dem alle acht Minuten die gleiche Datenmenge entsteht, die das nationale Archiv der USA verwaltet? Das Internet ist wissensdurstig wie ein Kind, aber vergesslich wie ein Greis. Die durchschnittliche Lebensdauer einer Internetseite liegt bei sechs bis acht Wochen. Wer will da gewährleisten, dass Daten im Internet überleben? Wer will mit Sicherheit sagen, dass es die richtigen Daten sind und nicht die entscheiden, ob Daten überhaupt wichtig sind, wichtig genug, um der Nachwelt erhalten zu bleiben? Die Betreiber von www.archive.org speichern, was kommt, Spreu wie Weizen: Sie durchkämmen das Internet jeden Tag nach neuen, öffentlich zugänglichen Seiten. Die speichern sie dann auf digitalen Bändern - damit die Seite weiterlebt, wenn sie im Internet nur noch 404 File Not Found ist. Wissenschaftler diskutieren, ob es im Internet nicht so etwas wie eine DNA geben könnte, ein automatisches Speichern, durch das sich die Informationen selbst weiterkopieren - und das immer im aktuellsten Dateiformat. Dann ginge nichts verloren. Aber die Datenmenge würde wachsen wie ein Ballon. Wollen unsere Enkel das lesen? Also müssen wir das tun, was auch unsere Vorfahren getan haben, um Schriften zu erhalten: abschreiben. Kopieren, was uns wichtig erscheint. Wegen immer neuer Dateitypen und Speichermedien ist das mühsam. Bei größeren Datenmengen, wie Firmen und Behörden sie verwalten, ist es auch ziemlich teuer. Viele Informationen ohne Marktwert werden daher jung sterben. Die Höhlenmalereien dagegen werden wir wohl noch in hundert Jahren besichtigen können - auch wenn sie nicht einmal ein Backup hatten."

Languages

  • d 4221
  • e 486
  • m 11
  • es 2
  • f 2
  • s 2
  • el 1
  • ru 1
  • More… Less…

Types

  • a 3535
  • m 804
  • el 219
  • x 210
  • s 184
  • i 47
  • r 29
  • n 8
  • b 7
  • l 5
  • p 1
  • More… Less…

Themes

Subjects

Classifications