-
Mountcastle, V.B.: ¬An organizing principle for cerebral function : the unit model and the distributed system (1978)
0.01
0.008371662 = product of:
0.03348665 = sum of:
0.03348665 = weight(_text_:und in 2459) [ClassicSimilarity], result of:
0.03348665 = score(doc=2459,freq=4.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.2772374 = fieldWeight in 2459, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=2459)
0.25 = coord(1/4)
- Footnote
- Erwähnt als Schlüsselbeitrag zur Frage, dass der Neocortex in Aussehen und Struktur bemerkenswert einheitlich ist, in: Hawkins, J., S. Blakeslee: Die Zukunft der Intelligenz: wie das Gehirn funktioniert, und was Computer davon lernen können. Reinbek: Rowohlt Taschenbuch-Verlag 2006.
-
Mainz, I.; Weller, K.; Paulsen, I.; Mainz, D.; Kohl, J.; Haeseler, A. von: Ontoverse : collaborative ontology engineering for the life sciences (2008)
0.01
0.008371662 = product of:
0.03348665 = sum of:
0.03348665 = weight(_text_:und in 2594) [ClassicSimilarity], result of:
0.03348665 = score(doc=2594,freq=4.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.2772374 = fieldWeight in 2594, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=2594)
0.25 = coord(1/4)
- Abstract
- Ontologien werden als eine neue Methode zur detaillierten und formalisierten Wissensrepräsentation vorgestellt, dabei liegt der Schwerpunkt auf dem Einsatz von Ontologien in den Lebenswissenschaften. Wir zeigen, dass für ausgereifte wissenschaftliche Ontologien Ansätze zur gemeinschaftlichen Erarbeitung notwendig sind. Das Ontoverse Ontologie-Wiki wird vorgestellt; es ist ein Hilfsmittel, das alle Phasen des gemeinschaftlichen Ontologieaufbaus unterstützt.
- Source
- Information - Wissenschaft und Praxis. 59(2008) H.2, S.91-99
-
Tait, J.A.: Authors and titles : an analytical study of the author concept in codes of cataloguing rules in the English language, from that of the British Museum in 1841 to the Anglo-American Cataloguing Rules 1967 (1969)
0.01
0.008371662 = product of:
0.03348665 = sum of:
0.03348665 = weight(_text_:und in 3161) [ClassicSimilarity], result of:
0.03348665 = score(doc=3161,freq=4.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.2772374 = fieldWeight in 3161, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=3161)
0.25 = coord(1/4)
- Classification
- AN 74530 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Kataloge, Katalogisierung / Titelaufnahme, Katalogisierung im Ausland (LS 1) / Europa / Westeuropa / Großbritannien
- RVK
- AN 74530 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Kataloge, Katalogisierung / Titelaufnahme, Katalogisierung im Ausland (LS 1) / Europa / Westeuropa / Großbritannien
-
Hunter, E.J.: Classification - made simple : an introduction to knowledge organisation and information retrieval (2009)
0.01
0.008371662 = product of:
0.03348665 = sum of:
0.03348665 = weight(_text_:und in 381) [ClassicSimilarity], result of:
0.03348665 = score(doc=381,freq=16.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.2772374 = fieldWeight in 381, product of:
4.0 = tf(freq=16.0), with freq of:
16.0 = termFreq=16.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=381)
0.25 = coord(1/4)
- Footnote
- Rez. in: Mitt. VÖB 63(2010) H.1, S.143-147 (O. Oberhauser): " ... Kommen wir zur Kritik, die in den letzten Absätzen ansatzweise schon angeklungen ist. Das Anliegen des Buches ist, wie dem ersten Satz der Einleitung zu entnehmen ist, "to simplify the initial study of classification as used for knowledge organisation and information retrieval" (p. xi). Dies ist dem Autor in den ersten Kapiteln wohl auch gelungen. Die Einführung in die beiden Grundtypen - hier facettierte, dort hierarchische Systeme - ist verständlich und für Anfänger zweifellos gut geeignet. In den folgenden Kapiteln beginnt man sich aber zu fragen, wer eigentlich die Zielgruppe des Buches sein mag. Für Anfänger wird vieles zu schwierig sein, da gerade bei den anspruchsvolleren Aspekten der Text zu oberflächlich ist, keine didaktisch befriedigende Darstellung erfolgt und gelegentlich sogar Fachkenntnisse vorausgesetzt werden. Für Praktiker aus dem Bibliothekswesen fehlt vielfach der Bezug zur alltäglichen Realität, da z.B. Probleme der Buchaufstellung allenfalls am Rande zur Sprache kommen. Hochschullehrer, die eine Lehrveranstaltung zu Klassifikationsthemen vorbereiten müssen, werden manches an dem Buch nützlich finden, vielfach aber ob der mangelnden Detailliertheit zu anderen Unterlagen greifen. So bleibt der oder die "an Fragen der Klassifikation Interessierte" - ein undefiniertes und nicht allzu häufig anzutreffendes Wesen, das aber wahrscheinlich auch existiert und hier eine Fülle von Punkten angerissen findet, die zu einer weiteren Recherche in anderen Quellen animieren. Gut gelungen sind die zahlreichen Beispiele, selbst wenn dafür nicht immer sehr glückliche Notationssysteme gewählt wurden. Auch in sprachlicher Hinsicht ist - zumindest in den Anfangskapiteln - nichts zu bemängeln. Dass die beiden letzten Kapitel eher misslungen sind, wurde bereits oben angedeutet. In den übrigen Abschnitten merkt man dem Buch ebenfalls immer wieder an, dass es in seinen Grundzügen aus der Papier- und nicht aus der Online-Zeit stammt. Dennoch will ich nicht über Gebühr lamentieren, schon deshalb, da es gar nicht so viele brauchbare Lehrbücher zu Klassifikationsthemen gibt. Und in diese letztere Kategorie gehört Hunters Text alldieweil."
- RSWK
- Bibliothek / Klassifikation / Information und Dokumentation
- Subject
- Bibliothek / Klassifikation / Information und Dokumentation
-
Mayr, P.; Mutschke, P.; Petras, V.; Schaer, P.; Sure, Y.: Applying science models for search (2010)
0.01
0.008371662 = product of:
0.03348665 = sum of:
0.03348665 = weight(_text_:und in 663) [ClassicSimilarity], result of:
0.03348665 = score(doc=663,freq=4.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.2772374 = fieldWeight in 663, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=663)
0.25 = coord(1/4)
- Source
- Information und Wissen: global, sozial und frei? Proceedings des 12. Internationalen Symposiums für Informationswissenschaft (ISI 2011) ; Hildesheim, 9. - 11. März 2011. Hrsg.: J. Griesbaum, T. Mandl u. C. Womser-Hacker
-
Golinski, M.: Use, but verify : composite indices for measuring the information society (2010)
0.01
0.008371662 = product of:
0.03348665 = sum of:
0.03348665 = weight(_text_:und in 677) [ClassicSimilarity], result of:
0.03348665 = score(doc=677,freq=4.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.2772374 = fieldWeight in 677, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=677)
0.25 = coord(1/4)
- Source
- Information und Wissen: global, sozial und frei? Proceedings des 12. Internationalen Symposiums für Informationswissenschaft (ISI 2011) ; Hildesheim, 9. - 11. März 2011. Hrsg.: J. Griesbaum, T. Mandl u. C. Womser-Hacker
-
Wissen - Wissenschaft - Organisation : Proceedings der 12. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation Bonn, 19. bis 21. Oktober 2009 (2013)
0.01
0.008371662 = product of:
0.03348665 = sum of:
0.03348665 = weight(_text_:und in 4469) [ClassicSimilarity], result of:
0.03348665 = score(doc=4469,freq=16.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.2772374 = fieldWeight in 4469, product of:
4.0 = tf(freq=16.0), with freq of:
16.0 = termFreq=16.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=4469)
0.25 = coord(1/4)
- Content
- Inhalt: H. P. Ohly: Wissen - Wissenschaft - Organisation. Eine Einführung 1. Grundlagen der Wissensorganisation G. Rahmstorf: Philosophie als grundlegende Erkenntnis-Wissenschaft K. Weber: Informationsnachhaltigkeit. Vom schwierigen Umgang mit Informationsgütern - H. P. Ohly: Wissens- und informationssoziologische Aspekte der Wissensorganisation - U. Adler Feministische Wissenschaftsorganisation 2. Wissenskonzepte H. Cap: Erkennen durch künstliche Systeme - K Prätor: Logik als Organisation von Handlungen - V. Dreier: Fotografien als empirische Daten - J. Blasius: Informationen und Fehlinformationen durch die Sozialwissenschaften - A. Kovaleva: Psychologische Konstrukte und Modelle der Persönlichkeitspsychologie - J. Hagenah, D. Gilles, D. Becker: Überregionale Tageszeitungen 3. Wissensmehrwert I. Dahlberg: Desiderate für die Wissensorganisation - J. Lindenthal, E. Scheven: ISO 25964 - Standard der Information und Dokumentation - M. Stempfhuber, B. Zapilko: Ein Ebenenmodell für die semantische Integration von Primärdaten und Publikationen in Digitalen Bibliotheken - P. Mayr, P. Mutschke, P. Schaer, Y. Sure: Mehrwertdienste für das Information Retrieval - 4. Semantik in der Wissensorganisation W. Koch: Vokabularien und WebServices - F. Boteram: Typisierung semantischer Relationen in integrierten Systemen der Wissensorganisation - J. Hubrich: Vom Stringmatching zur Begriffsexploration - B. Zapilko, Y. Sure: Neue Möglichkeiten für die Wissensorganisation durch die Kombination von Digital Library Verfahren mit Standards des Semantic Web 5. Wissenserwerb K. S. Raghavan: Education for Information Management as a Transformation Force - T. Sporer, P. Meyer, M. Steinle: Begleitstudium als Modell zur Einbettung informellen Lernens in das Universitätsstudium - E. Horvatic: Vom Verhältnis von Gedächtnis, Medien und der Wissensorganisation - Hofhues, M. Kamper, T. Specht: Förderung des Wissensaustauschs unter Studierenden
6. Fachkommunikation L. Pinna, W. Wessels: Wissensorganisationssysteme für Archäologie und Kulturerbe - Sandra Ducker, Uta Roth: Wissenslandkarte Berufsbildungsforschung - S. Gradmann, M. Olensky: Semantische Kontextualisierung von Museumsbeständen in Europeana - W. Shen, M. Stempfhuber: Embedding Discussion in Online Publications 7. Wissensgemeinschaften O. Bidlo, C. J. Englert: Wissen verbindet - verbindet Wissen - H. Paepcke, J. Hafensteller: Building an Epistemic Community 2.0 - K. Weishaupt: Open-Access-Zeitschriften als Schuttabladeplatz für minderwertige Beiträge? - K M. Janowit: Netnographie 8. Wissensmanagement E. Ammann: A Conception of Knowledge and Knowledge Dynamics in an Enterprise - J. Bertram: Stand der unternehmensweiten Suche in österreichischen Großunternehmen - M. Braschler, B. Heuwing, T. Mandl, C. Womser-Hacker, J. Herget, P. Schäuble, J. Stuker.: Evaluation der Suchfunktion deutscher Unternehmenswebsites 9. Wissensqualität L. Bornmann: Lässt sich die Qualität von Forschung messen? - H. H. Lietz: Diagnose von Emerging Science - U. Herb: Relevanz von Impact-Maßen für Open Access - U. Miller: Peer-Review-Verfahren zur Qualitätssicherung von Open-AccessZeitschriften - W. Dees: "Publication power approach"
-
Maculan, B.C.M. dos; Lima, G.A. de; Oliveira, E.D.: Conversion methods from thesaurus to ontologies : a review (2016)
0.01
0.008371662 = product of:
0.03348665 = sum of:
0.03348665 = weight(_text_:und in 695) [ClassicSimilarity], result of:
0.03348665 = score(doc=695,freq=4.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.2772374 = fieldWeight in 695, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=695)
0.25 = coord(1/4)
- Footnote
- Vgl.: https://www.researchgate.net/publication/357053013_Conversion_Methods_from_Thesaurus_to_Ontologies_A_Review und DOI: 10.5771/9783956504389-300.
- Theme
- Konzeption und Anwendung des Prinzips Thesaurus
-
Knowledge organization for a sustainable world: challenges and perspectives for cultural, scientific, and technological sharing in a connected society : proceedings of the Fourteenth International ISKO Conference 27-29 September 2016, Rio de Janeiro, Brazil / organized by International Society for Knowledge Organization (ISKO), ISKO-Brazil, São Paulo State University ; edited by José Augusto Chaves Guimarães, Suellen Oliveira Milani, Vera Dodebei (2016)
0.01
0.008371662 = product of:
0.03348665 = sum of:
0.03348665 = weight(_text_:und in 879) [ClassicSimilarity], result of:
0.03348665 = score(doc=879,freq=4.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.2772374 = fieldWeight in 879, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=879)
0.25 = coord(1/4)
- BK
- 02.14 Organisation von Wissenschaft und Kultur
- Classification
- 02.14 Organisation von Wissenschaft und Kultur
-
Scholz, M.: Wie können Daten im Web mit JSON nachgenutzt werden? (2023)
0.01
0.008371662 = product of:
0.03348665 = sum of:
0.03348665 = weight(_text_:und in 345) [ClassicSimilarity], result of:
0.03348665 = score(doc=345,freq=4.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.2772374 = fieldWeight in 345, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=345)
0.25 = coord(1/4)
- Abstract
- Martin Scholz ist Informatiker an der Universitätsbibliothek Erlangen-Nürnberg. Als Leiter der dortigen Gruppe Digitale Entwicklung und Datenmanagement beschäftigt er sich viel mit Webtechniken und Datentransformation. Er setzt sich mit der aktuellen ABI-Techik-Frage auseinander: Wie können Daten im Web mit JSON nachgenutzt werden?
-
Rügenhagen, M.; Beck, T.S.; Sartorius, E.J.: Information integrity in the era of Fake News : ein neuer Studienschwerpunkt für wissenschaftliche Bibliotheken und Forschungseinrichtungen (2020)
0.01
0.008371662 = product of:
0.03348665 = sum of:
0.03348665 = weight(_text_:und in 858) [ClassicSimilarity], result of:
0.03348665 = score(doc=858,freq=4.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.2772374 = fieldWeight in 858, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=858)
0.25 = coord(1/4)
- Source
- Bibliothek: Forschung und Praxis. 44(2020) H.1, S.255-261
-
Knull-Schlomann, Kristina (Red.): New pespectives on subject indexing and classification : essays in honour of Magda Heiner-Freiling (2008)
0.01
0.008306 = product of:
0.033224 = sum of:
0.033224 = weight(_text_:und in 3146) [ClassicSimilarity], result of:
0.033224 = score(doc=3146,freq=28.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.27506292 = fieldWeight in 3146, product of:
5.2915025 = tf(freq=28.0), with freq of:
28.0 = termFreq=28.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=3146)
0.25 = coord(1/4)
- Classification
- AN 51000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Bibliographien, Sammelschriften / Fest- und Gedenkschriften für Personen
AN 75000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Sacherschließung in Bibliotheken / Allgemeines
AN 93400 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Grundlagen, Theorie / Klassifikation
- Content
- Subject indexing - Subject authority data - Terminology Guido Bee: Zielstrebigkeit und Pragmatismus - Magda Heiner-Freilings Impulse für die verbale Inhaltserschließung - Marcia Zeng, Wei Fan: SKOS and Its Application in Transferring Traditional Thesauri into Networked Knowledge Organization Systems - Yvonne Jahns: Funktionelle Anforderungen an Normdaten für Themen von Werken - Edward 0' Neill: FAST - A New Approach to Controlled Subject Access - Pia Leth, Ingrid Berg: Subject Indexing in Sweden - Federica Paradisi: Analisi a faccette e categorie semantiche per i termini giuridici nel Thesaurus del Nuovo soggettario - Sohair Wastawy, Iman Khiry: The Development of Name and Subject Authority (Bibalex) at the Library of Alexandria - Holger Flachmann: 18 Jahre RSWK und SWD an der Universitätsund Landesbibliothek Münster - Margit Sandner: Entwicklung der SWD-Arbeit in Österreich - Ellen Kipple: Die Clearingstelle für Öffentliche Bibliotheken an der Deutschen Nationalbibliothek - Sybille Jungk: Die Erschließung der Belletristik und Kinder- und Jugendliteratur im Sachkatalog der Deutschen Nationalbibliothek Leipzig - Axel Ermert: Regelwerke, Klassifikation und Terminologie
Subject access - Multilingual access Winfried Gödert: Ontological Spine, Localization and Multilingual Access - Lars G. Svensson: Unified Access - A Semantic Web Based Model for Multilingual Navigation in Heterogeneous Data Sources - Patrice Landry: The Evolution of Subject Heading Languages in Europe and their Impact on Subject Access Interoperability - Gerhard Riesthuis: Subject Searching in Merged Catalogues - Jessica Hubrich, Tina Mengel, Katrin Müller, Jan-Helge Jacobs: Improving Subject Access in Global Information Spaces - Christel Hengel: The Virtual International Authority File (VIAF) - la C. Mcllwaine: Tongues of Men - Communication in an Electronic Age - Marie Balikova: Looking for the Best Way of Subject Access - Britta Woldering: Europeana - Mehrsprachiger Zugang zu Europas digitalem Kulturerbe - Ute Scharmann: 1001 Buchstabe oder Warum öffentliche Bibliotheken fremdsprachige Kinderliteratur bereithalten sollten Librarianship - Micellaneous Heidrun Wiesenmüller: Sacherschließung im Bachelorstudiengang Bibliotheks- und Informationsmanagement an der Hochschule der Medien Stuttgart - Dorothy McGarry: Magda Heiner-Freiling and Her Work in the IFLA Section on Classification and Indexing - Robert Zepf: Pour les generations présentes et future - For the Benefit of Present and Future Generations Heidrun Alex: Personalbibliografie Magda Heiner-Freiling
- RVK
- AN 51000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Bibliographien, Sammelschriften / Fest- und Gedenkschriften für Personen
AN 75000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Sacherschließung in Bibliotheken / Allgemeines
AN 93400 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Grundlagen, Theorie / Klassifikation
-
Scerri, E.R.: ¬The periodic table : its story and its significance (2007)
0.01
0.008306 = product of:
0.033224 = sum of:
0.033224 = weight(_text_:und in 3492) [ClassicSimilarity], result of:
0.033224 = score(doc=3492,freq=28.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.27506292 = fieldWeight in 3492, product of:
5.2915025 = tf(freq=28.0), with freq of:
28.0 = termFreq=28.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=3492)
0.25 = coord(1/4)
- Classification
- VB 2400 Chemie und Pharmazie / Bibliographien und Nachschlagewerke, Geschichte und Didaktik der Chemie und Pharmazie, Betriebssicherheit / Geschichte der Chemie und Pharmazie / Geschichte einzelner Probleme und Teilgebiete der Chemie und Pharmazie / Allgemeines
- RVK
- VB 2400 Chemie und Pharmazie / Bibliographien und Nachschlagewerke, Geschichte und Didaktik der Chemie und Pharmazie, Betriebssicherheit / Geschichte der Chemie und Pharmazie / Geschichte einzelner Probleme und Teilgebiete der Chemie und Pharmazie / Allgemeines
-
Gould, S.J.: ¬The structure of evolutionary theory (2002)
0.01
0.008272975 = product of:
0.0330919 = sum of:
0.0330919 = weight(_text_:und in 2220) [ClassicSimilarity], result of:
0.0330919 = score(doc=2220,freq=40.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.27396923 = fieldWeight in 2220, product of:
6.3245554 = tf(freq=40.0), with freq of:
40.0 = termFreq=40.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=2220)
0.25 = coord(1/4)
- Footnote
- Rez. in: Spektrum der Wissenschaft 2002, H.12, S.102-103 (W. Wickler): "Mit seinem letzten, schwergewichtigen Werk hat uns der kürzlich verstorbene Harvard-Professor und streitbare Autor Stephen Jay Gould ein sehr eigenwilliges Vermächtnis hinterlassen. Denn er präsentiert hier nicht etwa "die" Evolutionstheorie, sondern seine eigene, postdarwinistisch erweiterte Fassung derselben. Erweitert, indem er erstens die Weitergabe von Information als eigentliche Basis der Evolution leugnet und zweitens Konkurrenz um Ressourcen als wesentliches Element der natürlichen Selektion beiseite lässt. Das geschieht beiläufig irgendwo im Text und ist eingebettet in unterhaltsames bis detailbesessenes Rekapitulieren fremder wie eigener Denkwege. Ich greife diese beiden mir wichtigen Punkte heraus. Gould musste wissen, dass biologische Information in Genen kodiert ist und in Kopien der Gene weitergegeben wird. Entscheidend ist die Information, nicht das Material. Dennoch besteht Gould auf "material continuity throughout": Selbst wenn es gelänge, ein Lebewesen aus seinen Nukleotid-Sequenzen als Rohbausteinen zu synthetisieren und sich dieses in nichts von seinem natürlich erzeugten Vorbild unterschiede, dürfe man es nicht als Mitglied derselben Art ansehen. Er sagt weder, wie das bei Unkenntnis des Herstellungsweges zu vermeiden wäre, noch, welche andere Basis als die Information er denn für seine Evolutionstheorie in Anspruch nimmt. Gould weiß, dass die genetische Information Programme für Bau und Reaktionsweisen der Organismen liefert, dass das Individuum als Inkarnation der genetischen Information mit der Umwelt interagiert und dass die positiven und negativen Folgen dieser Interaktion darüber entscheiden, ob und wie oft seine Gene vervielfältigt werden. Das anerkennt er ausdrücklich als Selektion. Aber Gould ist Paläontologe, sieht Fossilreihen in datierten Schichten und findet Arten, die Millionen von Jahren unverändert bleiben, bis in einem Faunenbruch plötzlich die meisten verschwinden und nur wenige verbleibende zu einem Evolutionsschub beitragen. Die sprunghaften Änderungen will Gould mit Selektion auf höherer Ebene, von Populationen, Arten oder noch höheren taxonomischen Einheiten, erklären. Dabei bewertet er eine Einheit als umso erfolgreicher, je mehr Untereinheiten aus ihr hervorgehen. Der beste Beleg für Art-Selektion sei die Tatsache, dass verschiedene Arten sich mit unterschiedlichen Raten aufspalten. Heute gibt es vom Schimpansen zwei Arten, vom Menschen aber nur eine. Demnach wäre der Schimpanse evolutionär erfolgreicher als der Mensch? Darüber, wie Selektion auf Art-Ebene wirken kann, ohne an Merkmalen der Individuen anzusetzen, hat Gould während seiner ganzen Karriere am meisten nachgedacht, zuletzt anhand von Eigenschaften, die als "Emergenz" erst auf überindividueller Ebene auftreten, wie die Merkmalsvarianz. In seinem konstruierten Beispiel lässt er in einem verfaulenden Tümpel eine Fischart aussterben, deren Vertreter allesamt sauerstoffreiches Wasser brauchen, während von einem anderen Fisch mit größerer Kiemenfunktion-Varianz einige Individuen (!) überleben, die auch in schlechtem Wasser noch atmen können; ihre Nachkommen füllen später den wieder wohl belüfteten Tümpel. Nach Gould hat die Selektion die große interindividuelle Varianz der Kiemenfunktion belohnt. Aber: Viele Individuen sterben auch hier, und die Überlebenden verkörpern nur einen schmalen Ausschnitt der Varianz; vererben sie nur den an ihre Nachkommen, dann hat die Selektion genau das Merkmal zerstört, das sie angeblich belohnt hat. Vor allem aber: Art-Selektion spielt sich stets, wie schon ihr Erfinder Hugo de Vries 1905 betonte, zwischen Arten ein und derselben systematischen Einheit ab. Deswegen hat auch Gould zwei nahe verwandte Fischarten und nicht etwa Fisch gegen Wurm oder Krebs konkurrieren lassen. Er verschleiert mit vielen Worten, dass es in diesem Fall eben doch nur die relativ wenigen unterschiedlichen Gere sind, an denen die Selektion ansetzt, und nicht grundsätzlich verschiedene Systeme.
Und schließlich: Oft entscheidet die unbelebte Umwelt über die weitere Evolution einer taxonomischen Einheit. Man mag auch das Selektion nennen und muss dann jede Einheit für sich betrachten. Nach Darwins Konzept beruht die natürliche Selektion jedoch auf einer Konkurrenz um gemeinsam genutzte Ressourcen, bei dem ein Konkurrent seinen relativen Vorteil auf Kosten eines anderen erreicht. Der gemeinsame Tümpel in Goulds Beispiel erweckt zwar den Anschein von Konkurrenz, doch jede Art kämpft allein um ihr Dasein. Sauerstoffgehalt hat eher die Eigenschaften einer Temperatur als einer Nahrung: Er kann zwar lebensgefährlich niedrig sein, aber man kann ihn den anderen Individuen nicht wegfressen. Die angeblich konkurrierenden Arten aus Goulds Beispiel könnten ebenso gut in Tümpeln auf verschiedenen Kontinenten leben. Sein zweites Beispiel, in der die Populationsstruktur das emergente Merkmal ist, kann ebenfalls nicht überzeugen. Einigen brutpflegenden Meeresschnecken erlaubt angeblich die Abgrenzung örtlich isolierter Populationen eine höhere Artbildungsrate als den nicht-brutpflegenden Arten mit planktontischen Larven. Aber Brutpflege ist ein Merkmal des Individuums. Wieder ist von Konkurrenz keine Rede; es geht nur um die Anzahl registrierbarer Zweig-Arten wie in einer Reproduktions-Olympiade. Eine beherzigenswerte Erweiterung der Evolutionstheorie habe ich in dem Buch nicht gefunden. Immerhin: Ein unbezweifeltes Verdienst Goulds ist seine strikte Unterscheidung zwischen > selektionsverursachter Anpassung (Adaptation), > epiphänomenaler Passung (Zweckentfremdung, Exaptation), das heißt, dass ein bereits auf einen bestimmten Zweck adaptiertes Merkmal einem neuen Zweck dienstbar gemacht wird, und > zufälliger, Bauplan-inhärenter Eignung. Typisches Beispiel sind die sekundären Pflanzenstoffe: Abfallprodukte des Stoffwechsels, mit denen die Pflanze zunächst nichts anfangen kann, die ihr aber nützen, weil sie für Fressfeinde giftig sind. Gould nennt sie "spandrel" ("Spandrille", Bogenzwickel) nach einer Gewölbefläche im Markus-Dom in Venedig, die angeblich bautechnisch notwendig, aber obendrein zum Ausmalen mit einem ganz bestimmten Bild-Typ geeignet ist. Allerdings heißt solche Gewölbefläche architektonisch Hänge- oder Strebebogen (pendentive); und es gibt dazu eine bautechnische Alternative, den Stützbogen (squinch). Der aber lässt sich nicht so schön ausmalen. Also ist das pendentive eine Anpassung, aber Gould nennt sie spandrel und meint damit eine Nicht-Anpassung. Alles klar?"
-
Kaiser, S.: Retrokonversion des Quartkatalogs abgeschlossen (2006)
0.01
0.008272975 = product of:
0.0330919 = sum of:
0.0330919 = weight(_text_:und in 37) [ClassicSimilarity], result of:
0.0330919 = score(doc=37,freq=10.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.27396923 = fieldWeight in 37, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=37)
0.25 = coord(1/4)
- Content
- "Angesichts des Alters (18401952), der Menge (2,3 Millionen Katalogblätter im Quartformat, daher der Name Quartkatalog) und der Schwierigkeit der Vorlagen (über neunzig Prozent handschriftlich) bot es sich für die BSB an, längere Zeit zu prüfen, welches Retrokonversionsverfahren für das geplante Vorhaben am besten geeignet ist unter besonderer Berücksichtigung von Projektdauer, Kosten und unverzichtbarer hoher Qualität der bei der Retrokonversion erstellten Titeldaten. Sorgfältige Vorarbeiten hatten ein Verhältnis von 65 Prozent Zutragungen zu vorhandenen BVB Titeldatensätzen und 35 Prozent Neuaufnahmen prognostiziert. Als entscheidend für den Konversionserfolg wurde daher eine sehr hohe Genauigkeit bei der Entscheidung Neuaufnahme/ Zutragung angesehen, eine hohe Nachvollziehbarkeit der Rechercheentscheidungen sowie die Vermeidung von Dubletten in der Verbunddatenbank. Vor diesem Hintergrund fiel die Entscheidung zu einem Retrokonversionsverfahren unter Ausspeicherung der vorhandenen BVB-Daten, darunter die von der Deutschen Bücherei Leipzig und der Staatsbibliothek Preußischer Kulturbesitz übernommenen Altdaten, mit besonderem Fokus auf die Qualitätssicherung durch den auszuwählenden Dienstleister. In einer europaweiten Ausschreibung wurde im Oktober 2002 der Anbieter Satz-Rechen-Zentrum (SRZ Berlin) ausgewählt, der in den Jahren 1996-1997 bereits die Retrokonversion des IFK der BSB (2,2 Millionen Karten im internationalen Format) erfolgreich bewältigt hatte. Von Dezember 2002 bis Juli 2003 wurden die Katalogschränke sukzessive nach Berlin transportiert, um an zwei für diesen Zweck speziell gebauten Durchzugsscannern 2,3 Millionen Quartblätter mit Vorder- und Rückseite in 256 Graustufen zu digitalisieren. Die insgesamt 4,6 Millionen Bilder (images) umfassen ein Datenvolumen von 221 GByte."
-
Keen, A.: ¬The cult of the amateur : how today's internet is killing our culture (2007)
0.01
0.008272975 = product of:
0.0330919 = sum of:
0.0330919 = weight(_text_:und in 1797) [ClassicSimilarity], result of:
0.0330919 = score(doc=1797,freq=40.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.27396923 = fieldWeight in 1797, product of:
6.3245554 = tf(freq=40.0), with freq of:
40.0 = termFreq=40.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=1797)
0.25 = coord(1/4)
- BK
- 05.20 / Kommunikation und Gesellschaft
- Classification
- 05.20 / Kommunikation und Gesellschaft
- Footnote
- Andrew Keen is ein englisch-amerikanischer Schriftsteller, Absolvent der Universitäten von London, Berkeley y Sarajevo, Professor an den Universitäten von Tufts, Northeastern und Massachusetts und Gründer des Online-Unternehmens Audiocafe, wer gegenwärtig über die Massenmedien schreibt. Dieses Buch, veröffentlicht in USA in Juni 2007, kursierte schon zwischen den Teilnehmern der Konferenz des TED (Technology Entertainment Design) in Monterrey und es ist eine unerbittliche Kritik des Web 2.0. Ein Artikel in der Weekly Standard ging voraus.. Das Web 2.0 ist nicht so sehr eine Aktualisierung des Internets aus technischer Sicht sondern ein Kolloquialismus, das von O'Reilly Media, ein Internet Kommunikationsunternehmen, während eines der unternehmensinternen Konferenzzyklen geschaffen wurde. Es bezieht sich vor allem auf die Art, in der das Internet benutzt wird. Web 2.0 bezieht sich darüber hinaus auf die Methoden, die die Zusammenarbeit zwischen den Benutzern nachdrücklich betonen und den Besucher oder Kunden einer Seite in Mitverfasser/Co-autor transformieren. Beispiele von Web 2.0 können sein: die Rezensionen in Amazon, die online-offene Enzyklopädie Wikipedia, blogs mit Beteiligung der Leser, Verlage wie blurb.com, welche für jeden Autor die Veröffentlichung seines Buches ermöglichen, u.a. Das Web 2.0 erlaubt einerseits eine größere Interaktivität zwischen Schöpfern und Konsumenten der Kultur- Online, anderseits hat die intellektuelle Piraterie stimuliert. Für den Autor ist es klar, dass genauso wichtig die Mitbestimmung für die politischen Demokratie ist, ist in der Welt der Wissenschaft das, was die Verfechter des Web 2.0 "Diktatur der Experten" nennen. Hundert Wikipedia Mitarbeiter werden nie einen authentischen Techniker, Wissenschaftler oder Historiker ersetzen können. Die Amateurs Blogs können sogar die Texte von Journalisten ersetzen, fehlt es ihnen jedoch die Seriosität dieser. An der einen Seite, stehen die Journalisten, die reisen, befragen, untersuchen, erforschen. An der anderen stehen viel zu oft Leute, die nicht verifizierte Information aus sekundären Quellen entnehmen und veröffentlichen. Es ist nicht nur, dass sie an Seriosität mangeln, sondern auch an Verantwortung. Die anonyme Information kann auch falsch oder fehlerhaft sein, aber ist vor allem verantwortungslose Information, für die, die Verfasser selten zur Verantwortung gezogen werden, egal wie schädlich ihre Ergebnisse sind. Anders geschieht es mit der gedruckten Presse, weil sie rundweg reguliert ist.
Wenn Wikipedia und blogs nur Ergänzungen zur Kultur und zur Information wären, wäre dies nicht gravierend. Das Problem ist, dass sie Ihren Ersatz geworden sind. Darüber hinaus neben der Unerfahrenheit der Autoren steht auch die Anonymität, die ermöglicht, dass sich zwischen den Amateurs Dessinformanten, getarnten Publizisten (vor allem die Spezialisten in Enten und Desinformation, welche jetzt die ganze Welt direkt und glaubhafter erreichen können) zwischen schieben. Fügen wir diesem apokalyptischen Panorama die intellektuelle Piraterie hinzu, werden wir eine Welt haben, in der die Schöpfer von den Nachahmern verdrängt werden. Dies annulliert die Motivation für die Schöpfung des Neuen. Der Autor gibt uns einige Beispiele, wie die Entlassungen bei Disney Productions. Eine große nordamerikanische Fernsehkette hat teuere Serien in Prime Time aus dem Programm entfernt, weil diese nicht mehr rentabel sind. Andere Beispiele u.a. sind die Verluste der traditionellen Presse und das Verschwinden von spezialisierten Platten- und Bücherläden egal wie gut sie waren. Andere Themen: Invasion der Privatsphäre durch das Internet, E-Mail Betrug, wachsende Kinderpornografie, das Plagiat bei Schülern sind auch in dem Buch enthalten. So sollten wir uns ein furchtbares Bild der von den neuen Technologien verursachten Probleme machen. Aber der Kern des Buches besteht in die Verteidigung des individuellen Schöpfertums und des Fachwissens. Beide sind nach Meinung des Autors die Hauptopfer des Web 2.0. Das Buch ist ein Pamphlet, was im Prinzip nicht Schlechtes bedeutet. Marx, Nietzsche, u..v.a. haben auch Pamphlete geschrieben und einige dieser Schriften haben bei der Gestaltung der modernen Welt beigetragen. Das Buch hat alle Merkmale des Pamphlets: ist kurz, kontrovers, aggressiv und einseitig. Daran liegen seine Kräfte und seine Schwäche. Der Text kann in einigen wenigen Stunden gelesen werden und schärft die Wahrnehmung des Leser vor scheinbar unschädlichen Praktiken: runterladen eines Liedes oder die Zusammenstellung einer Schulaufgabe. Weil er einseitig ist, der Autor absichtlich ignoriert, dass viele dieser Probleme unabhängig des Internets existieren, wie das Plagiat. Er unterdrückt auch Tatsachen, wie die Kontrollmechanismen von Wikipedia, die sie genau so vertrauensvoll wie die Encyclopaedia Britannica machen. Aber gerade weil das Buch einseitig ist, hilft der Autor dem Dialog zwischen den unterschiedlichen Formen, um das Internet zu sehen und zu nutzen. (Aus der Originalrezension in Spanisch von Juan Carlos Castillon, Barcelona, en el Blog Penultimos Dias)
-
Oberhauser, O.: Multimedia information storage and retrieval using optical disc technology : potential for library and information services (1990)
0.01
0.008272975 = product of:
0.0330919 = sum of:
0.0330919 = weight(_text_:und in 2543) [ClassicSimilarity], result of:
0.0330919 = score(doc=2543,freq=10.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.27396923 = fieldWeight in 2543, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=2543)
0.25 = coord(1/4)
- Classification
- AN 73000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Datenverarbeitung / Allgemeines
- Imprint
- Wien : Österreichisches Institut für Bibliotheksforschung, Dokumentations- und Informationswesen
- RSWK
- Bildplatte / Information und Dokumentation (BVB)
- RVK
- AN 73000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Datenverarbeitung / Allgemeines
- Subject
- Bildplatte / Information und Dokumentation (BVB)
-
Heckner, M.: Tagging, rating, posting : studying forms of user contribution for web-based information management and information retrieval (2009)
0.01
0.008272975 = product of:
0.0330919 = sum of:
0.0330919 = weight(_text_:und in 3931) [ClassicSimilarity], result of:
0.0330919 = score(doc=3931,freq=10.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.27396923 = fieldWeight in 3931, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=3931)
0.25 = coord(1/4)
- Abstract
- Die Entstehung von Social Software ermöglicht es Nutzern, in großem Umfang im Netz zu publizieren. Bisher liegen aber nur wenige empirische Befunde zu funktionalen Eigenschaften sowie Qualitätsaspekten von Nutzerbeiträgen im Kontext von Informationsmanagement und Information Retrieval vor. Diese Arbeit diskutiert grundlegende Partizipationsformen, präsentiert empirische Studien über Social Tagging, Blogbeiträge sowie Relevanzbeurteilungen und entwickelt Design und Implementierung einer "sozialen" Informationsarchitektur für ein partizipatives Onlinehilfesystem.
- Classification
- AN 96800 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationsvermittlung, Informationsplanung / Bewertung, Effizienz, Qualität
- RVK
- AN 96800 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationsvermittlung, Informationsplanung / Bewertung, Effizienz, Qualität
-
Maier, T.: Digitale Bibliothek rückt ins Zwielicht : Deutsche Politiker und der Börsenverein des Buchhandels machen Front gegen Google (2009)
0.01
0.008189827 = product of:
0.03275931 = sum of:
0.03275931 = weight(_text_:und in 2815) [ClassicSimilarity], result of:
0.03275931 = score(doc=2815,freq=20.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.2712157 = fieldWeight in 2815, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=2815)
0.25 = coord(1/4)
- Content
- "Weltweit hat Google in den vergangenen Jahren zehn Millionen Bücher digitalisiert. Jetzt steht der Internet-Konzern vor seinem größten literarischen Coup: In den USA hat er sich mit Autoren und Verlagen in einem Vergleich darauf geeinigt, dass auch urheberrechtlich geschützte Bücher gescannt und im Internet in längeren Passagen zur Verfügung gestellt werden können. Darunter sind aber auch Millionen von Büchern nichtamerikanischer Autoren. Dies hat nun in Deutschland die Buchbranche sowie Autoren von Daniel Kehlmann bis Siegfried Lenz auf die Barrikaden gebracht. Auch die Bundesregierung hat vor dem Gericht in New York Bedenken gegen den Vergleich angemeldet. Die Frist läuft heute ab. "Google Books" ist in den USA dabei, rund 25 Millionen Bücher aus Bibliotheken zu digitalisieren. Bei einem Teil handelt es sich um urheberrechtsfreie Bände - in den USA gilt dies für Bücher, die vor dem Jahr 1923 erschienen sind. Darunter sind aber auch geschützte Bücher, die im Handel als vergriffen gelten. Der Vergleich (Google Book Settlement) sieht nun vor, dass Google die Autoren und Verleger digitalisierter Bücher zu 63 Prozent an etwaigen Einnahmen bei der Vermarktung der Bücher im Internet - etwa durch das Herunterladen oder die Platzierung von Werbeflächen beteiligt. Zusätzlich gibt es für die Rechteinhaber von Büchern, die bereits vor Inkrafttreten des Vergleichs von Google gescannt wurden, bis zu 60 Dollar pro Titel. Auch in den USA sind nicht alle damit glücklich. So gehört zum Beispiel der Sohn von Literaturnobelpreisträger John Steinbeck zu den Klägern.
Das Zentrum der weltweiten Entrüstung ist jedoch Deutschland. Kulturstaatsminister Bernd Neumann (CDU) befürchtet "die Gefahr eines Informationsmonopols". Und für den Börsenverein des Deutschen Buchhandels, der ebenfalls in New York Einspruch erhoben hat, stehen die "Normen des internationalen Urheberrechts" auf dem Spiel. "Theoretisch hat Google nach dem Vergleich die Möglichkeit, sämtliche auf der Welt erschienenen Bücher zu digitalisieren", sagt Christian Sprang, Justiziar des Dachverbands der deutschen Buchbranche. Google verweist darauf, dass allein das Urheberrecht in den USA betroffen sei. "Es geht nur um Bücher aus den USA und für amerikanische Nutzer", sagt der Sprecher von Google Deutschland, Stefan Keuchel. Ausländischen Online-Nutzern soll technisch der Zugang verwehrt werden. Es gebe im Internet genug Möglichkeiten, dies zu unterlaufen, meint hingegen Sprang. Weltweit arbeitet Google Books bei der Digitalisierung mit 30 renommierten Bibliotheken zusammen, darunter der Oxford Library und der Bayerischen Staatsbibliothek. Allerdings werden in den europäischen Bibliotheken nur urheberrechtsfreie Bücher digitalisiert. In Deutschland gelten Bücher 70 Jahre nach dem Tod des Autors als "gemeinfrei". Wir investieren sehr stark und verdienen damit momentan kein Geld", meint Keuchel mit Blick auf Googles Engagement in den Bibliotheken.
Kritiker sehen dies keineswegs als Projekt zum Wohle der Menschheit. Sprang argwöhnt, dass über kurz oder lang jede größere Bibliothek weltweit einen Großteil ihres Erwerbungsetats für elektronische Inhalte an Google zahlen muss. Er hält es für ein "Armutszeugnis", dass Bibliotheken weltweit ihre Schätze Google zur Verfügung stellten, nur weil es für die Digitalisierung nicht genügend öffentliche Gelder gebe. Die zuständige EU-Kommissarin Viviane Reding wiederum hält das weltweite Google Projekt für eine Chance, dass Verbraucher an mehr Informationen herankommen. Das Thema bleibt auf alle Fälle heiß: Das US-Justizministerium nimmt das Google Book Settlement kartellrechtlich unter die Lupe. Die Bundesregierung hofft, dass das New Yorker Gericht den Vergleich ablehnt oder deutsche Autoren und Verleger ausklammert. "Die deutschen Rechtsinhaber könnten dann selbst entscheiden, ob und welche Rechte sie Google einräumen", erklärte Bundesjustizministerin Brigitte Zypries."
-
Lischka, K.: Archiv statt Deponie : Die US-Congressbibliothek soll das digitale Kulturerbe sichern - das dürfte teuer und schwierig werden (2003)
0.01
0.008063499 = product of:
0.032253996 = sum of:
0.032253996 = weight(_text_:und in 2418) [ClassicSimilarity], result of:
0.032253996 = score(doc=2418,freq=38.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.26703218 = fieldWeight in 2418, product of:
6.164414 = tf(freq=38.0), with freq of:
38.0 = termFreq=38.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=2418)
0.25 = coord(1/4)
- Abstract
- Selbst wenn es nach heutigem Ermessen nicht wertvoll wäre, müsste man Onlinematerial zumindest teilweise archivieren. Denn die Bedeutung von Quellen wandelt sich minder Zeit. Heutige Forschergenerationen würden viel für einen Blick auf jene Kurzfilme geben, die man Anfang des vergangenen Jahrhunderts nach einigen Durchläufen als Unterhaltungsmaterial achtlos zur Seite warf. Schon heute ist absehbar, dass lnternetseiten von 1998 Kommunikationswissenschaftler viel über die Beschleunigung und Aufheizung des Mediengeschäfts erzählen können. Wie schnell zogen kommerzielle Medien im Netz im Vergleich zur gedruckten Version der Skandalberichterstattung Matt Drudges über Bill Clintons Affaire nach? Welche Funktion hatten dabei öffentliche Nachrichtenforen? Historiker dürften vom frühen E-Mail-Verkehr in Regierungen und großen Unternehmen einst weit weniger finden als von den früher so geheimen Depeschen.
- Content
- "Fast eine Million britische Schulkinder, Beamte und Journalisten haben im Jahr 1986 Informationen über ihr Land gesammelt. Sie trugen 250000 Ortsbeschreibungen zusammen, 50 000 Fotos, 25 000 Landkarten und eine nie quantifizierte Textmenge. Der Sender BBC wollte ein Dokument über den britischen Alltag jener Zeit für die Nachwelt schaffen. Etwa 2,5 Millionen Pfund kostete der Datenberg, der auf einer Videodisk gespeichert wurde. Die galt als unzerstörbar. War sie bis heute auch. Nur gab es 16 Jahre später im Jahr 2002 keinen Computer mehr, der das Material lesen kann. Denn der entsprechende BBC Micro-Rechner war schnell verschwunden, weil ein zu teurer Flop. Ähnlich könnte es dem digital vorliegenden, kulturellen Erbe der Menschheit ergehen, Das denkt zumindest die Mehrheit der US-Kongressabgeordneten. Sie haben der Kongressbibliothek für die Entwicklung eines Systems zur Sammlung und Katalogisierung digitaler Informationen 20 Millionen Dollar bewilligt. Weitere 75 Millionen könnten in den nächsten Jahren vom Staat dazukommen - wenn auch Sponsoren so viel Geld bringen. Halten die sich zurück, knausert auch der Staat beim "National Digital Information Infrastructure and Preservation Program" (NDIIPP). Deutsche Bibliothekare betrachten das Projekt mit gemischten Gefühlen. "Wir sehen neidisch, was in den USA mit Sponsoren möglich ist. Doch andererseits kann man den Erhalt des nationalen Kulturerbes nicht darauf gründen, dass in 50 Jahren noch Sponsoren dafür zu haben sind", erklärt Katrin Ansorge, Sprecherin der Deutschen Bibliothek (DDB). Die hat - noch - keinen gesetzlichen Sammelauftrag für digitale Dokumente, die nicht auf physischen Datenträgern wie CD-ROMs vorliegen. Doch Ansorge ist zuversichtlich, "dass der Bund das Gesetz noch in dieser Legislaturperiode anpasst". Bis dahin dürfte mehr Material verloren sein als beim Brand der Bibliothek von Alexandria. Nach einer Studie der US-Kongressbibliothek war die Hälfte des 1998 im Internet verfügbaren Materials 1999 wieder verschwunden. "Vieles davon war wichtiges, einzigartiges Material. das man nicht zurückholen kann, aber einst dringend suchen wird", sagt der Leiter der Kongressbibliothek, James H. Billington. Den hier wirkenden Widerspruch des Internets als Medium formuliert Franziska Nori, die wissenschaftliche Leiterin der Abteilung Digitalcraft am Frankfurter Museum für Angewandte Kunst (MAK): "Es ist kurzlebig, hat aber alle Bereiche unserer Gesellschaft einschneidend verändert." Einen kleinen Beitrag zur Archivierung digitalen Kunsthandwerks leistet das MAK mit seiner Sammlung Webdesign. Ausgewählte Seiten von Gestaltern, Agenturen, Onlinemagazinen und Angeboten für Kinder werden auf den Servern von Digitalcraft archiviert. Auch die DDB sammelt bestimmte Dokumente wie Onlinedissertationen, Habilitationen oder nur online verfügbare wissenschaftliche Magazine. Die vergleichsweise kleinen Projekte zeigen vor allem eines: Die Archivierung digitaler Dokumente ist teuer. Denn die Probleme sind komplexer und vor allem neuer als der am Papier nagende Säurefraß und die nötige systematische Katalogisierung gedruckter Werke. Die Probleme beginnen schon beim Sammeln. Die von privaten Stiftungen getragene US-Initiative "Internet Archive" speichert beispielsweise jeden Tag 400 Gigabyte an neuem Material. Ausgedruckt wären das mehr als 20 Buchregal-Kilometer. Um zusätzlichen Speicherplatz zu kaufen, gibt das "Internet Archive" jeden Monat etwa 40000 Euro aus. Die Wartung und vor allem die Katalogisierung des vorhandenen Bestands ist weit teurer. Dabei erfasst das "Internet Archive" nur alle zwei Monate komplett einen großen Ausschnitt des Webs. Mit Passworten geschützte Seiten bleiben ebenso außen vor wie Kommunikation in Chaträumen und E-Mails.
Angesichts der Datenmengen scheint es, dass Bibliotheken beim Sammeln digitaler Dokumente rigider auswählen müssen. Weit drastischer als heute, wo noch immer der Grundgedanke wirkt, spätere Generationen müssten selbst den Wert der Quellen bewerten dürfen. Die DDB denkt laut Kathrin Ansorge an getrennte Sammlungsverfahren: "einerseits für Dokumente, die einen gesicherten Publikationsprozess wie etwa in Verlagen erfahren haben, andererseits für den großen Rest, den man mit Suchrobotern abgreifen könnte". Beim Sammeln werden Bibliotheken dieselben Schwierigkeiten haben, mit denen das "Internet Archive" heute schon kämpft: Urheber schützen ihr Material; Passworte sind das kleinere Problem. Eine gesetzliche Ablieferungspflicht wie bei gedrucktem Material könnte da helfen. Schwieriger sind Dateiformate, die schon heute das Auslesen der Dokumente ebenso wie zu häufige Transfers verhindern. Manche Verlage legen gar ein Verfallsdatum fest. Diese Verschlüsselungen sind nur schwer zu knacken. Die Versuche könnte ein novelliertes Urheberrecht gar strafbar machen. Aber auch Dateiformate ohne solche Schutzmechanismen werden zum Problem. Denn Dokumente sollen ja nicht nur auf Deponien gesammelt werden, sondern vor allem in Archiven zugänglich sein. Die drohende Gefahr: Die Soft- und Hardware zum Lesen bestimmter Formate ist in wenigen Jahren verschwunden. Die Dokumente sind dann so wertvoll wie Text in Geheimtinte ohne das Wissen, wie man sie sichtbar macht. Hier haben digitale Archive drei Möglichkeiten. Die erste ist Migration. Alte Software wird für jede neue Computergeneration neu programmiert. Das ist aufwendig. Und vor allem gehen Informationen verloren, während neue hinzukommen. Es ist so, als würde man ein Gemälde alle fünf Jahre abmalen. Wie Rembrandts Nachtwache dann heute aussähe? Eine andere Möglichkeit ist die Emulation. Dabei ahmen spezielle Programme alte Hardware nach. Man müsste dann nicht jede Software neu schreiben, weil sie sich in einer vertrauten, da emulierten Umgebung wähnt. Der Nachteil: Alle paar Jahre ist eine neue Emulation nötig, um die alten Emulatoren mit neuer Hardware nutzen zu können. Ein auf kurze Sicht bequemer, auf lange Sicht gefährlicher Teufelskreis, sagt David Bearman, Präsident des kanadischen Beratungsunternehmens "Archives and Museum Informatics": "Das gibt Managern und Regierungen auf der Welt eine Entschuldigung, um Entscheidungen herauszuzögern, die jetzt getroffen werden müssen. Eine dritte Möglichkeit wäre, alle Dateien in einer zweiten Version zu speichern, die auf einem so genannten Universal Virtual Computer lesbar ist. Der existiert als Beschreibung auf wenigen Seiten Papier. Er ist einfach und umfasst die bislang unveränderten und in Zukunft sicher reproduzierbaren technischen Grundsätze eines Rechners wie Arbeitsspeicher, Hauptprozessor und dergleichen. Diese Möglichkeit erwägt die Koninklijke Bibliotheek der Niederlande. Sie hat IBM mit der Entwicklung eines Depotsystem für digitale Dokumente beauftragt. Ein auf mittlere Sicht angelegtes Programm läuft schon. Die langfristige, gegenüber Hard- und Softwareänderungen resistente Erhaltung soll auf dem UVC-Konzept aufbauen. Dass es im Prinzip funktioniert, belegt ein Prototyp: Ein PDF-Dokument wurde in das Format für einen UVC konvertiert und ohne Informationsverlust wieder ausgelesen. Noch besteht Hoffnung für das digitale Kulturerbe. Sogar das von der BBC 1986 gesammelte Material konnten Forscher - nach mehr als einem halben Jahr Arbeit - Ende vergangenen Jahres auslesen. Aller- dings wissen sie noch nicht, wie sie es nun für die Ewigkeit archivieren sollen - oder zumindest für die nächsten 16 Jahre."