-
Heuer, S.; Trojan, J.: ¬Die Dot-Kommune
0.01
0.011688688 = product of:
0.04675475 = sum of:
0.04675475 = weight(_text_:und in 3399) [ClassicSimilarity], result of:
0.04675475 = score(doc=3399,freq=20.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.3871834 = fieldWeight in 3399, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0390625 = fieldNorm(doc=3399)
0.25 = coord(1/4)
- Abstract
- Wissen ist frei, dachten sich die Gründer des Internet-Lexikons Wikipedia, bei dem jeder Autor und Redakteur sein kann. Doch die Info-Revolution droht im kreativen Chaos zu versinken.
- Content
- "Wikipedianer sind ein virtuelles Völkchen, an dem Ethnologen der Wissensgesellschaft und Verhaltensforscher ihre helle Freude hätten. Die Ureinwohner stekkten im Web jungfräuliches Territorium ab und bauten darauf eine soziale Utopie, für die sie die Regeln schrieben. Die freie Enzyklopädie Wikipedia ist nach wie vor eines der aufregendsten Projekte im Netz: ein Nachschlagewerk, das als offene Gemeinschaftsarbeit von Tausenden geschrieben, von Hunderttausenden kritisiert und von Millionen benutzt wird. Wer heute einen Eintrag beispielsweise über Stammzellenforschung oder Arnold Schwarzenegger nachschlägt, kann den Text von seinem Computer aus ändern - und die ganze Welt kann die neue Fassung lesen, bis ein anderer Leser etwas daran zu kritteln hat. Transparenz soll dafür sorgen, dass Dummheit, Ideologie und Schlamperei keinen Platz haben. Man vertraut der Evolution. Aber geht das? Statistiken sagen: Ja. Wikipedia meldete im September 2004 mehr als eine Million verfügbarer Artikel und treibt seitdem den Verantwortlichen der renommierten deutschen Enzyklopädieverlage sowie den Herausgebern käuflicher Computerenzyklopädien wie Brockhaus und Encarta den Angstschweiß auf die Stirn. Doch die Erfolgsgeschichte bekommt bereits die ersten Risse. Wie viel Chaos ist erträglich? Wie viel Basisdemokratie macht aus einem schlauen Völkchen eine dumme Horde? Und wer, bitte schön, bezahlt das alles? Fundis und Realos treten gegeneinander an."
-
STN International: Information digital : Online-Zugriff auf britische Patente (2005)
0.01
0.011688688 = product of:
0.04675475 = sum of:
0.04675475 = weight(_text_:und in 3428) [ClassicSimilarity], result of:
0.04675475 = score(doc=3428,freq=20.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.3871834 = fieldWeight in 3428, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0390625 = fieldNorm(doc=3428)
0.25 = coord(1/4)
- Abstract
- Patente und Gebrauchsmuster stellen eine umfangreiche Dokumentation des technischen Wissens dar, die weltweit jährlich durch über 600 000 Neuanmeldungen ständig anwächst. Keine andere Informationsquelle deckt in dieser konzentrierten Form fast alle Gebiete der Technik ab. Die Technologieinformationen ermöglichen Recherchen zum Stand der Technik, nach neuen Produkten und Verfahren, potenziellen Kooperationspartnern und Lizenznehmern. Darüber hinaus eignen sich Patentdatenbanken auch für systematische / statistische Patentanalysen. FIZ Karlsruhe, europäisches Servicezentrum des in Wissenschaft und Technik führenden Online-Dienstes STN International, hat sein umfassendes Angebot an hochwertigen Patentdatenbanken nun um GBFULL mit britischen Patenten im Volltext erweitert. 25 Prozent der nachgewiesenen Erfindungen werden nur national angemeldet, das heißt sie sind sonst nirgendwo veröffentlicht. Die neue, wöchentlich aktualisierte Online-Datenbank GBFULL enthält die Volltexte britischer Patentanmeldungen von 1979 bis heute. Die rund 400 000 Einträge umfassen den suchbaren Text des gesamten Dokumentes, einschließlich Ansprüchen, detaillierten Beschreibungen und Informationen zu Anmeldern und Erfindern. Für die meisten Dokumente sind auch Abstracts verfügbar. Eine Besonderheit ist, dass die zu den einzelnen Patentdokumenten gehörigen Rechtsstandsdaten aus der Datenbank INPADOC angezeigt werden können. Auf die Informationen kann über STN mit effizienten Suchfunktionen zugegriffen werden. Suchbegriffe können einzeln, aber auch logisch verknüpft als Kombinationsfrage (etwa Fachbegriff, Autor und Erscheinungszeitraum) eingegeben werden. Als Suchergebnis erscheinen nur Publikationen, die alle vorgegebenen Kriterien erfüllen. Ebenfalls möglich ist die Suche mit einem Wortstamm, an dem Vor- und/oder Nachsilbe durch ein Fragezeichen substituiert werden. Diese Links- und Rechts Trunkierungs-Funktion ist für die umfassende und präzise Suche im vollständigen Text besonders hilfreich. Wöchentliche Profilläufe (Alert Services) sind ebenfalls verfügbar. Hierbei wird bei jeder Aktualisierung der Datenbank geprüft, ob für ein zuvor vom Kunden gespeichertes Suchprofil zutreffende Antworten vorhanden sind; diese werden dem Kunden dann zugeschickt.
-
Hehl, H.: Contents-Linking Literaturverwaltung (2015)
0.01
0.011688688 = product of:
0.04675475 = sum of:
0.04675475 = weight(_text_:und in 1701) [ClassicSimilarity], result of:
0.04675475 = score(doc=1701,freq=20.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.3871834 = fieldWeight in 1701, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0390625 = fieldNorm(doc=1701)
0.25 = coord(1/4)
- Abstract
- Aufsatzzitate als Suchergebnisse von Datenbanken sowie Zeitschriftenverzeichnisse sind wichtige wissenschaftliche Informationsquellen des Internet. Contents-Linking erfasst und verbindet beides miteinander. Was Zeitschriftenverzeichnisse betrifft, so können diese, wenn sie nicht nur titelmässig, sondern auch sachlich erschlossen und ausserdem mit Standortangaben und anderen Daten supplementiert sind, als Zugangsinstrumente zur gesamten wissenschaftlichen Aufsatzliteratur oft eine Recherche in Fachdatenbanken ersetzen. Contents-Linking verwirklicht dieses weitgehend. Die Verknüpfung von Aufsätzen mit einer entsprechend eingerichteten Datenbank von Zeitschriften wurde im Multisuchsystem E-Connect in einer Reihe von Linksystemen durchgeführt. Diese Linksysteme sind inzwischen insgesamt durch das Multiple Linksystem abgelöst worden, das mit der Literaturverwaltung verbunden ist und gleichzeitig auch als Importformular für die Contents Literaturverwaltung dient. Das Multiple Linksystem kann also als selbständiges Verknüpfungssystem zu den Suchergebnissen von Datenbanken mit entsprechenden Anzeigeoptionen, als auch als Importsystem für die Übernahme dieser Suchergebnisse in die Aufsatzdatenbank der Literaturverwaltung dienen. Nicht nur im Multiplen Linksystem, sondern vor allem auch in der Literaturverwaltung findet jedenfalls eine intensive Verknüpfung der beiden Informationsquellen Aufsätze und Zeitschriftenverzeichnisse statt, wodurch weitere Informationen gewonnen werden und vor allem der Zugang zum Volltext erzielt wird. Aufsatzdatenbank und Zeitschriftendatenbank werden mit zwei sehr unterschiedlichen Systemen erstellt: dem schon erwähnten Importformular des Multiplen Linksystems für Aufsätze und dem Einarbeitungssystem für Zeitschriften. Zeitschriftendatenbank und Aufsatzdatenbank können zudem völlig unabhängig voneinander aufgebaut, verwaltet und durchsucht werden, sind aber stets eng miteinander verknüpfbar. Ausserdem sind sie durch automatische Funktionsabläufe in das Gesamtsystem integriert.
-
Qualitätssicherung bei Multimedia-Projekten (1999)
0.01
0.011571211 = product of:
0.046284843 = sum of:
0.046284843 = weight(_text_:und in 4610) [ClassicSimilarity], result of:
0.046284843 = score(doc=4610,freq=10.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.38329202 = fieldWeight in 4610, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0546875 = fieldNorm(doc=4610)
0.25 = coord(1/4)
- Abstract
- In der boomenden Multimedia-Branche ist Qualität zunehmend ein wichtiger Differenzierungsfaktor. Das Buch verdeutlicht anhand der gebräuchlichsten Multimedia-Anwendungen, was unter dem Begriff Qualität zu verstehen ist, und wie sie von führenden Unternehmen der Branche bei verschiedenen Produktionen bereits erzielt wird. Das Buch gibt Anregungen für die Anwendbarkeit und Chancen der Zertifizierung nach ISO 9000 ff im Bereich der Multimedia-Produktion. Zudem stellt es praxisorientierte Checklisten und Flowcharts zur Eigenarbeit zur Verfügung und hilft, die eigenen Qualitätsleistungen nach außen deutlich zu kennzeichnen und damit das Image eines Qualitätsunternehmens zu ermöglichen
-
Rösch, H.: Internetportal, Unternehmensportal, Wissenschaftsportal : Typologie und Funktionalität der wichtigsten Portalkonzeptionen (2000)
0.01
0.011571211 = product of:
0.046284843 = sum of:
0.046284843 = weight(_text_:und in 5462) [ClassicSimilarity], result of:
0.046284843 = score(doc=5462,freq=10.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.38329202 = fieldWeight in 5462, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0546875 = fieldNorm(doc=5462)
0.25 = coord(1/4)
- Abstract
- Internetportale haben sich aus Suchmaschinen und Webkatalogen entwickelt. Mit dem Unternehmensportal ist die Konzeption auf den betrieblichen Kontext übertragen worden. Eine weitere Adaption für den Wissenschaftssektor zeichnet sich ab. Zu den Kernfunktionen der Portale gehören neben dem zentralen Einstieg, der Simplizität und der Leistungsfähigkeit der Suchwerkzeuge vor allem ein hohes Integrations- und Personalisierungspotential sowie Tools zur Kommunikation, Kollaboration und Validierung von Informationen. Mit diesen Leistungsmerkmalen sind Portale prädestiniert, zu den Marktplätzen des E-Commerce sowohl für Endverbraucher- als auch für Wertschöpfungsketten zu werden. Die weitere typologische Diversifizierung ist absehbar
-
Hellweg, H.: ¬Die GESIS Socio-Guide : ein kooperatives Link-Verwaltungs-System (2000)
0.01
0.011571211 = product of:
0.046284843 = sum of:
0.046284843 = weight(_text_:und in 6653) [ClassicSimilarity], result of:
0.046284843 = score(doc=6653,freq=10.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.38329202 = fieldWeight in 6653, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0546875 = fieldNorm(doc=6653)
0.25 = coord(1/4)
- Abstract
- Ziel des Socio-Guide Projektes am Informationszentrum Sozialwissenschaften war die prototypische Entwicklung eines Fachinformationssystems für den Nachweis sozialwissenschaftlich relevanter Dokumente im World-Wide-Web. Es wurde eine datenbankbasierte Anwendung mit WWW-Interface erstellt, die dem Besucher sowohl das Browsen, als auch die gezielte Suche in den intellektuell kategorisierten Beständen erlaubt. Besonderes Augenmerk wurde auf Werkzeuge zur Aktualisierung und Wartung der Datenbestände gelegt, da die referenzierten Dokumente im Intemet sich ständig ändern können. Weiterhin wurden Workflow-Konzepte eingearbeitet, um die verteilte Bearbeitung und Verwaltung der Datenbestände durch verschiedene Mitarbeiter und externe Zuarbeiter zu ermöglichen
- Source
- Globalisierung und Wissensorganisation: Neue Aspekte für Wissen, Wissenschaft und Informationssysteme: Proceedings der 6. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation Hamburg, 23.-25.9.1999. Hrsg.: H.P. Ohly, G. Rahmstorf u. A. Sigel
-
Friedrich, H.: Cross Database Search - Datenbankübergreifende Suche (2001)
0.01
0.011571211 = product of:
0.046284843 = sum of:
0.046284843 = weight(_text_:und in 165) [ClassicSimilarity], result of:
0.046284843 = score(doc=165,freq=10.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.38329202 = fieldWeight in 165, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0546875 = fieldNorm(doc=165)
0.25 = coord(1/4)
- Abstract
- Die Zentralstelle für Agrardokumentation und -information (ZADI) entwickelt derzeit eine Multi-Host-Suchmaschine (MHS) zur simultanen Suche in mehreren, an unterschiedlichen Orten befindlichen Datenbanken. Erste Anwendungen der Technologie befinden sich in einem Prototypen des Bundesinformationssystems Genetische Ressourcen (BIG) sowie in einer Multi-Host-Literatursuchmaschine der Food and Agriculture Organization (FAO) der Vereinten Nationen im Test. Der Beitrag stellt Notwendigkeit und Anforderungen dar und erörtert zur Problemlösung eingesetzte Methoden. Die implementierte Funktionalität wird anhand des für die FAO entwickelten Prototypen zur Literatursuche erläutert
- Source
- Spezialbibliotheken heute: Wettbewerb und Kooperation. 28. Arbeits- und Fortbildungstagung der ASpB/Sektion 5 im DBV in Zusammenarbeit mit der GBDL, Hannover, 6.-9 März 2001. Bearb.: Margit Brauer
-
cw: Welt des Wissens : Wissen online (2002)
0.01
0.011571211 = product of:
0.046284843 = sum of:
0.046284843 = weight(_text_:und in 444) [ClassicSimilarity], result of:
0.046284843 = score(doc=444,freq=10.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.38329202 = fieldWeight in 444, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0546875 = fieldNorm(doc=444)
0.25 = coord(1/4)
- Abstract
- Bleibt wieder einmal eine Frage offen? Kann man sich die Zusammenhänge wieder nicht erklären? Oder will man einfach über ein bestimmtes Thema endlich mehr wissen? Kein Problem, denkt sich der vernetzte Mensch von heute. Ein Klick genügt und man kann im Informationsdschungel des Internets fast sämtliche Daten und Fakten abrufen. Doch Klick ist nicht gleich Klick und Information nicht gleich Information. Die spreu trennt sich spätestens bei Fragen der Kosten, der Dichte und der Qualität der Beiträge vom Weizen. Wir haben für Sie bereits ein wenig vorgesiebt und stellten Ihnen die besten Wissensportale vor
-
"Zeitgeschichte-online" - das Fachportal für die zeithistorische Forschung gestartet (2004)
0.01
0.011571211 = product of:
0.046284843 = sum of:
0.046284843 = weight(_text_:und in 2160) [ClassicSimilarity], result of:
0.046284843 = score(doc=2160,freq=10.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.38329202 = fieldWeight in 2160, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0546875 = fieldNorm(doc=2160)
0.25 = coord(1/4)
- Abstract
- Am 26. Januar startet "Zeitgeschichte-online" - ein neues Internetportal mit einem umfangreichen Informationsangebot für die zeithistorische Forschung. Das Portal erschließt zeithistorische Internet-Ressourcen, enthält Tagungsberichte, Rezensionen sowie redaktionell betreute Themenangebote und ermöglicht eine komfortable Katalog- und Datenbanksuche. Teil des Portals ist außerdem die neue Fachzeitschrift "Zeithistorische Forschungen/Studies in Contemporary History". Sie erscheint in zwei Ausgaben: einer Online-Version und einer parallelen Druckausgabe (beim Verlag Vandenhoeck & Ruprecht, http://www.v-r.de). Das Fachportal "Zeitgeschichte-online" ist ein gemeinsames Projekt des Zentrums für Zeithistorische Forschung Potsdam und der Staatsbibliothek zu Berlin - Preußischer Kulturbesitz. Es ist zugleich als ein Modul des geschichtswissenschaftlichen Portals "Clio-online" konzipiert (http://www.clioonline.de) und kooperiert eng mit dem Informationsdienst "H-Soz-u-Kult" (http://hsozkult.geschichte.hu-berlin.de). Das Projekt wird von der Deutschen Forschungsgemeinschaft gefördert. Ausführlichere Projektinformationen gibt es unter http://www.zeitgeschichte-online.de.
-
Schindler, C.; Rittberger, M.: Herausforderungen für die Gestaltung von wissenschaftlichen Informationsinfrastrukturen durch Web 2.0 : Am Beispiel eines heterogenen Anforderungs-Engineerings für einen Inhaltsverzeichnisdienst der Bildungsforschung (2009)
0.01
0.011571211 = product of:
0.046284843 = sum of:
0.046284843 = weight(_text_:und in 2912) [ClassicSimilarity], result of:
0.046284843 = score(doc=2912,freq=10.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.38329202 = fieldWeight in 2912, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0546875 = fieldNorm(doc=2912)
0.25 = coord(1/4)
- Abstract
- Der Artikel diskutiert die veränderte Situation von Inhaltsverzeichnisdiensten durch Web 2.0-Entwicklungen und erstellt einen Gestaltungsrahmen für einen gebündelten Inhaltsverzeichnisdienst der Bildungsforschung auf RSS-Basis. Um verstärkt die disziplinspezifischen Bedarfe in die Gestaltung einzubeziehen, wird das heterogene Anforderungs-Engineering, das sich von einer rein technologischen Betrachtungsweise distanziert, in seinen Grundzügen dargestellt und exemplarisch durchgeführt. Dabei werden unterschiedliche lokale Praxen - von der institutionellen Erschließung bis zur Nutzung der Dienste - mit ihren heterogenen Aspekten einbezogen und in Form existierender Lösungsräume, Problemräume und zukünftiger Lösungsräume analysiert.
- Source
- Information - Wissenschaft und Praxis. 60(2009) H.4, S.215-224
-
Wegner, B.: Mathematik im Blickpunkt : Wissensmanagement in der Mathematik - 140 Jahre Information zur Literatur weltweit (2008)
0.01
0.011571211 = product of:
0.046284843 = sum of:
0.046284843 = weight(_text_:und in 4081) [ClassicSimilarity], result of:
0.046284843 = score(doc=4081,freq=10.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.38329202 = fieldWeight in 4081, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0546875 = fieldNorm(doc=4081)
0.25 = coord(1/4)
- Content
- Inhalt: Mathematik im Web: die Informationsdienste von FIZ Karlsruhe/Zentralblatt MATH - eine Bestandsaufnahme - O. Ninnemann Die Anfänge des Wissensmanagements in der Mathematik: das "Jahrbuch über die Fortschritte der Mathematik" - S. Göbel Mathematik-Information im Wechsel der Zeiten und politischen Systeme - B. Wegner MathEduc - Informationen zum Lernen und Lehren von Mathematik - B. Ruffer-Henn, B. Wegner Die WDML - Ideen und Wirklichkeit - B. Wegner Über Suchmaschinen und Datenbanken - W. Sperber Der Mathematiker Wolfgang Doeblin (1915-1940) - Recherchen im Internet - S. Göbel Kryptographie und Turing-Maschinen - E Rossi Wo spielt die Musik im Zentralblatt? Recherchen am Rande der Mathematik - K.-D. Kiermeier Vom Vierfarbenproblem zum Vierfarbensatz - eine Analyse mit Hilfe des Zentralblatt MATH - H. Kröger
-
Hesse, W.: ¬Die Glaubwürdigkeit der Wikipedia : Und was Bibliotheken dazu beitragen können (2018)
0.01
0.011571211 = product of:
0.046284843 = sum of:
0.046284843 = weight(_text_:und in 4586) [ClassicSimilarity], result of:
0.046284843 = score(doc=4586,freq=10.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.38329202 = fieldWeight in 4586, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0546875 = fieldNorm(doc=4586)
0.25 = coord(1/4)
- Abstract
- Die Wikipedia ist sowohl hinsichtlich ihres Umfangs als auch hinsichtlich ihrer Nutzung die heute bedeutendste Enzyklopädie. Auch innerhalb der Wissenschaft spielt sie, vor allem als leicht zugänglicher Rechercheeinstieg, eine wichtige Rolle. In diesem Zusammenhang steht die Glaubwürdigkeit der Wikipedia immer wieder im Fokus, da ihre Inhalte nicht durch Fachexperten kontrolliert, sondern von jedermann ediert werden können. Jedoch ist innerhalb der Wikipediacommunity ein starkes Bemühen um Glaubwürdigkeit festzustellen. Anhand der Analyse ausgewählter Redaktionsprinzipien der Wikipedia und der Auswertung einer Fallstudie zur Erzeugung von Glaubwürdigkeit in der deutschsprachigen Wikipedia lassen sich Implikationen für Information Professionals ableiten. Besonders Bibliothekarinnen und Bibliothekare können durch ihren Zugang zu Literatur einerseits und mit ihren Recherchekenntnissen andererseits dabei helfen, die Glaubwürdigkeit der Wikipedia zu steigern.
- Source
- Information - Wissenschaft und Praxis. 69(2018) H.4, S.171-181
-
Meyers Großes Konversations-Lexikon : Elektronische Ressource (2005)
0.01
0.011541653 = product of:
0.046166614 = sum of:
0.046166614 = weight(_text_:und in 45) [ClassicSimilarity], result of:
0.046166614 = score(doc=45,freq=78.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.38231295 = fieldWeight in 45, product of:
8.83176 = tf(freq=78.0), with freq of:
78.0 = termFreq=78.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.01953125 = fieldNorm(doc=45)
0.25 = coord(1/4)
- Footnote
- Rez. in: ZfBB 53(2006) H.3/4, S.209-210 (J. Derksen): "Da findet sich zuerst der Hinweis eines folgsamen Sohnes: »Das gehörte zu den Ratschlägen meines Vaters: >Wenn du was nicht weißt, schlag im Meyer nach, da findest du alles, zumindest den Hinweis auf das Buch, in dem alles steht.< Auch heute noch steht Meyers Konversationslexikon, in der Ausgabe von 1906-der, die in der väterlichen Bibliothek war - in meinem Arbeitszimmer, und ich muß sagen, es vergeht fast kein Tag, an dem ich das wilhelminische Kompendium bürgerlicher Bildung nicht benutze.« (Nicolaus Sombart: Jugend in Berlin: 1933-1943; ein Bericht. München [u.a.] 1984, hier S. 255 - Passage im Original in Klammern) Der Autor, Nicolaus Sombart (*1923), Sohn des seinerzeit bekannten Wirtschaftswissenschaftlers Werner Sombart (1863-1941), der von 1917 bis 1931 an der Berliner Universität lehrte, referiert in seinem Bericht wichtige Hinweise auf technischen Gebrauch und kulturelle Alltagspraxis von Konversationslexika in einem tradierten, akademisch geprägtem Umfeld seiner Zeit. In Bezug auf die Zeitumstände des hier in seiner digitalen Aufbereitung anzuzeigenden Konversationslexikons, dessen erster Band 1902 erschien -19o5 mussten die ersten Bände bereits nachgedruckt werden und 1909 war man zu einem abschließenden 20. Band vorgedrungen und diesem sollten noch bis 1916 weitere vier Bände als Jahressupplemente folgen; doch erst mit den drei folgenden Nachtragsbänden («Kriegsnachträgen«) wurde das Werk endgültig 1920 abgeschlossen - hat Nicolaus Sombart selbst an anderer Stelle festgestellt, dass dies eine »verhältnismäßig kurze Periode zwischen 1890 und 1910« war und bezeichnete sie als »Höhepunkt der wilhelminischen >Ära<, in der auch alle Innovationen der Kunst ihren Ursprung haben«. (Nicolaus Sombart: Die deutschen Männer und ihre Feinde: Carl Schmitt - ein deutsches Schicksal zwischen Männerbund und Matriarchatsmythos. München [u.a.] 1991, hier S. 105) Ein solches, auch im übertragenen Sinn Werte stabilisierendes Elternhaus -dem Status eines deutschen Professors jener Zeit entsprechend als vornehme Grunewald-Villa mit gepflegtem Vorgarten und sauber gerechtem Kiesweg - inspiriert bibliothekarisch weiterzuforschen. Wie sah die Gelehrten-Bibliothek dieses bedeutenden Vaters konkret aus? Was können wir heute in Zeiten desktopgenerierter Cyberwelten, minimalisierter Soft- und Hardware-Applikationen, Gediegenheit signalisierender CD-ROMBoxen odervirtueller Ordner-Symbole im heimeligen Retro-Look über die damalige Praxis von Raumvergabe, Buchaufstellung und Lesegewohnheiten besonders unter dem genannten Aspekt des Gelehrtendiskurses sagen? Einblicke in die akademische Privatsphäre waren damals selten, sie sind es übrigens auch heute noch. Doch dann der zweite Fund: eine Fotografie von Felix H. Man (»ohne Titel« - Abb. 1), an entlegener Stelle erstmals 1997 publiziert, gibt genau hierzu Auskunft.
Vor seiner aus unterschiedlichen Regalelementen zusammengestellten, jedoch einheitlich gefassten und mindestens sechs Meter langen Bücherwand, die auch zur Aufnahme von Bildern und Kunstgegenständen dient, sitzt der Herr des Hauses, Werner Sombart, lesend in einem in der Formvorgabe antike Vorbilder zitierenden Stuhl. Ein Schreibtisch ist nicht erkennbar, er lässt sich jedoch rechts, in Richtung des Fensters vermuten. Im Vordergrund rechts sind zwei einladende Polstersessel einer Sitzgruppe erkennbar. Das Spannendste erfährt man vorne links im Bild: Ein Armstuhl steht vor einem schmalen, mit Schale und Decke dekorierten Tischchen (in der einfachen Bauart eines Aktenbocks) und dahinter sind in mindestens zwei der unteren Regalreihen deutlich die eingangs erwähnten, griff- und auskunftsbereiten Bände von Meyers Konversationslexikon erkennbar. Eine einladende und doch typische Präsentation des Lexikons als gesonderte Buchdisposition mit separatem Leseensemble (Stuhl und Tisch) innerhalb dieses Studiolos. Sie soll offenbar bei einer allzu beschwerlichen Reise durch große bibliothekarische Wissenswelten zu einer intellektuellen Rast einladen und dient zudem als Besucherplatz, eben der gelehrten Konversation. Als Orte eigentlicher Entspannung und privater Erholung werden die Polstermöbel ausgewiesen.
Mit rund 155.000 Stichwörtern auf ca. 23.000 Seiten war Meyers Großes Konversations-Lexikon in seiner Zeit ein herausragendes Mammutunterfangen für die Lexikonredaktion des Leipziger Bibliographischen Instituts. Bereits durch unterschiedliche buchausstatterische Gestaltungskonzepte hinsichtlich Ornament und Dekor versuchte man auf die seinerzeit individuellen Wünsche und Erwartungen einer potenziellen Leserschaft einzugehen. Und wie steht es heute um die >Lesbarkeit< eines solchen literarischen Mikrokosmos? Neben dem bloßen lexikalischen Wissen sind es die beschriebenen Relikte, welche in die mediale Gegenwart transportieren, eine vergangene Wissenskultur erfahrbar machen. Alles Übrige ist dann technische Routine: »Die Digitalisierung einer derart umfangreichen Enzyklopädie in Frakturschrift stellt die Texterfassung vor einige Probleme, die im Falle der vorliegenden DVD-Ausgabe mit Hilfe einer eigens entwickelten Software zur automatischen Texterkennung von Frakturtypen gelöst wurden. Das Programm musste zunächst mit einem mehrere tausend Zeichen und über drei Millionen Wörter und Silben umfassenden typografischen und lexikalischen Wissen gefüttert werden, bis es in der Lage war, die in unterschiedlicher Qualität gedruckten Buchstaben und Wörter zu erkennen und in einen frei durchsuchbaren Volltext zu verwandeln. [...] In mehreren Korrekturschritten markierte die Software nicht bekannte Wörter als Problemfälle, die nachbearbeitet werden mussten. Im Vergleich mit der Faksimile-Ansicht wurden die markierten Stellen von Hand überprüft. Dieser manuelle Korrekturschritt unterlag einer strengen Qualitätskontrolle, die ein Abspeichern des Korrekturvorgangs vor seiner Vollendung verhindert [hatte].« (Einführung: Zur digitalen Ausgabe) Bedauerlicherweise konnte dieses durchdachte Verfahren nicht verhindern, dass kleine Fehler bei der automatischen Texterkennung nicht korrigiert wurden - und das überwiegend bei den Wörtern, die durch Sperrung hervorgehoben werden sollen, so z. B. »Meliorationsbuumeistern« (sic! Vgl. Art.: Kulturtechnik; Bd. ii, S.793 dort im Faksimile der Druckausgabe richtig als »Meliorationsbaumeistern«). Dennoch überzeugt das Ergebnis auf ganzer Linie: Die vorliegende DVD liefert den digitalen Volltext mit allen Abbildungen und Karten, mit den gewohnt guten Suchfunktionen der »Digitalen Bibliothek« von Directmedia sowie mit einem vollständigen Faksimile der in Frage kommenden Bände der Printausgabe. Die interessanten Supplementbände - sie enthalten auch viele Überblicksdarstellungen von namhaften und namentlich gekennzeichneten Autoren - und die ob ihrer naiven Technikgläubigkeit unverwechselbaren Kriegsnachträge konnten nicht mit aufgenommen werden: »Die vollständige Digitalisierung und Einarbeitung dieser Supplementartikel, die nochmals ein Volumen von über 5o.000 Stichwörtern umfassen, muss einer späteren Produktion und - im Hinblick auf die Faksimiles - einer neuen DVD-Generation mit mehr Speicherplatz vorbehalten bleiben.« (Einführung: Zur digitalen Ausgabe)
Entgegen der vom Verlag mit der vorliegenden elektronischen Ausgabe propagierten Wissenskompensation als Subsumierung des »gesamten Wissens des 19. Jahrhunderts«, geht es - auch in der digitalen Aufbereitung - in erster Linie um eine gewaltige Kartierungsmaßnahme von Wissen als einer großen enzyklopädischen Momentaufnahme nach 1900: Alle als relevant eingestuften Episteme wurden erfasst, Lemmata laufend ergänzt und fortgeschrieben. Flexibler Umfang durch Supplemente und innovative mediale Aufbereitung durch Bilder, Karten u. ä. variieren und sind dabei meist von ungezwungener Offenheit. So lässt sich sagen, dass wenn es das Internet um 1900 bereits gegeben hätte, es in Form und Anlage in diesem Konversationslexikon gespiegelt abgebildet worden wäre: Meyers Großes KonversationsLexikon in seiner 6. Auflage ist als eine digital aufbereitete Ressource ein wahrer Solitär. Hier liegt ein wirkliches >Museum des Wissens< von tadelloser Organisation vor."
- Issue
- CD-ROM-Ausg. Faks. und Volltext [der] 6. Aufl. 1905 - 1909, Studienausg.
-
Egel, J.R.: ¬Die Erde ist eine Scheibe : Was die vier am häufigsten verkauften Enzyklopädien auf CD-ROM bieten (2000)
0.01
0.011523885 = product of:
0.04609554 = sum of:
0.04609554 = weight(_text_:und in 5502) [ClassicSimilarity], result of:
0.04609554 = score(doc=5502,freq=54.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.38172436 = fieldWeight in 5502, product of:
7.3484693 = tf(freq=54.0), with freq of:
54.0 = termFreq=54.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0234375 = fieldNorm(doc=5502)
0.25 = coord(1/4)
- Abstract
- Regelmäßig zum Weihnachtsgeschäft füllen Software-Hersteller Datenbanken mit Fakten, Klängen und Bildern - und brennen sie zu mehr oder weniger runderneuerten multimedialen Enzyklopädien. Die Silberscheiben des Jahrgangs 2001 sind im Handel. Wieder werden Rekordernten versprochen, mehr Artikel, Fotos, Videos, Audios und Animationen angepriesen. Eine CD-ROM alleine fasst nicht mehr alles - drei bis fünf müssen es sein, wahlweise komprimiert auf einer DVD. Alter Wein in neuen Schläuchen? Was bringen die neuen Versionen der Marktführer? Wer die absatzstärksten Anbieter miteinander vergleicht, bemerkt auch diesmal: Qualitativ hochwertige Produkte kommen aus lexikografisch erfahrenen Häusern (Bibliographisches Institut & F.A. Brockhaus AG) oder von Anbietern, die Inhalte weltweit gekauft haben (Microsoft Corporation) und multimedial umzusetzen wissen. Den größten Sprung macht "Der Brockhaus multimedial 2001" mit 60 Prozent mehr Text und einem neuen Recherchesystem. Jedem der 98 000 Artikel ist ein Netz von Bezügen zugeordnet, die es ermöglichen, per Mausklick verwandte Themen zu finden und sich so einen eigenen Weg durch den Faktendschungel zu bahnen. Der computergenerierte Kontext stellt etwa die Abfrage "Gerhard Schröder" in einen Suchzusammenhang mit "SPD, Lafontaine, Teufel, Jungsozialisten, Wieczorek-Zeul, Niedersachsen und Kurt Beck". Warum gerade dorthin, bleibt offen. An anderen Stellen überzeugt das Wissensnetz deutlicher. So führt der Begriff "Terzett" zu "Vokalensemble, Deklamation/Musik, Air/Musik, tacet, Romanze/Musik, Glee, Chorkantate und Duett". Außerdem bietet der Brockhaus (Basisversion 99 Mark, empfehlenswerte Version Premium 179 Mark) den Vorteil, dass jedes Wort in Texten automatisch Sprungstelle zu dem dazugehörigen Artikel ist, also nicht nur einzelne Links ausgewiesen werden, wie in anderen Werken üblich.
Die Oberfläche ist beim Brockhaus aber überladen und weniger übersichtlich als bei Encarta. Der langjährige Branchenprimus von Microsoft kommt gleich in drei Versionen auf den Markt und besticht mit einer schnellen, intuitiven Benutzerführung und gut gegliederten, teils sehr umfangreichen Inhalten. Das beste Preis-Leistungs-Verhältnis bietet die Plus-Version für 179 Mark, die neben 10 000 neuen Artikeln tausend nützliche Quellentexte enthält. Die Qualität von Encarta resultiert aus einer internationalen Anstrengung: 650 Leute arbeiten weltweit an jeder neuen Version, eine 20-köpfige Redaktion in München betreut die deutsche Ausgabe. Die Artikel sind mit neuer Microsoft-Technologie aufbereitet; sie ermöglicht eine bessere Datenkomprimierung und schnellere Volltextsuche. Beide Werke nennen einen Redaktionsschluss im Sommer, haben aber nicht alle Artikel wirklich aktualisiert. Trotzdem sind Encarta Plus und Brockhaus Premium gleichwertig als aktuelle Nachschlagewerke zu empfehlen; es sind Qualitätsprodukte, auf die man sich verlassen kann. Beide Häuser liefern monatlich Nachträge via Internet. Eine elektronische Enzyklopädie bietet gegenüber Büchern bestechende Vorteile: man surft quer durch geht auf Themenreisen und kann sich dank multimedialer Elemente schnell orientieren. Funktionen und Medienelemente wie Interaktivitäten, Weblinks, Animationen, Videos und Panoramabilder sind in der Druckversion nicht realisierbar. Mit der multimedialen und interaktiven Aufbereitung des Inhalts eignen sich CD-ROM-Enzyklopädien zum gezielten Nachschlagen - und zum spielerischen Erforschen von Wissensgebieten. Verkaufshit vergangener Jahre und Umsatzrenner in diesem Herbst ist ausgerechnet ein Lexikon, das den Namen kaum verdient: Das große Lexikon 2001" von Data Becker (69,95 Mark).
Es hatte sich wegen grober FehIer und Unzulänglichkeiten schon in den Vorjahren den Spott verschiedener Rezenseten zugezogen und kann erneut den Konkurrenten nicht das Wasser reichen. Der Fundus an Wissen ist oft dürftig Dass manche Computerzeitschriften der Vorgängerversion ein Lob ausstellten, mag nicht wenige Kunden zum Kauf verführt haben. Die Enttäuschung dürfte um so größer sein, wenn sich die Scheiben drehen: magere Inhalte, lapidare Texte im Duktus unredigierter Rohlinge, Info-Bruchstücke, die vielfach nichts erklären und Wissenslücken, die Bände sprechen. Data Becker etwa kennt nur einen "Schröder". Den, den alle kennen. Unter den Tisch fallen: zwei Politiker gleichen Namens, ein Schriftsteller, ein Künstler, eine Schauspielerin und eine Sopran-Sängerin, von denen Encarta und Brockhaus berichten. "Das Wissen der Welt auf vier randvollen CDs" verspricht das Lexikon. Nein, so klein ist die Welt nun wirklich nicht. Genial finden die Data-Becker-Enzyklopädisten, was Lektoren eher grotesk nennen dürften: Jeder kann sein Lexikon individuell erweitern - und sein "Wissen" für alle Benutzer ins Internet stellen - ungeprüft. Das Essentielle einer Enzyklopädie, gesicherte Information, wird damit über Bord geworfen. Data Becker sieht sein Werk unbescheiden "als Prototyp des Wissensspeichers von morgen". Das mögen kritische Kunden und bessere Konkurrenten verhindern. "Lexitainment", heißt das Zauberwort bei Data-Becker. Man ahnt, dass das mit Enzyklopädien wenig zu tun hat. Deren Wesen war schon im Altertum bei den Griechen und Römern bekannt, obwohl der Name erst im 16. Jahrhundert in Gebrauch kam. Man verstand unter enkyklios paideia "die Gesamtbildung, die sich ein freigeborner Jüngling angeeignet haben musste, ehe er zur Erlernung eines bestimmten Faches oder in das werktätige Leben selbst überging". (Meyers Großes Konversations-Lexikon, 1907). Wohlan denn, freigeborene Jünglinge, lasset die richtigen - Silberscheiben sausen.
-
Schreiber, K.: Neues (und nicht mehr ganz Neues) vin IFB (2002)
0.01
0.011452528 = product of:
0.04581011 = sum of:
0.04581011 = weight(_text_:und in 1212) [ClassicSimilarity], result of:
0.04581011 = score(doc=1212,freq=30.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.3793607 = fieldWeight in 1212, product of:
5.477226 = tf(freq=30.0), with freq of:
30.0 = termFreq=30.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.03125 = fieldNorm(doc=1212)
0.25 = coord(1/4)
- Abstract
- Den Lesern dieser Zeitschrift ist das Akronym IFB sicherlich noch vertraut, berichtete doch der Herausgeber von Zeit zu Zeit über die Schwerpunkte neuer Hefte des von Jg. 1 (1993) - 8 (2000) unter dem Titel Informationsmittel für Bibliotheken (IFB) bei der Publikationsabteilung des (Ehemaligen) Deutschen Bibliotheksinstituts in gedruckter Form erschienen Rezensionsorgans. Als dieses mit dem Ende des (E)DBI heimatlos wurde, lag es nahe, es als reine Internet-Publikation beim Bibliotheksservice-Zentrum Baden Württemberg (BSZ) fortzuführen. Die Gelegenheit dieses Medienwechsels wurde dazu genutzt, den Titel der Zeitschrift allgemeiner zu fassen, um den Eindruck zu vermeiden, IFB wende sich ausschließlich an eine begrenzte Zielgruppe. Dabei wurde selbstverständlich das auf dem bisherigen Titel beruhende Akronym IFB beibehalten, da es sich als Markenzeichen eingebürgert hat. Ab Jg. 9 (2001) hat die Zeitschrift den folgenden Titel: Informationsmittel (IFB)': digitales Rezensionsorgan für Bibliothek und Wissenschaft - http://www.bsz-bw.de/ifb Der Sprung ins Internet glich allerdings keineswegs dem ins kalte Wasser, da vom Bibliotheksservice-Zentrum Baden-Württemberg alle gedruckten Jahrgänge und ein Teil der Beihefte bereits früher parallel zur Druckausgabe im Internet angeboten worden waren, und das BSZ in IFB eine willkommene Möglichkeit entdeckte, seine primär bibliographischen Dienste durch Volltextangebote anzureichern, indem es Internet-Benutzern des Verbundkatalogs erlaubt, von den dort verzeichneten Titeln ausgehend, eine Rezension in IFB und in anderen Rezensionsdiensten aufzurufen. Diese ursprünglich von Thomas Dierig am Bibliotheksservice-Zentrum Baden-Württemberg konzipierte Dienstleistung hat sich so gut bewährt, dass sie inzwischen als SWB Plus http://www.bsz-bw.de/rekla/ eine eigenständige Dienstleistung des BSZ bildet. Der Herausgeber von IFB ist deshalb mit der Leiterin des BSZ, Frau Dr. Mallmann-Biehler, übereingekommen, IFB als Teil dieses Internet-Angebots weiterzuführen. Dabei sind der Herausgeber und die Rezensenten weiterhin für die Inhalte, das BSZ für das digitale Angebot zuständig. Seit der Umstellung sind im Internet die Jg. 9 (2001),1 - 2 mit zusammen 509 und Jg. 10 (2002),1 mit 195 Rezensionen erschienen. Heft 2 dieses Jahrgangs soll noch vor Jahresende folgen. Die auf den Rezensionen in IFB beruhenden englischsprachigen Abstracts, die von amerikanischen Kollegen zum Nutzen derer, die des Deutschen nicht mächtig sind, sowohl in einem gedruckten Jahresband u.d.T. Reference reviews Europe annual als auch im Internet als Reference reviews Europe Online unter http://rre. casalini. it/ angeboten werden, ist ein vorzügliches Beispiel internationaler Zusammenarbeit (ohne Aufsichtsgremien und ohne Subventionen) zwischen Bibliothekaren und Buchhändlern in Deutschland, den USA und Italien und erfreut sich weiterhin großen Zuspruchs. Der Herausgeber von IFB benutzt die Gelegenheit dieser Mitteilung (die hoffentlich auch jene Bibliothekare, die immer noch unverdrossen beim EDBI die Fortsetzung der gedruckten Zeitschrift reklamieren, auf die Vergeblichkeit dieser Reklamationen aufmerksam machen wird), dem Noch-Redakteur des BIBLIOTHEKSDIENST und früheren Leiter der Publikationsabteilung des DBI (und seinen ehemaligen Mitarbeitern) sehr herzlich für die langjährige gute und erfolgreiche Zusammenarbeit zu danken.
- Footnote
- Vgl.: http://www.bsz-bw.de/rekla/ und http://rre.casalini.it/
-
Jackenkroll, M.: Cross Media Publishing mittels XML : Die Enzyklopädie als Beispiel (2003)
0.01
0.011308465 = product of:
0.04523386 = sum of:
0.04523386 = weight(_text_:und in 2311) [ClassicSimilarity], result of:
0.04523386 = score(doc=2311,freq=52.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.37458867 = fieldWeight in 2311, product of:
7.2111025 = tf(freq=52.0), with freq of:
52.0 = termFreq=52.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0234375 = fieldNorm(doc=2311)
0.25 = coord(1/4)
- Content
- "Die Extensible Markup Language (XML) ist eine Metaauszeichnungssprache, die 1998 vom World Wide Web Consortium (W3C), einer Organisation, die sich mit der Erstellung von Web Standards und neuen Technologien für das Internet beschäftigt, als neue Empfehlung für Web-Anwendungen festgesetzt wurde. Seitdem ist viel über XML und die sich durch diese Sprache ergebenden neuen Möglichkeiten des Datenaustausches über das Internet publiziert worden. In XML-Dokumenten werden die hierarchische Struktur und der Inhalt der Dokumente festgelegt, aber keinerlei Angaben zum Layout gemacht. Dieses wird in so genannten Stylesheets definiert. Mit Hilfe mehrerer Stylesheets, die sich alle auf ein XML-Dokument beziehen, ist es möglich, aus einem Datenbestand verschiedene Ausgabeprodukte, z.B. eine Online-Version und eine druckbare Ausgabe eines Dokuments, zu erzeugen. Diese Möglichkeit der Herstellung verschiedener medialer Varianten eines Produkts ist auch für die Herstellung von Informationsmitteln interessant. Im Bereich der Produktion von Informationsmitteln, vor allem von Lexika und Enzyklopädien, ist in den letzten Jahren zu beobachten gewesen, dass neben der traditionellen, gedruckten Ausgabe des Nachschlagewerks zunehmend auch elektronische Varianten, die durch multimediale Elemente angereichert sind, angeboten werden. Diese elektronischen Nachschlagewerke werden sowohl offline, d.h. auf CD-ROM bzw. DVD, als auch online im Internet veröffentlicht. Im Gegensatz zu den gedruckten Versionen werden die neuen Produkte fast jährlich aktualisiert. Diese neue Situation erforderte Veränderungen im Herstellungsprozess. Ein Verfahren, das die Erzeugung verschiedener medialer Varianten eines Produkts möglichst einfach und problemlos ermöglicht, wurde benötigt. XML und ihr Vorgänger, die Standard Generalized Markup Language (SGML), schienen die perfekte Lösung für dieses Problem zu sein. Die Erwartungen an den Nutzen, den SGML und XML bringen könnten, waren hoch: "Allein dieses Spitzklammerformat, eingespeist in einen Datenpool, soll auf Knopfdruck die Generierung der verschiedensten Medienprodukte ermöglichen". Ziel dieser Arbeit ist es, darzustellen, wie der neue Standard XML bei der Publikation von Informationsmitteln eingesetzt werden kann, um aus einem einmal erfassten Datenbestand mit möglichst geringem Aufwand mehrere Ausgabeprodukte zu generieren. Es wird darauf eingegangen, welche Ausgabeformen sich in diesem Bereich für XML-Dokumente anbieten und mit welchen Verfahren und Hilfsmitteln die jeweiligen Ausgabeformate erstellt werden können. In diesem Zusammenhang sollen auch die Aspekte behandelt werden, die sich bei der Umwandlung von XML-Dokumenten in andere For mate unter Umständen als problematisch erweisen könnten.
Ausgehend von dieser Sachlage ergibt sich die Struktur der vorliegenden Arbeit: Einleitend werden die Metaauszeichnungssprache XML sowie einige ausgewählte Spezifikationen, die im Zusammenhang mit XML entwickelt wurden und eine sinnvolle Anwendung dieser Sprache erst ermöglichen, vorgestellt (Kapitel 2). Dieses Kapitel soll einen knappen, theoretischen Überblick darüber geben, was XML und zugehörige Ergänzungen leisten können, welche Ziele sie jeweils verfolgen und mit welchen Methoden sie versuchen, diese Ziele zu erreichen. Damit soll dieser erste Teil dazu beitragen, das Vorgehen bei der Entwicklung der späteren Beispiel-DTD und den zugehörigen Stylesheets nachvollziehbar zu machen. Daher wird hier nur auf solche Spezifikationen eingegangen, die im Zusammenhang mit der Produktion von Informationsmitteln auf XML-Basis unbedingt benötigt werden bzw. in diesem Bereich von Nutzen sind. Neben der sogenannten Dokumenttypdefinition (DTD), die die Struktur der XML-Dokumente bestimmt, sollen daher die Spezifikationen zu den Themen Linking, Transformation und Formatierung behandelt werden. Sicherlich spielen auch Techniken zur Gestaltung des Retrieval bei elektronischen Ausgaben von Informationsmitteln eine Rolle. Dieser Bereich soll hier jedoch ausgeklammert werden, um den Rahmen dieser Arbeit nicht zu sprengen. Der Schwerpunkt liegt vielmehr auf den Bereichen der Transformation und Formatierung, da diese zur Erstellung von Stylesheets und damit zur Generierung der späteren Ausgabeprodukte von zentraler Bedeutung sind.
Das folgende Kapitel (Kapitel 3) der Arbeit beschäftigt sich mit dem Themenkomplex der Informationsmittel. Hier soll herausgearbeitet werden, welche Typen von Informationsmitteln es gibt und inwieweit sich elektronische und gedruckte Informationsmittel unterscheiden. Schwerpunktmäßig soll in diesem Teil aber dargestellt werden, wie XML und die ihr verwandte, aber komplexere Metaauszeichnungssprache SGML in Verlagen zur Publikation von Informationsmitteln eingesetzt werden, welche Vorteile eine derartige Auszeichnung der Daten mit sich bringt und an welchen Stellen Probleme auftauchen. Nach dem theoretischen Teil soll im weiteren Verlauf der Arbeit (Kapitel 4) die zuvor erläuterte Vorgehensweise an einem Beispiel demonstriert und in die Praxis umgesetzt werden. Anhand eines geografischen Lexikonartikels soll gezeigt werden, wie sich eine DTD entwickeln lässt, welche die Charakteristika dieses Dokumenttyps widerspiegelt und wie verschiedene Stylesheets eingesetzt werden können, um aus dem einmal erfassten Inhalt verschiedene Ausgabeprodukte zu erzeugen. Das entworfene XML-Dokument soll in diesem Fall als HTML-Dokument, als PDF-Dokument und als leicht verändertes XML-Dokument ausgegeben werden."
- Imprint
- Köln : FH / Fakultät für Informations- und Kommunikationswissenschaften, Institut für Informationswissenschaft
- Series
- Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd.35
-
Schneider, M.: Ende einer Epoche : Jetzt geht also auch der Brockhaus online. Bedeutet das das Ende der Gutenberg-Galaxis? Oder ist es doch nur das Ende des Bücherschrankwissens? (2008)
0.01
0.01124182 = product of:
0.04496728 = sum of:
0.04496728 = weight(_text_:und in 1799) [ClassicSimilarity], result of:
0.04496728 = score(doc=1799,freq=74.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.37238106 = fieldWeight in 1799, product of:
8.602325 = tf(freq=74.0), with freq of:
74.0 = termFreq=74.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.01953125 = fieldNorm(doc=1799)
0.25 = coord(1/4)
- Content
- "Der Brockhaus-Verlag wird zum 15. 4. 2008 mit einem umfangreichen kostenlosen Lexikonportal online gehen." Diese Nachricht ist eine Zäsur. Mit der Umstellung von den dickleibigen Lexikonsreihen in Leder und Goldschnitt zum Netz schließt sich eine Epoche, die vor ziemlich genau 200 Jahren eröffnet wurde. Im Jahre 1808 erwarb Friedrich Arnold Brockhaus auf der Leipziger Messe das von den Gelehrten Dr. Renatus Löbel und Christian W. Franke 1796 ins Leben gerufene Unternehmen eines "Conversations=Lexikons mit vorzüglicher Rücksicht auf die gegenwärtigen Zeiten". Das Lexikon war unter der Autorschaft dieser beiden Männer im Laufe von 12 Jahren auf sechs kleine Oktavbände von 2763 Seiten angewachsen. Die um zwei Nachtragsbände ergänzte Ausgabe, die Brockhaus in den Jahren 1809-11 veranstaltete, kostete 12 Taler. Die Erfolgsgeschichte des Verlages F. A. Brockhaus im 19. und 20. Jahrhundert bildet ein zentrales Kapitel der deutschen Geschichte überhaupt. Denn F.A. Brockhaus zählte zu den prominenten Liberalen der Vormärzzeit und hatte von der preußischen Regierung sogar 1821 die Zensur seines gesamten Verlagsprogramms zu erdulden. In seinem 1805 zunächst in Amsterdam gegründeten Verlag, der später eine Reihe einflussreicher Zeitschriften und wichtiger Periodika herausbrachte, erschienen die Werke zahlreicher prominenter Autoren Europas. Am Konversations-Lexikon war Richard Wagners Onkel Adolf beteiligt, der 1813 den ersten Artikel über Heinrich von Kleist verfasste. Richard Wagners Schwester Luise heiratete 1828 Friedrich Brockhaus, einen der beiden Erben des Verlagsgründers, und dessen jüngerer Bruder Hermann nahm 1836 Luises Schwester Ottilie zur Frau. Der politische und buchhändlerische Erfolg des Konversationslexikons war ohne Beispiel, so dass binnen weniger Jahre der "Brockhaus" zum Synonym für enzyklopädische Werke aufstieg. Die achte Auflage von 1837-42 wurde bereits 27 000 mal verkauft. Die 14. Auflage von 1892-95, die 17 Bände zählte, wurde noch häufiger erworben. Gegenwärtig liefert der Verlag die 21. Auflage in 30 Bänden aus. Unternehmerisches Geschick und die konsequente Nutzung aller technischen Neuerungen sichern bis heute die Stellung des Verlags. Zugleich bildet sich an dem enormen Wachstum des Umfangs und der Auflagen der Enzyklopädie seit 1809 die Dynamik ab, die die Wissenschaften und die industrielle Revolution in Deutschland auslösten. Das Lexikon trat neben das Klavier als Kulturemblem des deutschen Bürgers.
Mit dem Bürger verschwinden auch seine Embleme. Wenn nun ab April das Wissen der Brockhaus-Enzyklopädie kostenfrei über werbungfinanzierte Internetseiten abgerufen werden kann, dann setzt sich über diesen Einschnitt hinweg eine Tradition fort, die der Untertitel des ersten Werks zum Programm machte, das dem Publikum "mit vorzüglicher Rücksicht auf die gegenwärtige Zeit" angeboten worden war. Bereits die ersten Bände der prächtigen aktuellen Printausgabe des Brockhaus sind um zwei DVD's ergänzt, die Dialekte, Tierstimmen, Beispiele aus Musik, Literatur, Theater und Film, Augenzeugenberichte, Reden und Dokumente der Zeitgeschichte bietet. Um den Zeitnachteil der Buchredaktion auszugleichen, erhielten die Subskribenten der neusten Ausgabe sogleich Zugang zur Online-Version der gesamten Enzyklopädie. Der Rückblick in die Historie des Brockhaus zwingt dem Büchermenschen unserer Tage die melancholische Einsicht ab, dass hier nicht nur ein verlegerischer Strategiewechsel erfolgt, sondern dass sich eine Epoche schließt. Das Buch als Leitmedium der Aufklärung, des politischen Fortschritts und als Institution eines Wissens, das aus den dicken, mit Leder eingeschlagenen Bänden sowohl Solidität als auch Zeitresistenz sprechen lässt, tritt in den Schatten der neuen Götter, die Schnelligkeit, Aktualität und Mulimedia heißen. Es ist nicht, wie mancher Kommentator vermutet, der Erfolg solcher Online-Unternehmen wie der Wikipedia-Enzyklopädie, die die Verleger zum Handeln zwingt. Die Notwendigkeit geht vielmehr von den beiden dynamischen Kräften aus, denen das Wissen heute unterliegt. Das Internet-Medium allein vermag dem Tempo, der ständigen Erweiterung, Verwandlung und vor allem dem überaus dauernden Obsoletwerden des Wissens eine Form zu geben. Was 1809 "vorzügliche Rücksicht auf die Zeit" hieß, das liest sich erst in unseren Tagen so überaus doppelsinnig. Die Rücksicht auf die Zeit lässt auch den Wissenschaftler oder die Redakteurin am Bildschirm den schnellsten Weg zur benötigten Information wählen. Den raschesten Weg zu den Daten, den die Erzeuger, Verwalter und Verbreiter des Wissens einschlagen, erschließt der Tastenhieb. Damit nicht genug: Die erste Quelle, die die Google-Anfrage anbietet, eröffnet für das maßlos hybrid werdende Wissen eigentlich auch nur die Plattform, um auf den berühmten Hypertextpfaden weitere Informationen abzurufen: Bilder, Tondokumente, Filme und zusätzliche historische oder wissenschaftliche Literatur. Auf eine schwer vorstellbare Weise nimmt das Wissen, das sich einst in der Tiefe der Lederbände zur Ruhe und zur dauerhaften Gültigkeit niedergelegt hatte, heute über die online-Abrufbarkeit die Qualität einer dauernden virtuellen Präsenz ein.
Die Bücher in unseren Bibliotheken warten nicht mehr auf den Leser und auf seine Muße. Sie warten auf einen Nutzer. Und steigt ein Buch wirklich zur Nützlichkeit auf, dann verwandeln es Scanner und Rechner rasch in digitalisierte Päckchen, die dann ihren Weg durch das Netz nehmen und auf einem fernen Bildschirm als flirrende Bytes aus dem Schlaf geholt werden. So herrscht das Buch längst nicht mehr als Souverän der Speicherung und Übertragung. Es muss sich diese königliche Funktion mit vielen anderen Medien und Nachrichtenwegen teilen, die seine Autorität unheilbar geschwächt haben. Das Buch ist eine Quelle, das Internetmedium ist der Fluss. Goethes Heraklit-Zitat: "Ach, und in demselben Fluss schwimmst Du nicht zum zweitenmal", besagt heute, dass im Datenfluss niemand mehr ein zweites Mal schwimmt. Die Hybridität und Mulimedialität, die unablässige Formänderung unseres Wissens, ist das technische und kulturelle Ereignis, auf das die Brockhaus-Manager antworten. Das neue Netz-Supermedium vermag einfach keine Unterscheidung mehr zu machen, ob es altes oder neues, wissenschaftliches oder bildliches, imaginäres oder gesichertes, deutsches oder chinesisches Wissens überträgt. Das elektronische Gehirn, das so unfehlbar in Bits rechnet, ist dumm, und dafür sind wir ihm dankbar.
Wer etwas wissen will, muss sich beeilen. Da immer mehr Leute forschen, gewinnen immer weniger von ihnen neue Erkenntnisse. Wissen ist nicht mehr Macht, sondern Unruhe. Das Heureka ist heute leichter verderblich als Fisch. Und daher kommt das Wissen jetzt nur noch selten aus Muße, aus Skepsis und skrupelhaft geprüfter Gewissheit, sondern aus der Unruhe, aus der Angst des Zuspät. Kaum ist die Vermutung erwiesen, kaum ist der Gedanke in Worte gefasst, schon jagt er über Zeitschriften, Websites und rasch zusammengestellte Skripts um den Globus. In Büchern und auf Regalen gelangen diese Hast und diese Nervosität zwar immer wieder zur Ruhe, aber eben darum kommt das Buch auch nicht mehr als Bote des Neuen, sondern zwischen seinen Deckeln versammelt sich alles, was langsam ins Überholte versinkt. Wenn auch die Bücher als Quelle überleben, so gehen sie einem ähnlichen Schicksal entgegen wie das Pariser Urmeter. Sie geben das Maß der Masse. Der Büchermensch in uns benötigt Trost. Und er wird ihm werden. Denn der Schritt aus dem Buchzeitalter der seriösen Wissensspeicherung heraus, den der Brockhaus-Verlag vollzieht, eröffnet die Chance, dass sich auch im neuen Medium nicht nur eine ständig aktuelle, reich verzweigte, auf Seiten in aller Welt verweisende Enzyklopädie anbietet, sondern dass auch wieder Sicherheit und Zuverlässigkeit in den Datenstrom einkehrt. Die Wikipedia-Anarchie hat endlich ausgedient, und die alten deutschen Büchertugenden der Verlässlichkeit und Genauigkeit sollten ihren Segen auch im Hypertextgewirr des Netzes ausbreiten. Lebt wohl ihr geliebten Schweinslederschinken! Adieu, du herrlicher Staub auf aller Erkenntnis!"
-
Sixtus, M.: ¬Das Gemeinschaftsnetz : Im Wiki-Web können alle Surfer Seiten umschreiben und hinzufügen - so entstehen ganze Enzyklopädien (2003)
0.01
0.011088862 = product of:
0.04435545 = sum of:
0.04435545 = weight(_text_:und in 1739) [ClassicSimilarity], result of:
0.04435545 = score(doc=1739,freq=50.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.3673144 = fieldWeight in 1739, product of:
7.071068 = tf(freq=50.0), with freq of:
50.0 = termFreq=50.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0234375 = fieldNorm(doc=1739)
0.25 = coord(1/4)
- Content
- "Wissen ist in. Allerorten wird es zum Rohstoffdes 21. Jahrhunderts ausgerufen. Doch je mehr man weiß, desto wichtiger ist es, die Informationen professionell zu verwalten, zu organisieren und zu pflegen. Manche Unternehmen bauen dazu teure, komplexe Knowledge-Management-Systeme ins Firmennetz ein. Doch das Wissensmanagement geht einfacher - mit Wikis. Ein Wiki ist eine Sammlung dynamischer Webseiten, die über Verweise verbunden sind und alle über eine Besonderheit verfügen: Ganz unten fordert ein Button alle Surfer dazu auf, die aktuelle Seite zu verändern. Prinzipiell kann jeder jede Seite ändern, ergänzen, verbessern oder sogar löschen. Rechte-Hierarchien existieren schlicht nicht. Jeder User ist gleichzeitig Leser, Lektor, Redakteur und Autor. Seiten anlegen und verlinken geschieht in einem Arbeitsgang. Einige rudimentäre Möglichkeiten zur Textformatierung und zur Einbindung von Grafiken sowie eine Volltextsuche runden den bescheidenen Funktionsumfang eines Standard-Wikis ab - und machen es verblüffenderweise doch zu einem mächtigen Werkzeug. Geübte User erzeugen mit dem virtuellen Zettelkasten in Windeseile Strukturen, die Hunderte oder Tausende von Einzelseiten umfassen. Die Einsatzmöglichkeiten sind vielfältig: Wikis fungieren als Wissensspeicher, als Basis für gemeinsame Projektdokumentationen, als Materialanforderungsformular oder als Brainstorminghilfe in Kreativberufen. Und selbst bei der Planung von Betriebsfeiern oder als Datenbank für Kochrezepte sollen sie schon zum Einsatz kommen. Wenn jeder Nutzer jedes einzelne Dokument ändern oder löschen kann, herrscht dann nicht das Chaos? Was passiert, wenn Fehler sich einschleichen oder wichtige Passagen verschwinden? Dagegen sind die Wikis gewappnet: Mit der HistoryFunktion und über Differenzberechnungen lässt sich überblicken, wer wann was geändert hat. Bei Bedarf lassen sich alle Anderungen rückgängig machen. Jeder historische Zustand ist so mit wenigen Mausklicks wiederhergestellt. Seit 1999 setzen Teams des Mobilfunkherstellers Motorola auf Wikis als Werkzeuge für das kollaborative Arbeiten, die Lufthansa verwendet sie zur Verwaltung technischer Dokumentationen, und die Konzerne SAP und Disney experimentieren mit den wenigen hundert Kilobyte kleinen Systemen in ihren Firmennetzen. Das erste Wiki hat der Software-Entwickler Ward Cunningham im Jahr 1995 unter der Adresse c2.com/cgi/wiki ins Netz gestellt - und dort steht es heute noch. Der Begriff "Wiki" ist das hawaiianische Wort für "schnell", und genau darum ging es Cunningham: flottes, unkompliziertes Arbeiten, ohne von einem unübersichtlichen Funktionsumfang gebremst zu werden. Mittlerweile existieren etliche Klons und Weiterentwicklungen des UrWikis, in mehreren Programmiersprachen und für fast alle Computerplattformen. Die meisten stehen gratis und unter der Open-Source-Lizenz im Netz.
Die Idee des editierbaren Internets geht zurück auf den Erfinder des World Wide Web, Tim Berners-Lee, der in seinem Buch Weaving the Web die Grundideen der Wiki-Philosophie aussprach: "Das Web editieren zu können ist genauso wichtig, wie durch es zu browsen." Aber haben Sites, an denen jeder zufällig Vorbeisurfende herumdoktern kann, überhaupt eine Überlebenschance? Wer schon einmal beobachtet hat, wie schnell offene Systeme wie Gästebücher oder Foren im Chaos versinken können, mag berechtigte Zweifel anmelden. Erstaunlicherweise funktionieren offene Wikis aber hervorragend. Beispielsweise Wikipedia: Das seit 2001 laufende Enzyklopädie-Projekt umfasst in der englischsprachigen Variante mehr als 144 000 Artikel. Das Mammutvorhaben, das Wissen der Welt in einem Wiki festzuhalten, wird nicht von einer Hand voll Autoren und Redakteuren angegangen. Vielmehr kann jeder Surfer sein persönliches Know-how dazu beisteuern. Dank der globalen Teamarbeit haben die Wikipedia-Artikel eine beachtliche Qualität erreicht - und können sich bisweilen durchaus mit professionellen und kostspieligen Nachschlagewerken messen. Der Journalist und Bestseller-Autor Sheldon Rampton verfolgt mit seinem Wiki-Projekt Disinfopedia.org speziellere Ziele: Die Enzyklopädie der Propaganda soll dokumentieren, wie PR-Unternehmen, Lobbyisten und Thinktanks die öffentliche Meinung in den USA mit Hilfe von fragwürdigen wissenschaftlichen Studien, fingierten Graswurzelbewegungen oder schlichter Verbreitung von Falschinformationen beeinflussen. Auch Disinfopedia wächst und gedeiht unter Mitarbeit der Netzbewohner, und obwohl man annehmen müsste, dass gerade ein solches politisches Projekt besonders unter Störern und Angreifern leidet, hat sich die Wiki-Technologie bisher als resistent erwiesen. Wer sich mit dem Thema Wissensmanagement beschäftigt, sollte auf jeden Fall ernsthaft prüfen, ob die kleine Wiki-Teeküche für seine Belange ausreicht. Und für manche Netzphilosophen sind die erfolgreichen Experimente mit den offenen Websites dann auch mehr als nur ein gelungenes Beispiel für gemeinschaftliches Arbeiten: Sie seien auch Beweis dafür, dass die menschliche Konstruktivität größer ist als ihre zerstörerischen Kräfte. Ein digitaler Hoffnungsschimmer."
-
Pianos, T.: "Alles sofort, jederzeit und kostenlos" : Bericht über die 9. InetBib-Tagung in Münster (2006)
0.01
0.011088862 = product of:
0.04435545 = sum of:
0.04435545 = weight(_text_:und in 70) [ClassicSimilarity], result of:
0.04435545 = score(doc=70,freq=50.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.3673144 = fieldWeight in 70, product of:
7.071068 = tf(freq=50.0), with freq of:
50.0 = termFreq=50.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0234375 = fieldNorm(doc=70)
0.25 = coord(1/4)
- Abstract
- Die 9. InetBib-Tagung im 10. Jubiläumsjahr war insgesamt eine sehr positiv gestimmte Veranstaltung. Großer Optimismus bei den Vorträgen wird zwangsläufig von ein wenig Skepsis aus dem Publikum begleitet, aber wenn in den nächsten Jahren nur ein Teil der Visionen und projektierten Dienstleistungen Wirklichkeit wird, könnten viele Bibliotheken als nutzerorientierte Innovationszentren sehr gut dastehen. Die Auswahl des Ortes für die diesjährige Tagung war gelungen. Auch wenn die Räumlichkeiten des Hörsaalgebäudes maximal mit 1970er-Jahre-Charme beeindruckten, so wurde dies vielfältig ausgeglichen durch den Charme des Organisationskomitees sowie durch den Rahmen für die Abendveranstaltung im Schlossgarten. Beate Träger (ULB Münster) verwies in ihren Eröffnungsgrußworten darauf, dass man mit einem geisteswissenschaftlichen Hintergrund zu Zeiten der ersten InetBib 1996 noch die ersten Gehversuche mit E-Mails auf dem heimischen Rechner machte, während 10 Jahre später das Leben und Arbeiten in großem Maße von den Möglichkeiten des Internets geprägt ist. Vieles scheint derzeit möglich, aber es gibt auch viele Einschränkungen durch technische und lizenzrechtliche Hürden. Aber man muss ja nicht die Hürden in den Mittelpunkt stellen, und so schloss Beate Tröger ihre Eröffnungsworte mit einem Zitat aus dem zugegebenermaßen unbescheidenen digitalen Traum von Martin Grötschel "Ich will alles und zwar sofort, jederzeit, überall und kostenlos zur Verfügung haben", um damit den Rahmen des Möglichen dieser Tagung abzustecken.
- Content
- Darin auch Aussagen zur Zukunft der Kataloge: "Peter Kostädt (USB Köln) beschrieb "Die Zukunft des OPAC, indem er den OPAC zumindest verbal abschaffte und seine Planungen für ein umfassendes, nutzerfreundliches (das Wort wird zu oft missbraucht, aber hier scheint es wirklich zu passen) Dienstleistungsangebot präsentierte. Konsequent soll dabei alles was stört (Barrieren, Java-Skript, Cookies, Systemanforderungen, Timeouts) über Bord geworfen werden und durch banale Dinge ersetzt werden, die Nutzerinnen und Nutzer oft einfordern, aber selten bekommen (schnelle Antwortzeiten, einfache Oberfläche, Hilfestellung bei Fehlern in der Suche, Rechtschreibkorrektur, Ranking nach auswählbaren Kriterien, Tools zur Verfeinerung der Suche, Zusatzinformationen wie Cover, Inhaltsverzeichnis, Rezensionen und schließlich Personalisierung und Alert-Dienste). Schön auch in diesem Zusammenhang die Randbemerkung zu RSS-Feeds: "Bibliothekare wissen meist nicht, was das Logo bedeutet und lassen sich dann durch die Nutzer belehren." Ziel ist also eine serviceorientierte Architektur - und wir warten gespannt auf die Umsetzung." (S.1278-1279)
sowie zur Wikipedia: ""Wikipedia als Referenzorgan" hieß der Beitrag von Jacob Voß (Wikimedia Organisation), und nach eigenen Worten hat Voß sich lange gesträubt, einen solchen Vortrag zu halten. Sehr offen wies er auf mögliche Problemfelder bei der Benutzung von Wikipedia als Referenzorgan hin. (Böse Menschen können ziemlich leicht falsche und despektierliche Dinge unterbringen, die bis zu einer nächsten Korrektur für alle so zu lesen sind). Eine andere Erkenntnis lautet: "Es gibt viele kleine Dörfer in Deutschland.", d.h., es gibt auch viele selbsternannte Experten, die die Dorfchroniken aufzeichnen - oftmals mit hohem Sachverstand und guter Recherche, oft genug aber auch mit mehr Leidenschaft als Sachkenntnis. Die Zahlen sagen, dass Wikipedia viel genutzt wird: "Wikipedia ist unter den TOP 15 der weltweiten Seitenaufrufe", "95% der Schülerinnen und Schüler nutzen Wikipedia". Man mag dies beklagen und auf (vermeintliche) Vorzüge gedruckter Expertenlexika hinweisen oder man kann ein paar hilfreiche Tipps des Vortrags zum sinnvollen Umgang mit der Wikipedia entgegen nehmen und diese Erkenntnisse streuen. Zur Überlegenheit anderer Lexika sei nur soviel gesagt: Die meisten von uns werden von dem Vergleich zwischen Wikipedia und der Encyclopedia Britannica gehört haben, der für Wikipedia gar nicht so schlecht ausfiel, u.a. deshalb, weil auch in der Encyclopedia eine Reihe von sachlichen Fehlern gefunden wurden. Beachten sollte man zudem folgende Hinweise: Einige Artikel in Wikipedia sind als exzellent bzw. lesenswert ausgezeichnet. Bei diesen Artikeln kann man von einem weitreichenden Prüfprozess ausgehen. Ferner gibt es gesichtete und geprüfte Versionen, die zumindest frei von Vandalismus und sachlichen Fehlern sind. Abgesehen von derartigen Auszeichnungen korreliert die Qualität der Artikel einer Untersuchung zufolge wohl ganz allgemein mit der Aufmerksamkeit, die einem bestimmten Thema zuteil wird und der entsprechenden Autorenzahl. Ausnahmen mögen hier allerdings die Regel bestätigen. Trotzdem kann man bei den meisten Artikeln, an denen viele Personen mitgearbeitet haben, auf eine gewisse Qualität schließen. Voß rät dazu, sich die Versionsgeschichte und Autoren von Einträgen genauer anzusehen, um daraus entsprechende Schlüsse auf die Qualität der Beiträge zu ziehen. Verwiesen sei auch auf das richtige Zitieren von Wikipedia-Artikeln."
-
Gabrys-Deutscher, E.: ViFaTec : Die Virtuelle Fachbibliothek Technik (2001)
0.01
0.011088862 = product of:
0.04435545 = sum of:
0.04435545 = weight(_text_:und in 5902) [ClassicSimilarity], result of:
0.04435545 = score(doc=5902,freq=18.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.3673144 = fieldWeight in 5902, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0390625 = fieldNorm(doc=5902)
0.25 = coord(1/4)
- Abstract
- Die Deutsche Forschungsgemeinschaft hat 1998 in ihrem Memorandum zur "Weiterentwicklung der überregionalen Literaturversorgung" die aus den neuen Entwicklungen in der Szene der Fachinformationen resultierenden Anforderungen an die Sondersammelgebietsbibliotheken formuliert und den Aufbau der Virtuellen Fachbibliotheken angeregt. Diese Anforderungen betreffen vor allem die Ausdehnung des Sammelauftrages auf digitale Publikationen und Fachinformationen sowie die Entwicklung neuer Dienstleistungen in Kooperation mit nationalen und internationalen Partnern. In zahlreichen, von der DFG geförderten Projekten werden derzeit Virtuelle Fachbibliotheken realisiert. Die Virtuelle Fachbibliothek Technik gehört zu den ersten Projekten in diesem Programm. Die Virtuelle Fachbibliothek Technik, die seit April 2000 im Netz ist, bietet Ingenieuren und anderen interessierten Fachleuten einen integrierten Zugang zu fachrelevanten Informationen und Dienstleistungen. In der Virtuellen Fachbibliothek Technik werden alle Informationsquellen, die für Ingenieure von Bedeutung sind, integriert. Neben der Literatur sind auch neue Formen von Informationsquellen, wie z.B. Kooperationsbörsen, Börsen für gebrauchte Maschinen, Kompetenznetze, elektronische Produktkataloge, Konferenzkalender und Diskussionslisten, integriert. Die Virtuelle Fachbibliothek Technik verzeichnet nicht nur kostenfreie Internet-Sites, sondern auch kostenpflichtige und konventionelle Informationsquellen. Maßgebend ist die fachliche Relevanz. Der Nutzer soll über die Existenz von hochwertigen Quellen informiert werden und selbst entscheiden können, welche er letztendlich nutzt. Das Verzeichnen von ausschließlich kostenlosen Internetressourcen, was in vielen Virtual Libraries praktiziert wird, erweckt beim Nutzer oft den falschen Eindruck, dass es nur diese Informationsquellen gäbe. Das Ziel der Virtuellen Fachbibliothek Technik besteht in der Integration bestehender Angebote. Nach Möglichkeit sollen weiterreichende Kooperationen mit den Informationsproduzenten im In- und Ausland vereinbart werden. Nur durch Synergieeffekte kann ein hochqualitatives, viele Aspekte umfassendes Angebot dem Fachpublikum geboten werden. Durch redundante Arbeit, ohne Rücksicht auf bereits bestehende Angebote, erreicht man eher das Gegenteil