-
Ecker, R.: ¬Das digitale Buch im Internet : Methoden der Erfassung, Aufbereitung und Bereitstellung (1998)
0.02
0.018675499 = product of:
0.074701995 = sum of:
0.074701995 = weight(_text_:und in 1511) [ClassicSimilarity], result of:
0.074701995 = score(doc=1511,freq=18.0), product of:
0.1271084 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.057349887 = queryNorm
0.58770305 = fieldWeight in 1511, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0625 = fieldNorm(doc=1511)
0.25 = coord(1/4)
- Abstract
- Die elektronische Erfassung aller bedeutenden gedruckten Informationen und ihre Verbreitung über die weltweiten Datennetze in digitalisierter Form oder als Volltext stellt eine der zur Zeit größten Herausforderungen und Chancen für unsere Informationsgesellschaft dar. Der nachstehende Artikel widmet sich der oft gestellten Frage nach den technischen Methoden für die elektronische Erfassung, Erschließung und Bereitstellung gedruckter Vorlagen und beschreibt die wichtigsten Schritte der Digitalisierung und Datenaufbereitung und ihrer technischen und organisatorischen Parameter
- Content
- Beschreibt den Prozeß der digitalisierten Aufbereitung von Text und Bild etc. über Scannen
-
Holzhause, R.; Krömker, H.; Schnöll, M.: Vernetzung von audiovisuellen Inhalten und Metadaten : Metadatengestütztes System zur Generierung und Erschließung von Medienfragmenten (Teil 1) (2016)
0.02
0.018065723 = product of:
0.07226289 = sum of:
0.07226289 = weight(_text_:und in 5636) [ClassicSimilarity], result of:
0.07226289 = score(doc=5636,freq=22.0), product of:
0.1271084 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.057349887 = queryNorm
0.56851393 = fieldWeight in 5636, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0546875 = fieldNorm(doc=5636)
0.25 = coord(1/4)
- Abstract
- Der folgende Artikel beschäftigt sich mit den Anforderungen und Aufgaben eines Systems zur vernetzten Datenverwaltung, welches zeitbezogene Verknüpfungen zwischen audiovisuellen Inhalten und Metadaten ermöglicht. Anhand der zusammenhängenden Relationen kann ein audiovisuelles Medium nicht nur als Ganzes effektiv beschrieben und erfasst werden, sondern auch dessen Fragmente und Kontexte. Auf Basis dieser Datenverarbeitung lassen sich vielfältige Schnittstellen und Anwendungen zur kontextbasierten Erschließung, Bearbeitung und Auslieferung von Dokumenten und Medien abbilden, welche insbesondere für Mediatheken und Systeme des Media-Asset-Managements im medialen Umfeld einen großen zusätzlichen Nutzen aufweisen, aber auch Aufgaben innerhalb wissenschaftlicher Bibliotheken und Archivsystemen erfüllen können.
-
Christof, J.: Metadata sharing : Die Verbunddatenbank Internetquellen der Virtuellen Fachbibliothek Politikwissenschaft und der Virtuellen Fachbibliothek Wirtschaftswissenschaften (2003)
0.02
0.01634106 = product of:
0.06536424 = sum of:
0.06536424 = weight(_text_:und in 1916) [ClassicSimilarity], result of:
0.06536424 = score(doc=1916,freq=18.0), product of:
0.1271084 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.057349887 = queryNorm
0.51424015 = fieldWeight in 1916, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0546875 = fieldNorm(doc=1916)
0.25 = coord(1/4)
- Abstract
- Im Kontext der durch die Deutsche Forschungsgemeinschaft (DFG) geförderten Projekte "Virtuelle Fachbibliothek Politikwissenschaft" und "Virtuelle Fachbibliothek Wirtschaftswissenschaften" wird für den Nachweis von Onlinequellen jeweils ein Fachinformationsführer aufgebaut. Die verantwortlichen Institutionen, die Staatsund Universitätsbibliothek Hamburg (SUB Hamburg), die Universitäts- und Stadtbibliothek Köln (USB Köln) und die Deutsche Zentralbibliothek für Wirtschaftswissenschaften (ZBW Kiel) haben dazu ein Metadatenkonzept in Abstimmung mit nationalen und internationalen Entwicklungen auf Basis von Dublin Core entwickelt und dieses Konzept beim Aufbau der Verbunddatenbank Internetquellen umgesetzt.
- Source
- Bibliotheken und Informationseinrichtungen - Aufgaben, Strukturen, Ziele: 29. Arbeits- und Fortbildungstagung der ASpB / Sektion 5 im DBV in Zusammenarbeit mit der BDB, BIB, DBV, DGI und VDB, zugleich DBV-Jahrestagung, 8.-11.4.2003 in Stuttgart. Red.: Margit Bauer
-
Hengel-Dittrich, C.: Metadaten und Persistent Identifier : ein Informationstag für Verlage an Der Deutschen Bibliothek (1999)
0.02
0.016173456 = product of:
0.06469382 = sum of:
0.06469382 = weight(_text_:und in 4222) [ClassicSimilarity], result of:
0.06469382 = score(doc=4222,freq=6.0), product of:
0.1271084 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.057349887 = queryNorm
0.5089658 = fieldWeight in 4222, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.09375 = fieldNorm(doc=4222)
0.25 = coord(1/4)
- Footnote
- Bericht über eine Veranstaltung am 9.9.1999 der DDB und der Buchhändlervereinigung
- Source
- Zeitschrift für Bibliothekswesen und Bibliographie. 46(1999) H.6, S.548-553
-
Qualität in der Inhaltserschließung (2021)
0.02
0.016173456 = product of:
0.06469382 = sum of:
0.06469382 = weight(_text_:und in 753) [ClassicSimilarity], result of:
0.06469382 = score(doc=753,freq=54.0), product of:
0.1271084 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.057349887 = queryNorm
0.5089658 = fieldWeight in 753, product of:
7.3484693 = tf(freq=54.0), with freq of:
54.0 = termFreq=54.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.03125 = fieldNorm(doc=753)
0.25 = coord(1/4)
- Abstract
- Der 70. Band der BIPRA-Reihe beschäftigt sich mit der Qualität in der Inhaltserschließung im Kontext etablierter Verfahren und technologischer Innovationen. Treffen heterogene Erzeugnisse unterschiedlicher Methoden und Systeme aufeinander, müssen minimale Anforderungen an die Qualität der Inhaltserschließung festgelegt werden. Die Qualitätsfrage wird zurzeit in verschiedenen Zusammenhängen intensiv diskutiert und im vorliegenden Band aufgegriffen. In diesem Themenfeld aktive Autor:innen beschreiben aus ihrem jeweiligen Blickwinkel unterschiedliche Aspekte zu Metadaten, Normdaten, Formaten, Erschließungsverfahren und Erschließungspolitik. Der Band versteht sich als Handreichung und Anregung für die Diskussion um die Qualität in der Inhaltserschließung.
- Content
- Inhalt: Editorial - Michael Franke-Maier, Anna Kasprzik, Andreas Ledl und Hans Schürmann Qualität in der Inhaltserschließung - Ein Überblick aus 50 Jahren (1970-2020) - Andreas Ledl Fit for Purpose - Standardisierung von inhaltserschließenden Informationen durch Richtlinien für Metadaten - Joachim Laczny Neue Wege und Qualitäten - Die Inhaltserschließungspolitik der Deutschen Nationalbibliothek - Ulrike Junger und Frank Scholze Wissensbasen für die automatische Erschließung und ihre Qualität am Beispiel von Wikidata - Lydia Pintscher, Peter Bourgonje, Julián Moreno Schneider, Malte Ostendorff und Georg Rehm Qualitätssicherung in der GND - Esther Scheven Qualitätskriterien und Qualitätssicherung in der inhaltlichen Erschließung - Thesenpapier des Expertenteams RDA-Anwendungsprofil für die verbale Inhaltserschließung (ET RAVI) Coli-conc - Eine Infrastruktur zur Nutzung und Erstellung von Konkordanzen - Uma Balakrishnan, Stefan Peters und Jakob Voß Methoden und Metriken zur Messung von OCR-Qualität für die Kuratierung von Daten und Metadaten - Clemens Neudecker, Karolina Zaczynska, Konstantin Baierer, Georg Rehm, Mike Gerber und Julián Moreno Schneider Datenqualität als Grundlage qualitativer Inhaltserschließung - Jakob Voß Bemerkungen zu der Qualitätsbewertung von MARC-21-Datensätzen - Rudolf Ungváry und Péter Király Named Entity Linking mit Wikidata und GND - Das Potenzial handkuratierter und strukturierter Datenquellen für die semantische Anreicherung von Volltexten - Sina Menzel, Hannes Schnaitter, Josefine Zinck, Vivien Petras, Clemens Neudecker, Kai Labusch, Elena Leitner und Georg Rehm Ein Protokoll für den Datenabgleich im Web am Beispiel von OpenRefine und der Gemeinsamen Normdatei (GND) - Fabian Steeg und Adrian Pohl Verbale Erschließung in Katalogen und Discovery-Systemen - Überlegungen zur Qualität - Heidrun Wiesenmüller Inhaltserschließung für Discovery-Systeme gestalten - Jan Frederik Maas Evaluierung von Verschlagwortung im Kontext des Information Retrievals - Christian Wartena und Koraljka Golub Die Qualität der Fremddatenanreicherung FRED - Cyrus Beck Quantität als Qualität - Was die Verbünde zur Verbesserung der Inhaltserschließung beitragen können - Rita Albrecht, Barbara Block, Mathias Kratzer und Peter Thiessen Hybride Künstliche Intelligenz in der automatisierten Inhaltserschließung - Harald Sack
- Footnote
- Vgl.: https://www.degruyter.com/document/doi/10.1515/9783110691597/html. DOI: https://doi.org/10.1515/9783110691597. Rez. in: Information - Wissenschaft und Praxis 73(2022) H.2-3, S.131-132 (B. Lorenz u. V. Steyer). Weitere Rezension in: o-bib 9(20229 Nr.3. (Martin Völkl) [https://www.o-bib.de/bib/article/view/5843/8714].
- Series
- Bibliotheks- und Informationspraxis; 70
-
Janssen, U.: ONIX - Metadaten in Verlagen und Buchhandel (2003)
0.02
0.016041884 = product of:
0.06416754 = sum of:
0.06416754 = weight(_text_:und in 1764) [ClassicSimilarity], result of:
0.06416754 = score(doc=1764,freq=34.0), product of:
0.1271084 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.057349887 = queryNorm
0.50482535 = fieldWeight in 1764, product of:
5.8309517 = tf(freq=34.0), with freq of:
34.0 = termFreq=34.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0390625 = fieldNorm(doc=1764)
0.25 = coord(1/4)
- Abstract
- ONIX (das Akronym steht für Online information exchange) ist der erste weltweit akzeptierte Standard für angereicherte Metadaten über Bücher, Fortsetzungswerke und andere Produkte des Buchhandels. Er wurde ursprünglich in den USA entwickelt, zunächst mit dem Ziel, dem Internetbuchhandel in einem einheitlichen Format Katalogdaten und zusätzlich Marketingmaterial zur Verfügung stellen zu können. Von Anfang an waren Barsortimente, bibliographische Agenturen und Verlage in den USA und bald auch aus dem Vereinigten Königreich an der Entwicklung von ONIX beteiligt und haben diese finanziell sowie personell gefördert. Die Pflege und Weiterentwicklung dieses neuen Standards wurde dann in die Hände von EDItEUR gelegt, der internationalen Dachorganisation für Standardisierung im Buchhandel, gegründet und gefördert von Verbänden aus Buchhandel, Verlagen und Bibliothekswesen, darunter dem Börsenverein des Deutschen Buchhandels und der European Booksellers Federation. Büro und Sekretariat von EDItEUR werden in London von Book Industry Communication (BIC), einer Gemeinschaftsorganisation der britischen Verleger- und Buchhändlerverbände, gestellt. EDIMUR wurde vor zehn Jahren gegründet, um EDIStandards (EDI = electronic data interchange, elektronischer Datenaustausch) für die Kommunikation zwischen Buchhandel und Verlagen einerseits und Bibliotheken und ihren Lieferanten andererseits zu entwickeln. Dafür wurden Richtlinien für eine Reihe von EANCOM-Nachrichten verabschiedet, darunter für Bestellungen, Auftragsbestätigungen, Rechnungen und Angebote. Ein Richtlinienentwurf für die Nachricht PRICAT (Price and sales catalogue), die für die Übermittlung von Katalogdaten bestimmt ist, wurde zwar vor einigen Jahren entwickelt, aber bisher noch nirgendwo in der Praxis getestet oder gar produktiv eingesetzt. Hingegen sind die transaktionsbezogenen EDI-Nachrichten sowohl im Bibliothekswesen als auch im Buchhandel in Europa vielfach im Einsatz.
- Source
- Zeitschrift für Bibliothekswesen und Bibliographie. 50(2003) H.4, S.210-214
-
Rusch-Feja, D.: Nationale und internationale Ansätze zur Vereinheitlichung von Metadaten im Bildungsbereich (2001)
0.02
0.0154065 = product of:
0.061626 = sum of:
0.061626 = weight(_text_:und in 5859) [ClassicSimilarity], result of:
0.061626 = score(doc=5859,freq=16.0), product of:
0.1271084 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.057349887 = queryNorm
0.4848303 = fieldWeight in 5859, product of:
4.0 = tf(freq=16.0), with freq of:
16.0 = termFreq=16.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0546875 = fieldNorm(doc=5859)
0.25 = coord(1/4)
- Abstract
- Die vielen Aktivitäten und Anzahl von Partnern, die an diesen Gruppen teilnehmen, zeigen, wie wichtig die Vereinheitlichung und semantische Interoperabilität der Metadaten im Bildungsbereich ist. Beispiele der einzlnen Metadatensätze können den Konkordanzen von Stuart Sutton entnommen werden, wobei deutlich ist, dass die Übereinstimmung mancher Konzepte hinter den Metadatenkategorien nicht vorhanden ist. Die gemeinsame Arbeit der Gruppen hat gerade angefangen und in den nächsten Monaten können Ergebnisse dieser Standardisierungsprozesses erwartet werden
- Series
- Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
- Source
- Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
-
Oehlschläger, S.: Abschlussworkshop des Projektes META-LIB und 1. Metadaten-Workshop der Arbeitsstelle für Standardisierung Der Deutschen Bibliothek : Metadaten - Alter Wein in neuen Schläuchen? (2003)
0.02
0.0154065 = product of:
0.061626 = sum of:
0.061626 = weight(_text_:und in 1758) [ClassicSimilarity], result of:
0.061626 = score(doc=1758,freq=16.0), product of:
0.1271084 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.057349887 = queryNorm
0.4848303 = fieldWeight in 1758, product of:
4.0 = tf(freq=16.0), with freq of:
16.0 = termFreq=16.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0546875 = fieldNorm(doc=1758)
0.25 = coord(1/4)
- Abstract
- Die seit Mitte der goer Jahre des letzten Jahrhunderts durch das Internet und vor allem durch das World Wide Web (WWW) entstandenen neuen Kommunikations- und Publikationsmöglichkeiten stellen die mit der Sammlung, Erschließung und Nutzbarmachung von Veröffentlichungen beauftragten wissenschaftlichen Bibliotheken vor neue Herausforderungen. Netzpublikationen erfordern die Überprüfung und Anpassung bestehender Methoden und Geschäftsgänge. Neben den bibliothekarischen Verfahren haben sich im WWW neue Vorgehensweisen herausgebildet. Um die Suche, die Identifikation und den Zugriff auf Netzpublikationen zu unterstützen, werden strukturierte Daten beigegeben: Metadaten. Außer den zum Auffinden der Ressourcen notwendigen Metadaten spielen weitere Arten von Metadaten für Netzpublikationen eine zunehmend wichtige Rolle.
- Source
- Zeitschrift für Bibliothekswesen und Bibliographie. 50(2003) H.4, S.179-181
-
Koch, G.; Koch, W.: Aggregation and management of metadata in the context of Europeana (2017)
0.02
0.0154065 = product of:
0.061626 = sum of:
0.061626 = weight(_text_:und in 3910) [ClassicSimilarity], result of:
0.061626 = score(doc=3910,freq=16.0), product of:
0.1271084 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.057349887 = queryNorm
0.4848303 = fieldWeight in 3910, product of:
4.0 = tf(freq=16.0), with freq of:
16.0 = termFreq=16.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0546875 = fieldNorm(doc=3910)
0.25 = coord(1/4)
- Abstract
- Mit dem In-Beziehung-Setzen und Verlinken von Daten im Internet wird der Weg zur Umsetzung des semantischen Webs geebnet. Erst die semantische Verbindung von heterogenen Datenbeständen ermöglicht übergreifende Suchvorgänge und späteres "Machine Learning". Im Artikel werden die Aktivitäten der Europäischen Digitalen Bibliothek im Bereich des Metadatenmanagements und der semantischen Verlinkung von Daten skizziert. Dabei wird einerseits ein kurzer Überblick zu aktuellen Forschungsschwerpunkten und Umsetzungsstrategien gegeben, und darüber hinaus werden einzelne Projekte und maßgeschneiderte Serviceangebote für naturhistorische Daten, regionale Kultureinrichtungen und Audiosammlungen beschrieben.
- Source
- Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 70(2017) H.2, S.170-178
-
Panskus, E.J.: Metadaten zur Identifizierung von Falschmeldungen im digitalen Raum : eine praktische Annäherung (2019)
0.02
0.01524848 = product of:
0.06099392 = sum of:
0.06099392 = weight(_text_:und in 5452) [ClassicSimilarity], result of:
0.06099392 = score(doc=5452,freq=12.0), product of:
0.1271084 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.057349887 = queryNorm
0.47985753 = fieldWeight in 5452, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0625 = fieldNorm(doc=5452)
0.25 = coord(1/4)
- Abstract
- In vielen Ländern erstarken populistische und rassistische Kräfte. Mit Polen und Ungarn schwächen selbst Mitglieder der Europäischen Union rechtsstaatliche Institutionen.[1] Die Türkei wendet sich immer stärker von der EU ab und driftet an den Rand einer Diktatur. In Österreich konnte ein Rechtspopulist nur knapp als Bundespräsident verhindert werden. All diese Ereignisse finden oder fanden auch wegen Missmut und Misstrauen gegenüber staatlichen und etablierten Institutionen wie klassischen Medien, Regierungen und der Wirtschaft statt.
-
Grossmann, S.: Meta-Strukturen in Intranets : Konzepte, Vorgehensweise, Beispiele (2001)
0.01
0.014411461 = product of:
0.057645842 = sum of:
0.057645842 = weight(_text_:und in 5775) [ClassicSimilarity], result of:
0.057645842 = score(doc=5775,freq=14.0), product of:
0.1271084 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.057349887 = queryNorm
0.4535172 = fieldWeight in 5775, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0546875 = fieldNorm(doc=5775)
0.25 = coord(1/4)
- Abstract
- Die meisten Intranets stehen vor einem Informationsinfarkt - es fehlt in den Organisationen vielfach an klaren Rollenkonzepten zur Eingabe, Pflege und Weiterentwicklung der Intranets, vor allem aber auch an methodischen Grundsätzen zur Erfassung und Erschließung der verschiedenartigen Informationen. In diesem Beitrag werden die Grundkonzepte zur Meta-Strukturierung beschrieben, eine erprobte Vorgehensweise bei der Implementierung entsprechender Standards erarbeitet und zur besseren Illustration an konkreten Beispielen dargestellt
- Series
- Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
- Source
- Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
-
Binz, V.; Rühle, S.: KIM - Das Kompetenzzentrum Interoperable Metadaten (2009)
0.01
0.014411461 = product of:
0.057645842 = sum of:
0.057645842 = weight(_text_:und in 4559) [ClassicSimilarity], result of:
0.057645842 = score(doc=4559,freq=14.0), product of:
0.1271084 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.057349887 = queryNorm
0.4535172 = fieldWeight in 4559, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0546875 = fieldNorm(doc=4559)
0.25 = coord(1/4)
- Abstract
- Die Interoperabilität von Metadaten ist eine wichtige Voraussetzung für das Generieren von Information und Wissen in einer vernetzten Welt. Aus diesem Grund entstehen seit Mitte der Neunziger Jahre verschiedene Standards mit dem Ziel, die Interoperabilität von Metadaten zu erhöhen. Genannt seien hier vor allem DCMES und DCAM, RDF und SKOS. Aufgabe von KIM ist es, diese Entwicklungen zu begleiten und in die deutschsprachige Community zu tragen. Dabei bietet KIM neben reinen Informationsangeboten (z. B. in Form von Übersetzungen, Vorträgen und Handreichungen) auch konkrete Unterstützung in Form von Schulungen und Beratungen an.
- Source
- Bibliothek: Forschung und Praxis. 33(2009) H.3, S.370-374
-
Mainberger, C.: Aktuelles aus der Digital Library (2003)
0.01
0.014263648 = product of:
0.05705459 = sum of:
0.05705459 = weight(_text_:und in 1547) [ClassicSimilarity], result of:
0.05705459 = score(doc=1547,freq=42.0), product of:
0.1271084 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.057349887 = queryNorm
0.44886562 = fieldWeight in 1547, product of:
6.4807405 = tf(freq=42.0), with freq of:
42.0 = termFreq=42.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.03125 = fieldNorm(doc=1547)
0.25 = coord(1/4)
- Abstract
- Digitales Bibliotheksgut bildet neben dem Verbundsystem und Lokalsystemen schon seit einigen Jahren einen der Schwerpunkte des Bibliotheksservice-Zentrum Baden-Württemberg (BSZ). Dazu wurden in einer Reihe von Projekten unterschiedliche Gesichtspunkte dieser vergleichsweise neuen Medien berücksichtigt. Viele dieser Projekte sind mittlerweile abgeschlossen, einige in einen regelrechten Routinebetrieb übergegangen. Video- und Audiofiles, aber auch Image- und Textdateien stellen zunächst durch ihre technische Form spezielle Anforderungen an ihre Erzeugung, Aufbewahrung und Nutzung. Daran schließt sich die Entwicklung geeigneter Verfahren und Hilfsmittel zur Verzeichnung und Erschließung an. Spezielle Suchmaschinen und Austauschprotokolle ermöglichen ein adäquates Retrieval elektronischer Ressourcen und ihre Distribution. Ein eigenes Feld stellt der Einsatz von multimedialen Lehr- und Lernmaterialien im Hochschulunterricht dar. Die technischen Eigenschaften und Möglichkeiten führen darüber hinaus zu anderen inhaltlichen Strukturen als bei "konventioneller" Literatur und schließlich zu einer andersartigen rechtlichen Verortung dieser Bestände. Zu allen diesen Themen war das BSZ tätig, meist in Kooperationen mit Partnern wie z.B. den OPUS-Anwendern oder der DLmeta-Initative. Im Mittelpunkt dieses Engagements steht der Virtuelle Medienserver, der die Metadaten der dezentral vorgehaltenen Objekte enthält, diese über Hyperlinks erreichen kann und der mit der Verbunddatenbank synchronisiert ist. Die "digitale" Bibliotheksarbeit orientiert sich dabei an den Methoden und Prinzipien der "analogen" Bibliotheksarbeit, passt diese teils den neuen, digitalen Möglichkeiten an, insbesondere der Online-Zugänglichkeit, vermeidet aber Brüche in den Nachweisinstrumenten. Im Folgenden soll dies an vier zentralen Aspekten deutlich gemacht werden, die Teil jeder Bibliotheksarbeit sind und entsprechend in aktuellen Projekten der Digital Library im BSZ ihren Niederschlag finden: Recherche- und Zugangsmöglichkeiten oder "Portale", Inhalte und Medien oder "Content", Regelwerke und Formate oder "Metadaten", Sprachverwendung oder "Normvokabular und Klassifikationen". Illustriert werden diese Themen anhand aktueller Projekte, zunächst die Sprachverwendung anhand des BAM-Portals: Das BAM-Portal wird in einem DFG-Projekt in Kooperation des BSZ mit der Landesarchivdirektion Baden-Württemberg und dem Landesmuseum für Technik und Arbeit entwickelt. Es zielt darauf ab, in Bibliotheken, Archiven und Museen vorhandene digitale Bestände unter einer einheitlichen Oberfläche übers World Wide Web zugänglich zu machen. Eine Recherche im BAMPortal führt auf eine fachübergreifende Trefferliste, in der jeder Treffer über Internetlinks mit einer ausführlichen, herkunftsgerechten Beschreibung verknüpft ist. Von dort ist gegebenenfalls ein zugehöriges Digitalisat bzw. eine multimediale Veranschaulichung erreichbar. Da übliche Suchaspekte, wie der Autor für Literatur oder die Provenienz für das Archivalien im gemeinsamen Kontext nicht fachübergreifende Resultate ergeben, treten hier themenbezogene Recherchen in den Vordergrund. Daher widmen wir im BAM-Portal der thematischen Erschließung der verschiedenen Datenbestände die größte Aufmerksamkeit.
-
Weber, J.: Nachlässe und Autographen im WWW : Dublin Core in Museen, Archiven und Bibliotheken (2000)
0.01
0.014006624 = product of:
0.056026496 = sum of:
0.056026496 = weight(_text_:und in 4458) [ClassicSimilarity], result of:
0.056026496 = score(doc=4458,freq=18.0), product of:
0.1271084 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.057349887 = queryNorm
0.4407773 = fieldWeight in 4458, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.046875 = fieldNorm(doc=4458)
0.25 = coord(1/4)
- Abstract
- Vielen Bibliotheksbenutzern wird inzwischen mehr und mehr bewußt: Alle Vernetzungsbestrebungen in Bibliotheksbereich, die lokale Traditionen zugunsten eines überregionalen Nachweises der Bestände aufgeben, handeln auch gegen die Benutzerinteressen. Wir werden uns zunehmend klar darüber, daß von den meisten wissenschaftlern der lokale Online-Katalog allein für Literaturrecherchen herangezogen wird, und zwar aus dem Grund, daß das gesuchte Buch so schnell und unkompliziert wie möglich zur Hand sein soll. Diese Feststellung impliziert auch den Gedanken, daß die Aufgabe guter lokaler Katalogisierungstraditionen möglicherweise ein unwiederbringlicher Verlust ist, ein Schritt hin zu einer schlechteren und oberflächlicheren Information. Wie sich eine überregionale Verbesserung der Nachweissituation unter gleichzeitiger Bewahrung lokaler Traditionen darstellen kann, ist Gegenstand der folgenden Ausführungen. Sie bahandeln das Thema aus dem Blickwinkel der Bilbiotheken, Archive und Museen, deren aufgabe im Nachweis und der Bewahrung von Unikaten besteht. die hier behandelte Metadatendiskussion bezieht sich also auf die Beschreibungskriterien nicht für digitales Material, sondern für Manuskripte, Briefe, Gegenstände
- Source
- Zeitschrift für Bibliothekswesen und Bibliographie. 47(2000) H.1, S.63-69
-
Niederée, C.: Metadaten als Bausteine des Semantic Web (2003)
0.01
0.014006624 = product of:
0.056026496 = sum of:
0.056026496 = weight(_text_:und in 1761) [ClassicSimilarity], result of:
0.056026496 = score(doc=1761,freq=18.0), product of:
0.1271084 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.057349887 = queryNorm
0.4407773 = fieldWeight in 1761, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.046875 = fieldNorm(doc=1761)
0.25 = coord(1/4)
- Abstract
- Das »Semantic Web« bildet einen der wichtigsten, aktuellen Trends in der Weiterentwicklung des World Wide Web. Ehrgeizige Vision dieser nächsten Generation des WWW ist es, durch semantische Anreicherung von Information eine neue Qualität in der Bereitstellung von Inhalten und Diensten zu erreichen und vollständig neue Anwendungsmöglichkeiten für das Web zu eröffnen. Wichtige Ziele der Entwicklung des Semantic Web sind dabei die verbesserte Unterstützung von Kooperation zwischen Menschen und Computern und die intelligente Assistenz bei der Durchführung von Aufgaben in kooperativen verteilten Informationsumgebungen. Schlüssel zur Erreichung dieser Ziele sind die Anreicherung von Daten im Web mit Metadaten, welche diese Daten in einen semantischen Kontext einbetten. Diese Kontextinformation wird durch Software-Anwendungen interpretiert und zur Informationsfilterung, Verfeinerung von Anfragen und zur Bereitstellung intelligenter Assistenten verwendet. Eine große Herausforderung stellt dabei die geeignete Modellierung und Beschreibung des Kontexts dar. Diese muss eine automatische, globale Interpretation ermöglichen, ohne dass auf ein allgemeingültiges semantisches Beschreibungsschema zurückgegriffen werden kann. Die Vereinbarung eines solchen allgemeingültigen Schemas ist in einem derart umfangreichen, heterogenen und autonomen Rahmen, wie ihn das WWW darstellt, nicht möglich.
- Source
- Zeitschrift für Bibliothekswesen und Bibliographie. 50(2003) H.4, S.193-198
-
Keßler, M.: KIM - Kompetenzzentrum Interoperable Metadaten : Gemeinsamer Workshop der Deutschen Nationalbibliothek und des Arbeitskreises Elektronisches Publizieren (AKEP) (2007)
0.01
0.014006624 = product of:
0.056026496 = sum of:
0.056026496 = weight(_text_:und in 2406) [ClassicSimilarity], result of:
0.056026496 = score(doc=2406,freq=18.0), product of:
0.1271084 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.057349887 = queryNorm
0.4407773 = fieldWeight in 2406, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.046875 = fieldNorm(doc=2406)
0.25 = coord(1/4)
- Abstract
- Das Kompetenzzentrum Interoperable Metadaten (KIM) ist eine Informations- und Kommunikationsplattform für Metadatenanwender und -entwickler zur Verbesserung der Interoperabilität von Metadaten im deutschsprachigen Raum. KIM unterstützt und fördert die Erarbeitung von Metadatenstandards, die interoperable Gestaltung von Formaten und damit die optimale Nutzung von Metadaten in digitalen Informationsumgebungen mittels Lehrmaterialien, Schulungen und Beratungen. Das Kompetenzzentrum entsteht im Rahmen des von der Deutschen Forschungsgemeinschaft (DFG) geförderten Projekts KIM unter der Federführung der Niedersächsischen Staats- und Universitätsbibliothek Göttingen (SUB) in Zusammenarbeit mit der Deutschen Nationalbibliothek (DNB). Projektpartner sind in der Schweiz die Hochschule für Technik und Wirtschaft HTW Chur, die Eidgenössische Technische Hochschule (ETH) Zürich und in Österreich die Universität Wien. Aufgabe des Kompetenzzentrums ist es, die Interoperabilität von Metadaten zu verbessern. Interoperabilität ist die Fähigkeit zur Zusammenarbeit von heterogenen Systemen. Datenbestände unabhängiger Systeme können ausgetauscht oder zusammengeführt werden, um z. B. eine systemübergreifende Suche oder das Browsen zu ermöglichen. Daten werden zum Teil in sehr unterschiedlichen Datenbanksystemen gespeichert. Interoperabilität entsteht dann, wenn die Systeme umfangreiche Schnittstellen implementieren, die ein weitgehend verlustfreies Mapping der internen Datenrepräsentation ermöglichen.
-
Birkner, M.; Gonter, G.; Lackner, K.; Kann, B.; Kranewitter, M.; Mayer, A.; Parschalk, A.: Guideline zur Langzeitarchivierung (2016)
0.01
0.014006624 = product of:
0.056026496 = sum of:
0.056026496 = weight(_text_:und in 3139) [ClassicSimilarity], result of:
0.056026496 = score(doc=3139,freq=18.0), product of:
0.1271084 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.057349887 = queryNorm
0.4407773 = fieldWeight in 3139, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.046875 = fieldNorm(doc=3139)
0.25 = coord(1/4)
- Abstract
- Guideline zur Hilfestellung für die Langzeitarchivierung von Daten und Objekten im Kontext des Publikations- und Forschungswesens. Diese Guideline soll Hilfestellung für die Langzeitarchivierung von Daten und Objekten im Kontext des Publikations- und Forschungswesens bieten. Sie ist ausdrücklich nicht für den Kontext der Compliance anwendbar. Sie soll dazu ermächtigen, die richtigen Fragen zur Auswahl der für die eigene Institution geeigneten Langzeitarchivierungs-Lösung zu stellen und bei der Entscheidung für eine System-Lösung behilflich sein. Langzeitarchivierungssysteme werden hier als Systeme verstanden, die im Workflow hinter einem Repositorium stehen, in dem digitale Objekte und ihre Metadaten gespeichert und angezeigt werden sowie recherchierbar sind. Allfällige Begriffserklärungen finden Sie im Glossar des Clusters C (Aufbau eines Wissensnetzwerks: Erarbeitung eines Referenzmodells für den Aufbau von Repositorien / Themenbereich Terminologie und Standards).
- Source
- Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 69(2016) H.1, S.41-57
-
Rusch-Feja, D.: Metadaten und Strukturierung elektronischer Informationen : Bericht über einen Workshop vom 15. bis 17. Dezember 1996 in der Stadt- und Universitätsbibliothek Göttingen (1997)
0.01
0.013919895 = product of:
0.05567958 = sum of:
0.05567958 = weight(_text_:und in 948) [ClassicSimilarity], result of:
0.05567958 = score(doc=948,freq=10.0), product of:
0.1271084 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.057349887 = queryNorm
0.438048 = fieldWeight in 948, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0625 = fieldNorm(doc=948)
0.25 = coord(1/4)
- Content
- Mit Darstellung zum Beschluß der IuK-Kommission der wissenschaftlichen Fachgesellschaften und deren Aktivitäten (vgl. auch die Beiträge von Grötschel); ebenso Bezug zum Thema 'Metadaten und Suchmaschinen'
- Source
- nfd Information - Wissenschaft und Praxis. 48(1997) H.5, S.295-302
-
Preza, J.L.: Data science und analytics in libraries (2017)
0.01
0.013919895 = product of:
0.05567958 = sum of:
0.05567958 = weight(_text_:und in 3916) [ClassicSimilarity], result of:
0.05567958 = score(doc=3916,freq=10.0), product of:
0.1271084 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.057349887 = queryNorm
0.438048 = fieldWeight in 3916, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0625 = fieldNorm(doc=3916)
0.25 = coord(1/4)
- Abstract
- Bibliotheken sind in einer priviligierten Situation: Sie verwalten riesige Mengen von Daten und Informationen. Data Science und Analytics-Methoden ermöglichen es Bibliotheken, den Inhalt, den sie verwalten, voll auszunutzen, um den Nutzern bessere Informationen, Suche und Empfehlungen zu bieten.
- Source
- Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 70(2017) H.2, S.244-248
-
Strötgen, R.; Kokkelink, S.: Metadatenextraktion aus Internetquellen : Heterogenitätsbehandlung im Projekt CARMEN (2001)
0.01
0.0134778805 = product of:
0.053911522 = sum of:
0.053911522 = weight(_text_:und in 5808) [ClassicSimilarity], result of:
0.053911522 = score(doc=5808,freq=24.0), product of:
0.1271084 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.057349887 = queryNorm
0.42413816 = fieldWeight in 5808, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0390625 = fieldNorm(doc=5808)
0.25 = coord(1/4)
- Abstract
- Die Sonderfördermaßnahme CARMEN (Content Analysis, Retrieval and Metadata: Effective Networking) zielt im Rahmen des vom BMB+F geförderten Programms GLOBAL INFO darauf ab, in der heutigen dezentralen Informationsweit geeignete Informationssysteme für die verteilten Datenbestände in Bibliotheken, Fachinformationszentren und im Internet zu schaffen. Diese Zusammenführung ist weniger technisch als inhaltlich und konzeptuell problematisch. Heterogenität tritt beispielsweise auf, wenn unterschiedliche Datenbestände zur Inhaltserschließung verschiedene Thesauri oder Klassifikationen benutzen, wenn Metadaten unterschiedlich oder überhaupt nicht erfasst werden oder wenn intellektuell aufgearbeitete Quellen mit in der Regel vollständig unerschlossenen Internetdokumenten zusammentreffen. Im Projekt CARMEN wird dieses Problem mit mehreren Methoden angegangen: Über deduktiv-heuristische Verfahren werden Metadaten automatisch aus Dokumenten generiert, außerdem lassen sich mit statistisch-quantitativen Methoden die unterschiedlichen Verwendungen von Termen in den verschiedenen Beständen aufeinander abbilden, und intellektuell erstellte Crosskonkordanzen schaffen sichere Übergänge von einer Dokumentationssprache in eine andere. Für die Extraktion von Metadaten gemäß Dublin Core (v. a. Autor, Titel, Institution, Abstract, Schlagworte) werden anhand typischer Dokumente (Dissertationen aus Math-Net im PostScript-Format und verschiedenste HTML-Dateien von WWW-Servern deutscher sozialwissenschaftlicher Institutionen) Heuristiken entwickelt. Die jeweilige Wahrscheinlichkeit, dass die so gewonnenen Metadaten korrekt und vertrauenswürdig sind, wird über Gewichte den einzelnen Daten zugeordnet. Die Heuristiken werden iterativ in ein Extraktionswerkzeug implementiert, getestet und verbessert, um die Zuverlässigkeit der Verfahren zu erhöhen. Derzeit werden an der Universität Osnabrück und im InformationsZentrum Sozialwissenschaften Bonn anhand mathematischer und sozialwissenschaftlicher Datenbestände erste Prototypen derartiger Transfermodule erstellt
- Series
- Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
- Source
- Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt