-
Rusch-Feja, D.: Dublin Core Educational Metadata : Entwicklungen bei Metadaten für den Bildungsbereich (2000)
0.01
0.009998825 = product of:
0.0399953 = sum of:
0.0399953 = weight(_text_:und in 4451) [ClassicSimilarity], result of:
0.0399953 = score(doc=4451,freq=8.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.34282678 = fieldWeight in 4451, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0546875 = fieldNorm(doc=4451)
0.25 = coord(1/4)
- Abstract
- August 1999 wurde eine Arbeitsgruppe für bildungsbezogene Metadaten im Rahmen der Dublin Core Metadaten-Initiative unter der Leitung von Prof. Dr. Stuart Sutton (Gateway for Educational Materials, GEM, und School of Libraray and Information Science der University of Washington, USA und Dr. Jon Mason, Direktor des Education Network Australia, EdNA, Australien) konstituiert. Innerhalb einer Woche nach der Presseankündigung hatten sich weltweit über 70 Teilnehmer für die Arbeitsgruppe gemeldet. Ziele dieser Arbeitsgruppe sind: ... die Eingrenzungen und Erweiterungen zum Dublin Core Metadatensatz zu entwickeln, der Bildungsinformationen zum Zwecke einer besseren Quellensuche beschreibt. Es ist zu erwarten, daß die daraus resultierenden Metadaten sowohl bildungsbezogene Qualifier innerhalb des Rahmens der bestehenden Dublin Core Elemente beinhalten als auch potentiell einige, die für den Bibldungsbereich spezifisch sind
- Source
- Zeitschrift für Bibliothekswesen und Bibliographie. 47(2000) H.1, S.20-25
-
Krause, J.; Schwänzl, R.: Inhaltserschließung : Formale Beschreibung, Identifikation und Retrieval, MetaDaten, Vernetzung (1998)
0.01
0.009998825 = product of:
0.0399953 = sum of:
0.0399953 = weight(_text_:und in 4462) [ClassicSimilarity], result of:
0.0399953 = score(doc=4462,freq=2.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.34282678 = fieldWeight in 4462, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.109375 = fieldNorm(doc=4462)
0.25 = coord(1/4)
-
CARMEN : Content Analysis, Retrieval und Metadata: Effective Networking (1999)
0.01
0.009998825 = product of:
0.0399953 = sum of:
0.0399953 = weight(_text_:und in 5748) [ClassicSimilarity], result of:
0.0399953 = score(doc=5748,freq=2.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.34282678 = fieldWeight in 5748, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.109375 = fieldNorm(doc=5748)
0.25 = coord(1/4)
-
Weiss, B.: Metadaten für Online-Monographien und Online-Zeitschriften (2001)
0.01
0.009998825 = product of:
0.0399953 = sum of:
0.0399953 = weight(_text_:und in 6491) [ClassicSimilarity], result of:
0.0399953 = score(doc=6491,freq=2.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.34282678 = fieldWeight in 6491, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.109375 = fieldNorm(doc=6491)
0.25 = coord(1/4)
-
Hauff-Hartig, S.: "Im Dickicht der Einzelheiten" : Herausforderungen und Lösungen für die Erschließung (2022)
0.01
0.009998825 = product of:
0.0399953 = sum of:
0.0399953 = weight(_text_:und in 498) [ClassicSimilarity], result of:
0.0399953 = score(doc=498,freq=8.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.34282678 = fieldWeight in 498, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0546875 = fieldNorm(doc=498)
0.25 = coord(1/4)
- Abstract
- "Veränderungen sind nur das Salz des Vergnügens"- dieses Zitat aus Friedrich Schillers "Kabale und Liebe" bildete die Klammer der 38. Tagung der Arbeitsgemeinschaft der Spezialbibliotheken (ASpB), die im 75. Jahr ihres Bestehens stattfand. Im Folgenden wird ein Überblick über die Vorträge und Diskussionen des zweiten Panels gegeben, das ebenso wie die anderen Panels nach literarischen Werken benannt wurde: Wilhelm Genazinos Drama "Im Dickicht der Einzelheiten" steht als Überschrift für die künftige Erschließung in Spezialbibliotheken zwischen Vernetzung und Automatisierung. Moderiert wurde das Panel von Karin Schmidgall vom Deutschen Literaturarchiv Marbach.
-
Schweibenz, W.: Proactive Web design : Maßnahmen zur Verbesserung der Auffindbarkeit von Webseiten durch Suchmaschinen (1999)
0.01
0.009896271 = product of:
0.039585084 = sum of:
0.039585084 = weight(_text_:und in 4065) [ClassicSimilarity], result of:
0.039585084 = score(doc=4065,freq=6.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.33931053 = fieldWeight in 4065, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0625 = fieldNorm(doc=4065)
0.25 = coord(1/4)
- Abstract
- Unter proactive Web design versteht man alle Maßnahmen, welche die Auffindbarkeit von Webseiten durch Suchmaschinen verbessern und bereits im Vorfeld oder im Moment der Publikation im WWW ergriffen werden können. Diese Maßnahmen reichen von der Registrierung einer Webseite bei Suchmaschinen über die Verknüpfung mit verwandten Web-Seiten und der aussagekräftigen Gestaltung von Titeln von Webseiten bis zur Verwendung von Metadaten
- Source
- nfd Information - Wissenschaft und Praxis. 50(1999) H.7, S.389-396
-
Schroeder, K.: Persistent Identifiers im Kontext der Langzeitarchivierung : EPICUR auf dem 2. Bibliothekskongress in Leipzig (2004)
0.01
0.009896271 = product of:
0.039585084 = sum of:
0.039585084 = weight(_text_:und in 2787) [ClassicSimilarity], result of:
0.039585084 = score(doc=2787,freq=24.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.33931053 = fieldWeight in 2787, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.03125 = fieldNorm(doc=2787)
0.25 = coord(1/4)
- Abstract
- Mit elektronischem Publizieren werden folgende Eigenschaften verbunden: »schnell, kostengünstig, weltweit«. Aber ist das aus Nutzersicht bzw. aus der Perspektive der Autoren ausreichend, um eine Online-Veröffentlichung dauerhaft zu nutzen und zuverlässig zu zitieren? Ein Mechanismus, mit dem netzbasierte Publikationen eindeutig gekennzeichnet werden und jederzeit auffindbar sind, wird durch flüchtige Uniform Resource Locator (URLs) nicht bereitgestellt. Eine Lösung bieten Persistent Identifiers (Pls), wie z. B. Uniform Resource Names (URN)". Damit die Anwendung eines persistenten Adressierungsschemas wie den URNs langfristig gewährleistet werden kann, muss eine Infrastruktur mit einer institutionellen Unterstützung geschaffen werden. Ein wesentlicher Aspekt in diesem Kontext ist die Langzeitarchivierung der digitalen Objekte. Die Darstellung und Erläuterung der Schnittstellen zwischen Langzeitarchivierung und Pls sowie der damit verbundenen Aktivitäten und Ergebnisse des EPICUR-Projektes war Gegenstand des Vortrages von Kathrin Schroeder auf dem diesjährigen z. Bibliothekskongress in Leipzig im Rahmen des Workshops »Technische Aspekte der Langzeitarchivierung«". Es besteht ein enger Zusammenhang zwischen den Bereichen Pls (standortunabhängige, eindeutige Bezeichner für digitale Objekte) und Langzeitarchivierung (Maßnahmen, die dazu dienen, digitale Objekte für die Nachwelt dauerhaft zu erhalten): Pls werden als stabiler Zugriffsmechanismus für digitale Objekte verwendet, die in einem Depotsystem archiviert werden. Ein Depotsystem ist ein »( ...) Archiv für digitale Objekte, in dem Menschen und Systeme als 'Organisation' mit der Aufgabenstellung zusammenwirken, Informationen zu erhalten und einer definierten Nutzerschaft verfügbar zu machen.« Dazu gehören im erweiterten Sinne auch eine Infrastruktur vor der Eingangsschnittstelle des Depotsystems, die zum Transfer digitaler Objekte von den Produzenten in das Archiv dient, und die Infrastruktur der Endnutzer-Umgebungen hinter der Auslieferungsschnittstelle des Depotsystems, in denen die digitalen Objekte benutzt werden sollen. In diesem Umfeld werden Pls in folgenden Bereichen angewendet: - Metadaten, - Datenaustauschformate, - Automatisierte Lieferungen von Objekten in ein Archivsystem, - Depotsystem und - Nutzung von Pls als stabiler Zugriffsmechanismus auf ein Objekt als wichtigster Aspekt für den Endnutzer (Wissenschaftler und Autoren). Im Folgenden werden zu den einzelnen Bereichen die Ergebnisse des EPICUR-Projektes und die Aktivitäten Der Deutschen Bibliothek diskutiert.
-
Söhler, M.: Schluss mit Schema F (2011)
0.01
0.009896271 = product of:
0.039585084 = sum of:
0.039585084 = weight(_text_:und in 4439) [ClassicSimilarity], result of:
0.039585084 = score(doc=4439,freq=24.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.33931053 = fieldWeight in 4439, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.03125 = fieldNorm(doc=4439)
0.25 = coord(1/4)
- Abstract
- Mit Schema.org und dem semantischen Web sollen Suchmaschinen verstehen lernen
- Content
- "Wörter haben oft mehrere Bedeutungen. Einige kennen den "Kanal" als künstliche Wasserstraße, andere vom Fernsehen. Die Waage kann zum Erfassen des Gewichts nützlich sein oder zur Orientierung auf der Horoskopseite. Casablanca ist eine Stadt und ein Film zugleich. Wo Menschen mit der Zeit Bedeutungen unterscheiden und verarbeiten lernen, können dies Suchmaschinen von selbst nicht. Stets listen sie dumpf hintereinander weg alles auf, was sie zu einem Thema finden. Damit das nicht so bleibt, haben sich nun Google, Yahoo und die zu Microsoft gehörende Suchmaschine Bing zusammengetan, um der Suche im Netz mehr Verständnis zu verpassen. Man spricht dabei auch von einer "semantischen Suche". Das Ergebnis heißt Schema.org. Wer die Webseite einmal besucht, sich ein wenig in die Unterstrukturen hereinklickt und weder Vorkenntnisse im Programmieren noch im Bereich des semantischen Webs hat, wird sich überfordert und gelangweilt wieder abwenden. Doch was hier entstehen könnte, hat das Zeug dazu, Teile des Netzes und speziell die Funktionen von Suchmaschinen mittel- oder langfristig zu verändern. "Große Player sind dabei, sich auf Standards zu einigen", sagt Daniel Bahls, Spezialist für Semantische Technologien beim ZBW Leibniz-Informationszentrum Wirtschaft in Hamburg. "Die semantischen Technologien stehen schon seit Jahren im Raum und wurden bisher nur im kleineren Kontext verwendet." Denn Schema.org lädt Entwickler, Forscher, die Semantic-Web-Community und am Ende auch alle Betreiber von Websites dazu ein, an der Umgestaltung der Suche im Netz mitzuwirken. Inhalte von Websites sollen mit einem speziellen, aber einheitlichen Vokabular für die Crawler - die Analyseprogramme der Suchmaschinen - gekennzeichnet und aufbereitet werden.
Indem Schlagworte, sogenannte Tags, in den für Normal-User nicht sichtbaren Teil des Codes von Websites eingebettet werden, sind Suchmachinen nicht mehr so sehr auf die Analyse der natürlichen Sprache angewiesen, um Texte inhaltlich zu erfassen. Im Blog ZBW Mediatalk wird dies als "Semantic Web light" bezeichnet - ein semantisches Web auf niedrigster Ebene. Aber selbst das werde "schon viel bewirken", meint Bahls. "Das semantische Web wird sich über die nächsten Jahrzehnte evolutionär weiterentwickeln." Einen "Abschluss" werde es nie geben, "da eine einheitliche Formalisierung von Begrifflichkeiten auf feiner Stufe kaum möglich ist". Die Ergebnisse aus Schema.org würden "zeitnah" in die Suchmaschine integriert, "denn einen Zeitplan" gebe es nicht, so Stefan Keuchel, Pressesprecher von Google Deutschland. Bis das so weit ist, hilft der Verweis von Daniel Bahns auf die bereits existierende semantische Suchmaschine Sig.ma. Geschwindigkeit und Menge der Ergebnisse nach einer Suchanfrage spielen hier keine Rolle. Sig.ma sammelt seine Informationen allein im Bereich des semantischen Webs und listet nach einer Anfrage alles Bekannte strukturiert auf.
-
Laczny, J.: Fit for Purpose : Standardisierung von inhaltserschließenden Informationen durch Richtlinien für Metadaten (2021)
0.01
0.009896271 = product of:
0.039585084 = sum of:
0.039585084 = weight(_text_:und in 363) [ClassicSimilarity], result of:
0.039585084 = score(doc=363,freq=6.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.33931053 = fieldWeight in 363, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0625 = fieldNorm(doc=363)
0.25 = coord(1/4)
- Abstract
- Im Folgenden soll der Frage nachgegangen werden, inwiefern Bibliotheken den Qualitätsanspruch an inhaltserschließende Informationen von Ressourcen durch die Formulierung und Veröffentlichung einer bibliotheksspezifischen, übergeordneten Metadaten-Richtlinie bzw. -Policy - auch im Sinne einer Transparenzoffensive - und deren Anwendung beeinflussen können.
- Series
- Bibliotheks- und Informationspraxis; 70
-
Mittler, E.: Dublin Core und deutsche Bibliotheken (2000)
0.01
0.009582023 = product of:
0.038328093 = sum of:
0.038328093 = weight(_text_:und in 4455) [ClassicSimilarity], result of:
0.038328093 = score(doc=4455,freq=10.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.328536 = fieldWeight in 4455, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.046875 = fieldNorm(doc=4455)
0.25 = coord(1/4)
- Abstract
- Ende Oktober 1999 hat das 7. Dublin core Meeting in der Deutschen Bibliothek in Frankfurt/M. in beeindruckender Weise die Internationalität und Interdisziplinarität dieses Ansatzes zur Beschreibung elektronischer Medien verdeutlicht. Es war zugleich eine Anerkennung für die vielfältigen deutschen Aktivitäten. Anhand von Beispielen (Math-Net und Math-Bibl-Net; SSG-FI der SUB Göttingen; Südwestverbund und HBZ) werden die Zielvorstellungen von Dublin Core herausgearbeitet. Um die Auffindbarkeit der elektronischen Dokumente durch Standardisierung der Metadaten zu sichern setzt DC schon beim Autor an. Es ist u.a. gelungen, DC im Rahmen von neuen Standards wie open-e-book zu implementieren. Damit wird die Interoperabilität von Metadaten wesentlich verbessert. Die deutschen Bibliotheken haben sich erfolgreich in die internationale Entwicklung integriert. Auch die Teilnahme am OCLC-Projekt CORC trägt dazu bei. Das kann Rückwirkungen auch auf die Regeln für die Katalogisierung gedruckter Medien haben
- Source
- Zeitschrift für Bibliothekswesen und Bibliographie. 47(2000) H.1, S.46-55
-
Gömpel, R.; Altenhöner, R.; Kunz, M.; Oehlschläger, S.; Werner, C.: Weltkongress Bibliothek und Information, 70. IFLA-Generalkonferenz in Buenos Aires : Aus den Veranstaltungen der Division IV Bibliographic Control, der Core Activities ICABS und UNIMARC sowie der Information Technology Section (2004)
0.01
0.009582022 = product of:
0.03832809 = sum of:
0.03832809 = weight(_text_:und in 2874) [ClassicSimilarity], result of:
0.03832809 = score(doc=2874,freq=90.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.32853597 = fieldWeight in 2874, product of:
9.486833 = tf(freq=90.0), with freq of:
90.0 = termFreq=90.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.015625 = fieldNorm(doc=2874)
0.25 = coord(1/4)
- Abstract
- "Libraries: Tools for Education and Development" war das Motto der 70. IFLA-Generalkonferenz, dem Weltkongress Bibliothek und Information, der vom 22.-27. August 2004 in Buenos Aires, Argentinien, und damit erstmals in Lateinamerika stattfand. Rund 3.000 Teilnehmerinnen und Teilnehmer, davon ein Drittel aus spanischsprachigen Ländern, allein 600 aus Argentinien, besuchten die von der IFLA und dem nationalen Organisationskomitee gut organisierte Tagung mit mehr als 200 Sitzungen und Veranstaltungen. Aus Deutschland waren laut Teilnehmerverzeichnis leider nur 45 Kolleginnen und Kollegen angereist, womit ihre Zahl wieder auf das Niveau von Boston gesunken ist. Erfreulicherweise gab es nunmehr bereits im dritten Jahr eine deutschsprachige Ausgabe des IFLA-Express. Auch in diesem Jahr soll hier über die Veranstaltungen der Division IV Bibliographic Control berichtet werden. Die Arbeit der Division mit ihren Sektionen Bibliography, Cataloguing, Classification and Indexing sowie der neuen Sektion Knowledge Management bildet einen der Schwerpunkte der IFLA-Arbeit, die dabei erzielten konkreten Ergebnisse und Empfehlungen haben maßgeblichen Einfluss auf die tägliche Arbeit der Bibliothekarinnen und Bibliothekare. Erstmals wird auch ausführlich über die Arbeit der Core Activities ICABS und UNIMARC und der Information Technology Section berichtet.
- Content
- Bibliography Section (Sektion Bibliographie) Die Sektion befasst sich mit Inhalt, Aufbau, Produktion, Verteilung und Erhaltung von bibliographischen Informationen, in erster Linie, aber nicht ausschließlich bezogen auf Nationalbibliographien. Sie fördert die "Universal Bibliographic Control (UBC)" durch die Verbreitung von Standards und praktischen Anwendungsbeispielen.
Cataloguing Section (Sektion Katalogisierung) Der Schwerpunkt der Arbeit dieser Sektion liegt auf der Erarbeitung bzw. internationalen Harmonisierung von Strukturen, Regeln und Arbeitsverfahren mit dem Ziel, die internationale Kooperation im Katalogisierungsbereich zu verbessern. In Anbetracht des laufenden Evaluierungsprozesses wurde der Strategieplan der Sektion zum jetzigen Zeitpunkt nur dort aktualisiert, wo es unbedingt erforderlich war. Neue Ziele wurden nicht aufgenommen. Oberste Priorität bei den strategischen Zielen behielt die Entwicklung internationaler Katalogisierungsstandards für die bibliographische Beschreibung und den Zugriff. In ihrer zentralen Bedeutung bestätigt wurden auch die "Functional Requirements for Bibliographic Records" (FRBR). Darüber hinaus gehört auch in Zukunft die Weiterentwicklung und Revision der ISBDs zu den zentralen Anliegen der Arbeit der Sektion Katalogisierung. Ein weiteres vorrangiges Ziel bleibt die Erarbeitung von Standards, Regeln und Informationslisten, um den Zugang zu bibliographischen Daten in allen Sprachen zu ermöglichen. Hierzu zählen u. a.: - die vollständige Veröffentlichung der Anonymous Classics: Der Teil für europäische Literatur ist inzwischen veröffentlicht'. Für die Erarbeitung weiterer Teile (Lateinamerika, Afrika und Asien) soll das Verfahren gestrafft und ein Zeitplan erstellt werden. - die Beobachtung der Aktivitäten zu Unicode und die Information der Sektionsmitglieder darüber zur Förderung des mehrsprachigen Zugangs zu bibliographischer Information - die Entwicklung eines web-basierten multilingualen Wörterbuchs für Katalogisierungsbegriffe - die Entwicklung und der Test von (Daten-)Modellen für eine virtuelle internationale Normdatei - die Überarbeitung der "IFLA Names of persons". Das Open Programme der Sektion stand in diesem Jahr unter dem Motto "Developments in Cataloguing Guidelines" und wurde von Barbara Tillett, Lynne Howarth und Carol van Nuys bestritten. Lynne Howarth ging in ihrem Vortrag "Enabling metadata: creating a core record for resource discovery" auf die Reaktionen im weltweiten Stellungnahmeverfahren auf die Veröffentlichung des Papiers "Guidance an the Structure, Content and Application of Metadata Records for digital resources and collections" der Working Group an the Use of Metadata Schemes ein. Carol van Nuys stellte das norwegische "Paradigma Project and its quest for metadata solutions and services" vor.
Aus den Arbeitsgruppen der Cataloguing Sektion: Schwerpunkt der Arbeiten der ISBD Review Group bleibt die Fortsetzung des generellen Revisionsprojekts. 2004 konnte die revidierte ISBD(G) veröffentlicht werden Für die Revision der ISBD(A) wurde eine Study Group aus Experten für das Alte Buch gebildet. Das weltweite Stellungnahmeverfahren ist für Frühjahr 2005 geplant. Bezüglich der Revision der ISBD(ER) konnten im weltweiten Stellungnahmeverfahren aufgekommene Fragen während der Sitzungen in Buenos Aires abschließend geklärt werden. Die Veröffentlichung der neuen ISBD(ER) ist für Ende 2004 / Anfang 2005 geplant. Die Revision der ISBD(CM) ist im Rahmen einer gemeinsamen Arbeitsgruppe der ISBD Review Group und der Sektion Geographie und Karten weiter vorangekommen. Für die Revision der ISBD(NBM) soll eine eigene Study Group gebildet werden. Die FRBR Review Group konnte erste Fortschritte bei der Erreichung der im vergangenen Jahr gesetzten Ziele Erarbeitung einer Richtlinie zur Anwendung der FRBR bei der Katalogisierung, Erweiterung der FRBR-Web-Seite im IFLAnet, um bei anderen communities (Archive, Museen etc.) für das Modell zu werben, sowie Überarbeitung des FRBR-Modells vermeIden. Von den in Berlin gebildeten fünf FRBR-Arbeitsgruppen (Expression entity Working Group, Working Group an continuing resources, Working Group an teaching and training, Working Group an subject relationships and classification, Working Group an FRBR/CRM dialogue) sind einige bereits aktiv gewesen, vor allem die letztgenannte Working Group an FRBR/CRM dialogue. Die "Working Group an subject relationships and classification" soll demnächst in Zusammenarbeit mit der Classification and Indexing Section etabliert werden. Ziel hierbei ist es, die FRBR auch auf den Bereich der Inhaltserschließung auszuweiten. Die "Working Group an continuing resources" hat in Buenos Aires beschlossen, ihre Arbeit nicht fortzuführen, da die FRBR in ihrer derzeitigen Fassung "seriality" nicht ausreichend berücksichtigen. Es ist geplant, eine neue Arbeitsgruppe unter Einbeziehung ausgewiesener Experten für fortlaufende Werke zu bilden, die sich mit diesem Problem beschäftigen soll. Für das IFLA Multilingual Dictionary of Cataloguing Terms and Concepts - MulDiCat' konnten die Richtlinien für die Eingabe in die Datenbank fertig gestellt und erforderliche Änderungen in der Datenbank implementiert werden. Die Datenbank dieses IFLA-Projekts enthält mittlerweile alle englischsprachigen Definitionen des AACR2-Glossars, die deutschen Übersetzungen der AACR2-Glossar-Definitionen sowie alle ISBD-Definitionen. Im nächsten Schritt sollen Einträge für die FRBR-Terminologie ergänzt werden. Ebenso sollen Ergänzungen zu den englischen Einträgen vorgenommen werden (aus AACR, ISBD, FRBR und weiteren IFLA-Publikationen). Die Guidelines for OPAC Displays (Richtlinien zur Präsentation von Suchergebnissen im OPAC) stehen nach der Durchführung des weltweiten Stellungnahmeverfahrens zur Veröffentlichung im IFLAnet bereit. Die Working Group an OPAC Displays hat damit ihre Arbeit beendet.
Classification and Indexing Section (Sektion Klassifikation und Indexierung) Die Working Group an Guidelines for Multilingual Thesauri hat ihre Arbeit abgeschlossen, die Richtlinien werden Ende 2004 im IFLAnet zur Verfügung stehen. Die 2003 ins Leben gerufene Arbeitsgruppe zu Mindeststandards der Inhaltserschließung in Nationalbibliographien hat sich in Absprache mit den Mitgliedern des Standing Committee auf den Namen "Guidelines for minimal requirements for subject access by national bibliographic agencies" verständigt. Als Grundlage der zukünftigen Arbeit soll der "Survey an Subject Heading Languages Used in National Libraries and Bibliographies" von Magda HeinerFreiling dienen. Davon ausgehend soll eruiert werden, welche Arten von Medienwerken mit welchen Instrumentarien und in welcher Tiefe erschlossen werden. Eine weitere Arbeitsgruppe der Sektion befasst sich mit dem sachlichen Zugriff auf Netzpublikationen (Working Group an Subject Access to Web Resources). Die Veranstaltung "Implementation and adaption of global tools for subject access to local needs" fand regen Zuspruch. Drei Vortragende zeigten auf, wie in ihrem Sprachgebiet die Subject Headings der Library of Congress (LoC) übernommen werden (Development of a Spanish subject heading list und Subject indexing in Sweden) bzw. wie sich die Zusammenarbeit mit der LoC gestalten lässt, um den besonderen terminologischen Bedürfnissen eines Sprach- und Kulturraums außerhalb der USA Rechnung zu tragen (The SACO Program in Latin America). Aus deutscher Sicht verdiente der Vortrag "Subject indexing between international standards and local context - the Italian case" besondere Beachtung. Die Entwicklung eines Regelwerks zur verbalen Sacherschließung und die Erarbeitung einer italienischen Schlagwortnormdatei folgen nämlich erklärtermaßen der deutschen Vorgehensweise mit RSWK und SWD.
Knowledge Management Section (Sektion Wissensmanagement) Ziel der neuen Sektion ist es, die Entwicklung und Implementierung des Wissensmanagements in Bibliotheken und Informationszentren zu fördern. Die Sektion will dafür eine internationale Plattform für die professionelle Kommunikation bieten und damit das Thema bekannter und allgemein verständlicher machen. Auf diese Weise soll seine Bedeutung auch für Bibliotheken und die mit ihm arbeitenden Einrichtungen herausgestellt werden. IFLA-CDNL Alliance for Bibliographic Standards (ICABS) Ein Jahr nach ihrer Gründung in Berlin hat die IFLA Core Activity "IFLA-CDNL Alliance for Bibliographic Standards (ICABS)" in Buenos Aires zum ersten Mal das Spektrum ihrer Arbeitsfelder einem großen Fachpublikum vorgestellt. Die IFLA Core Activity UNIMARC, einer der Partner der Allianz, hatte am Donnerstagvormittag zu einer Veranstaltung unter dem Titel "The holdings record as a bibliographic control tool" geladen. Am Nachmittag des selben Tages fand unter dem Titel "The new IFLA-CDNL Alliance for Bibliographic Standards - umbrella for multifaceted activities: strategies and practical ways to improve international coordination" die umfassende ICABS-Veranstaltung statt, die von der Generaldirektorin Der Deutschen Bibliothek, Dr. Elisabeth Niggemann, moderiert wurde. Nachdem die Vorsitzende des Advisory Board in ihrem Vortrag auf die Entstehungsgeschichte der Allianz eingegangen war, gab sie einen kurzen Oberblick über die Organisation und die Arbeit von ICABS als Dach der vielfältigen Aktivitäten im Bereich bibliographischer Standards. Vertreter aller in ICABS zusammengeschlossener Bibliotheken stellten im Anschluss daran ihre Arbeitsbereiche und -ergebnisse vor.
Projekt "Mapping ISBDs to FRBR" Die Deutsche Bibliothek und die British Library haben im Rahmen ihrer jeweiligen Zuständigkeiten innerhalb von ICABS gemeinsam das Projekt "Mapping ISBDs to FRBR" finanziert. Beide Bibliotheken unterstützen damit die strategischen Ziele der IFLA-CDNL Allianz für bibliographische Standards. Die Deutsche Bibliothek ist innerhalb der Allianz verantwortlich für die Unterstützung der Pflege und Weiterentwicklung der ISBD, während die British Library für die Unterstützung von Pflege und Entwicklung der FRBR zuständig ist. Für die Durchführung des Projekts konnte Tom Delsey gewonnen werden, der federführender Autor der FRBR ist und Beiträge zu vielen verschiedenen Aspekten der ISBDs geliefert hat. Das Ergebnis seiner Arbeit "Mapping ISBD Elements to FRBR Entity Attributes and Relationships" steht im IFLAnet zur VerFügung (http://www.ifla.org/VII/s13/pubs/ISBD-FRBR-mappingFinal.pdf).
-
Rannharter, N.; Teetor, S.: Maintaining an image data base : a use case based on the Digital Research Archive for Byzantium (DIFAB) (2017)
0.01
0.009582023 = product of:
0.038328093 = sum of:
0.038328093 = weight(_text_:und in 3914) [ClassicSimilarity], result of:
0.038328093 = score(doc=3914,freq=10.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.328536 = fieldWeight in 3914, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.046875 = fieldNorm(doc=3914)
0.25 = coord(1/4)
- Abstract
- Mit Metadaten versehene, digital archivierte Bilder sind aufgrund ihrer hohen Komplexität eine ständige Herausforderung für den Aufbau von Metadatenstrukturen und für das Beibehalten von adäquaten Metadatenstandards in Bilddatenbanken. Besonders bei Bildern über eine materielle Kultur zeichnet sich diese Komplexität in den diversen Ebenen ab. Zur Verdeutlichung dieser Problematik dient ein einzelnes Monument mit seiner fotographischen Dokumentation als geisteswissenschaftliches Anwendungsbeispiel aus dem Digitalen Forschungsarchiv Byzanz (DiFAB) der Universität Wien. Unter der grundsätzlichen Berücksichtigung der künftigen Anforderungen und der einfachen Navigation von Metadaten beinhaltet dieser Beitrag u. a. die Herausforderungen mit den diversen analogen und digitalen Formen der Dokumentation, der historischen Geographie, der kulturspezifischen Terminologie sowie mit der kunsthistorischen Bedeutung einer exakten und unscharfen Datierung für Forschungsarchive.
- Source
- Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 70(2017) H.2, S.208-224
-
Tappenbeck, I.; Wessel, C.: CARMEN : Content Analysis, Retrieval and Metadata: Effective Net-working. Ein Halbzeitbericht (2001)
0.01
0.009474958 = product of:
0.037899833 = sum of:
0.037899833 = weight(_text_:und in 5900) [ClassicSimilarity], result of:
0.037899833 = score(doc=5900,freq=22.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.3248651 = fieldWeight in 5900, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.03125 = fieldNorm(doc=5900)
0.25 = coord(1/4)
- Abstract
- Das Projekt CARMEN startete als Sonderfördermaßnahme im Rahmen von Global lnfo im Oktober 1999 mit einer geplanten Laufzeit von 29 Monaten. Der Schwerpunkt des Projekts liegt in der Weiterentwicklung von Konzepten und Verfahren der Dokumenterschließung, die den Zugriff auf heterogene, dezentral verteilte Informationsbestände und deren Verwaltung nach gemeinsamen Prinzipien ermöglichen sollen. Dabei geht CARMEN gezielt einen anderen Weg als die meisten bisherigen Ansätze in diesem Bereich, die versuchen, Homogenität und Konsistenz in einer dezentralen Informationslandschaft technikorientiert herzustellen, indem Verfahren entwickelt werden, durch die physikalisch auf verschiedene Dokumentenräume gleichzeitig zugegriffen werden kann. Eine rein technische Parallelisierung von Zugriffsmöglichkeiten reicht jedoch nicht aus, denn das Hauptproblem der inhaltlichen, strukturellen und konzeptionellen Differenz der einzelnen Datenbestände wird damit nicht gelöst. Um diese Differenzen zu kompensieren, werden Problemlösungen und Weiterentwicklungen innerhalb des Projekts CARMEN in drei Bereichen erarbeitet: (1) Metadaten (Dokumentbeschreibung, Retrieval, Verwaltung, Archivierung) (2) Methoden des Umgangs mit der verbleibenden Heterogenität der Datenbestände (3) Retrieval für strukturierte Dokumente mit Metadaten und heterogenen Datentypen. Diese drei Aufgabenbereiche hängen eng zusammen. Durch die Entwicklungen im Bereich der Metadaten soll einerseits die verlorengegangene Konsistenz partiell wiederhergestellt und auf eine den neuen Medien gerechte Basis gestellt werden. Andererseits sollen durch Verfahren zur Heterogenitätsbehandlung Dokumente mit unterschiedlicher Datenrelevanz und Inhaltserschließung aufeinander bezogen und retrievalseitig durch ein Rechercheverfahren erganzt werden, das den unterschiedlichen Datentypen gerecht wird Innerhalb des Gesamtprojekts CARMEN werden diese Aspekte arbeitsteilig behandelt. Acht Arbeitspakete (APs) befassen sich in Abstimmung miteinander mit je verschiedenen Schwerpunkten. Um die Koordination der Arbeiten der verschiedenen APs untereinander zu unterstützen, trafen sich die ca. 40 Projektbearbeiter am 1. und 2. Februar 2001 zum "CARMEN middle OfTheRoad Workshop" in Bonn. Anlässlich dieses Workshops wurden die inhaltlichen und technischen Ergebnisse, die in der ersten Hälfte der Projektlaufzeit von den einzelnen APs erzielt worden sind, in insgesamt 17 Präsentationen vorgestellt
-
Tappenbeck, I.; Wessel, C.: CARMEN : Content Analysis, Retrieval and Metadata: Effective Net-working. Bericht über den middleOfTheRoad Workshop (2001)
0.01
0.009474958 = product of:
0.037899833 = sum of:
0.037899833 = weight(_text_:und in 5901) [ClassicSimilarity], result of:
0.037899833 = score(doc=5901,freq=22.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.3248651 = fieldWeight in 5901, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.03125 = fieldNorm(doc=5901)
0.25 = coord(1/4)
- Abstract
- Das Projekt CARMEN startete als Sonderfördermaßnahme im Rahmen von Global lnfo im Oktober 1999 mit einer geplanten Laufzeit von 29 Monaten. Der Schwerpunkt des Projekts liegt in der Weiterentwicklung von Konzepten und Verfahren der Dokumenterschließung, die den Zugriff auf heterogene, dezentral verteilte Informationsbestände und deren Verwaltung nach gemeinsamen Prinzipien ermöglichen sollen. Dabei geht CARMEN gezielt einen anderen Weg als die meisten bisherigen Ansätze in diesem Bereich, die versuchen, Homogenität und Konsistenz in einer dezentralen Informationslandschaft technikorientiert herzustellen, indem Verfahren entwickelt werden, durch die physikalisch auf verschiedene Dokumentenräume gleichzeitig zugegriffen werden kann. Eine rein technische Parallelisierung von Zugriffsmöglichkeiten reicht jedoch nicht aus, denn das Hauptproblem der inhaltlichen, strukturellen und konzeptionellen Differenz der einzelnen Datenbestände wird damit nicht gelöst. Um diese Differenzen zu kompensieren, werden Problemlösungen und Weiterentwicklungen innerhalb des Projekts CARMEN in drei Bereichen erarbeitet: (1) Metadaten (Dokumentbeschreibung, Retrieval, Verwaltung, Archivierung) (2) Methoden des Umgangs mit der verbleibenden Heterogenität der Datenbestände (3) Retrieval für strukturierte Dokumente mit Metadaten und heterogenen Datentypen. Diese drei Aufgabenbereiche hängen eng zusammen. Durch die Entwicklungen im Bereich der Metadaten soll einerseits die verlorengegangene Konsistenz partiell wiederhergestellt und auf eine den neuen Medien gerechte Basis gestellt werden. Andererseits sollen durch Verfahren zur Heterogenitätsbehandlung Dokumente mit unterschiedlicher Datenrelevanz und Inhaltserschließung aufeinander bezogen und retrievalseitig durch ein Rechercheverfahren erganzt werden, das den unterschiedlichen Datentypen gerecht wird Innerhalb des Gesamtprojekts CARMEN werden diese Aspekte arbeitsteilig behandelt. Acht Arbeitspakete (APs) befassen sich in Abstimmung miteinander mit je verschiedenen Schwerpunkten. Um die Koordination der Arbeiten der verschiedenen APs untereinander zu unterstützen, trafen sich die ca. 40 Projektbearbeiter am 1. und 2. Februar 2001 zum "CARMEN middle OfTheRoad Workshop" in Bonn. Anlässlich dieses Workshops wurden die inhaltlichen und technischen Ergebnisse, die in der ersten Hälfte der Projektlaufzeit von den einzelnen APs erzielt worden sind, in insgesamt 17 Präsentationen vorgestellt
-
Baker, T.; Rühle, S.: Übersetzung des Dublin Core Metadata Initiative Abstract Model (DCAM) (2009)
0.01
0.009448001 = product of:
0.037792005 = sum of:
0.037792005 = weight(_text_:und in 3230) [ClassicSimilarity], result of:
0.037792005 = score(doc=3230,freq=14.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.32394084 = fieldWeight in 3230, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0390625 = fieldNorm(doc=3230)
0.25 = coord(1/4)
- Abstract
- Dieses Dokument beschreibt das Abstraktmodell für Dublin-Core-Metadaten. Ziel des Dokuments ist es vor allem, die Elemente und Strukturen, die in Dublin-Core-Metadaten verwendet werden, zu benennen. Das Dokument definiert die verwendeten Elemente und beschreibt, wie sie miteinander kombiniert werden, um Informationsstrukturen zu bilden. Es stellt ein von jeglicher besonderen Codierungssyntax unabhängiges Informationsmodell dar. Ein solches Informationsmodell macht es uns möglich, die Beschreibungen, die wir codieren wollen, besser zu verstehen und erleichtert die Entwicklung besserer Mappings und syntaxübergreifender Datenkonvertierungen. Dieses Dokument richtet sich in erster Linie an Entwickler von Softwareanwendungen, die Dublin-Core-Metadaten unterstützen, an Personen, die neue syntaktische Codierungsrichtlinien für Dublin-Core-Metadaten entwickeln und an Personen, die Metadatenprofile entwickeln, die auf DCMI- oder anderen kompatibelen Vokabularen basieren. Das DCMI-Abstraktmodell basiert auf der Arbeit des World Wide Web Consortium (W3C) am Resource Description Framework (RDF). Die Verwendung von Konzepten aus RDF wird unten im Abschnitt 5 zusammengefasst. Das DCMI-Abstraktmodell wird hier mit UML-Klassen-Diagrammen dargestellt. Für Leser, die solche UML-Klassen-Diagramme nicht kennen, eine kurze Anleitung: Linien, die in einem Maßpfeil enden, werden als 'ist' oder 'ist eine' gelesen (z.B. "value ist eine resource"). Linien, die mit einer Raute beginnen, werden als 'hat' oder 'hat eine' gelesen (z.B. "statement hat einen property URI"). Andere Beziehungen werden entsprechend gekennzeichnet. Die kursiv geschriebenen Wörter und Phrasen in diesem Dokument werden im Abschnitt 7 ("Terminologie") definiert. Wir danken Dan Brickley, Rachel Heery, Alistair Miles, Sarah Pulis, den Mitgliedern des DCMI Usage Board und den Mitgliedern der DCMI Architecture Community für ihr Feedback zu den vorangegangenen Versionen dieses Dokuments.
-
Neudecker, C.; Zaczynska, K.; Baierer, K.; Rehm, G.; Gerber, M.; Moreno Schneider, J.: Methoden und Metriken zur Messung von OCR-Qualität für die Kuratierung von Daten und Metadaten (2021)
0.01
0.009448001 = product of:
0.037792005 = sum of:
0.037792005 = weight(_text_:und in 369) [ClassicSimilarity], result of:
0.037792005 = score(doc=369,freq=14.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.32394084 = fieldWeight in 369, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0390625 = fieldNorm(doc=369)
0.25 = coord(1/4)
- Abstract
- Durch die systematische Digitalisierung der Bestände in Bibliotheken und Archiven hat die Verfügbarkeit von Bilddigitalisaten historischer Dokumente rasant zugenommen. Das hat zunächst konservatorische Gründe: Digitalisierte Dokumente lassen sich praktisch nach Belieben in hoher Qualität vervielfältigen und sichern. Darüber hinaus lässt sich mit einer digitalisierten Sammlung eine wesentlich höhere Reichweite erzielen, als das mit dem Präsenzbestand allein jemals möglich wäre. Mit der zunehmenden Verfügbarkeit digitaler Bibliotheks- und Archivbestände steigen jedoch auch die Ansprüche an deren Präsentation und Nachnutzbarkeit. Neben der Suche auf Basis bibliothekarischer Metadaten erwarten Nutzer:innen auch, dass sie die Inhalte von Dokumenten durchsuchen können. Im wissenschaftlichen Bereich werden mit maschinellen, quantitativen Analysen von Textmaterial große Erwartungen an neue Möglichkeiten für die Forschung verbunden. Neben der Bilddigitalisierung wird daher immer häufiger auch eine Erfassung des Volltextes gefordert. Diese kann entweder manuell durch Transkription oder automatisiert mit Methoden der Optical Character Recognition (OCR) geschehen (Engl et al. 2020). Der manuellen Erfassung wird im Allgemeinen eine höhere Qualität der Zeichengenauigkeit zugeschrieben. Im Bereich der Massendigitalisierung fällt die Wahl aus Kostengründen jedoch meist auf automatische OCR-Verfahren.
- Series
- Bibliotheks- und Informationspraxis; 70
-
Söhler, M.: "Dumm wie Google" war gestern : semantische Suche im Netz (2011)
0.01
0.009353044 = product of:
0.037412178 = sum of:
0.037412178 = weight(_text_:und in 4440) [ClassicSimilarity], result of:
0.037412178 = score(doc=4440,freq=28.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.3206851 = fieldWeight in 4440, product of:
5.2915025 = tf(freq=28.0), with freq of:
28.0 = termFreq=28.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.02734375 = fieldNorm(doc=4440)
0.25 = coord(1/4)
- Abstract
- "Casablanca" bringt bei der Google-Suche Millionen Ergebnisse. Ist die Stadt gemeint oder der Film? Suchmaschinen sind dumm und schnell. Schema.org will das ändern.
- Content
- "6.500 Einzelsprachen so zu verstehen, dass noch die dümmsten Maschinen sie in all ihren Sätzen, Wörtern, Bedeutungen nicht nur erfassen, sondern auch verarbeiten können - das ist ein komplexer Vorgang, an dem große Teile des Internets inklusive fast aller Suchmaschinen bisher gescheitert sind. Wem schon der gerade gelesene Satz zu komplex erscheint, dem sei es einfacher ausgedrückt: Erstmal geht es um "Teekesselchen". Wörter haben oft mehrere Bedeutungen. Einige kennen den "Kanal" als künstliche Wasserstraße, andere kennen ihn vom Zappen am Fernsehgerät. Die Waage kann zum Erfassen des Gewichts nützlich sein oder zur Orientierung auf der Horoskopseite einer Zeitung. Casablanca ist eine Stadt und ein Film zugleich. Wo Menschen mit der Zeit zu unterscheiden lernen, lernen dies Suchmaschinen von selbst nicht. Nach einer entsprechenden Eingabe listen sie dumpf hintereinander weg alles auf, was sie zum Thema finden können. "Dumm wie Google", könnte man sagen, "doof wie Yahoo" oder "blöd wie Bing". Damit das nicht so bleibt, haben sich nun Google, Yahoo und die zu Microsoft gehörende Suchmaschine Bing zusammengetan, um der Suche im Netz mehr Verständnis zu verpassen. Man spricht dabei auch von einer "semantischen Suche". Das Ergebnis heißt Schema.org. Wer die Webseite einmal besucht, sich ein wenig in die Unterstrukturen hereinklickt und weder Vorkenntnisse im Programmieren noch im Bereich des semantischen Webs hat, wird sich überfordert und gelangweilt wieder abwenden.
- Neue Standards Doch was hier entstehen könnte, hat das Zeug dazu, Teile des Netzes und speziell die Funktionen von Suchmaschinen mittel- oder langfristig zu verändern. "Große Player sind dabei, sich auf Standards zu einigen", sagt Daniel Bahls, Spezialist für Semantische Technologien beim ZBW Leibniz-Informationszentrum Wirtschaft in Hamburg. "Die semantischen Technologien stehen schon seit Jahren im Raum und wurden bisher nur im kleineren Kontext verwendet." Denn Schema.org lädt Entwickler, Forscher, die Semantic-Web-Community und am Ende auch alle Betreiber von Websites dazu ein, an der Umgestaltung der Suche im Netz mitzuwirken. "Damit wollen Google, Bing und Yahoo! dem Info-Chaos im WWW den Garaus machen", schreibt André Vatter im Blog ZBW Mediatalk. Inhalte von Websites sollen mit einem speziellen, aber einheitlichen Vokabular für die Crawler der Suchmaschinen gekennzeichnet und aufbereitet werden. Indem Schlagworte, so genannte Tags, in den Code von Websites eingebettet werden, sind Suchmachinen nicht mehr so sehr auf die Analyse der natürlichen Sprache angewiesen, um Texte inhaltlich zu erfassen. Im Blog wird dies als "Semantic Web light" bezeichnet - ein semantisches Web auf niedrigster Ebene. Aber selbst das werde "schon viel bewirken", meint Bahls. "Das semantische Web wird sich über die nächsten Jahrzehnte evolutionär weiterentwickeln." Einen "Abschluss" werde es nie geben, "da eine einheitliche Formalisierung von Begrifflichkeiten auf feiner Stufe kaum möglich ist."
- "Gemeinsames Format für strukturierte Daten" Aber warum sollten Google, Yahoo und Bing plötzlich zusammenarbeiten, wo doch bisher die Konkurrenz das Verhältnis prägte? Stefan Keuchel, Pressesprecher von Google Deutschland, betont, alle beteiligten Unternehmen wollten "ein deutliches Zeichen setzen, um die Qualität der Suche zu verbessern". Man entwickele "ein gemeinsames Format für strukturierte Daten, mit dem Dinge ermöglicht werden, die heute noch nicht möglich sind - Stichwort: semantische Suche". Die Ergebnisse aus Schema.org würden "zeitnah" in die Suchmaschine integriert, "denn einen Zeitplan" gebe es nicht. "Erst mit der Einigung auf eine gemeinsame Sprache können Suchmaschinen einen Mehrwert durch semantische Technologien generieren", antwortet Daniel Bahls auf die Frage nach Gemeinsamkeit und Konkurrenz der Suchmaschinen. Er weist außerdem darauf hin, dass es bereits die semantische Suchmaschine Sig.ma gibt. Geschwindigkeit und Menge der Ergebnisse nach einer Suchanfrage spielen hier keine Rolle. Sig.ma sammelt seine Informationen allein im Bereich des semantischen Webs und listet nach einer Anfrage alles Bekannte strukturiert auf."
-
Becker, H.-J.; Hengel, C.; Neuroth, H.; Weiß, B.; Wessel, C.: ¬Die Virtuelle Fachbibliothek als Schnittstelle für eine fachübergreifende Suche in den einzelnen Virtuellen Fachbibliotheken : Definition eines Metadaten-Kernsets (VLib Application Profile) (2002)
0.01
0.00874715 = product of:
0.0349886 = sum of:
0.0349886 = weight(_text_:und in 2856) [ClassicSimilarity], result of:
0.0349886 = score(doc=2856,freq=12.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.29991096 = fieldWeight in 2856, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0390625 = fieldNorm(doc=2856)
0.25 = coord(1/4)
- Abstract
- Der folgende Beitrag beschäftigt sich nicht mit einer konkreten Virtuellen Fachbibliothek, sondern mit dem übergreifenden Themenkomplex "Metadaten" und der Fragestellung, wie Metadaten für eine fachübergreifende Suche über alle Virtuellen Fachbibliotheken eingesetzt werden können. Im Rahmen des Aufbaus der Virtuellen Fachbibliotheken hat die Projektkoordinierung Unterarbeitsgruppen zur Lösung spezifischer Fragestellungen ins Leben gerufen. Der Arbeitsbereich "Metadaten" ist von dem von der DFG geförderten Projekt META-LIB (Metadaten-Initiative deutscher Bibliotheken) mit den Teilprojekten an Der Deutschen Bibliothek und der SUB Göttingen übernommen worden. META-LIB erhielt die Aufgabe, "Empfehlungen zur Definition eines Metadaten-Core-Sets für die verteilte Suche über die Virtuellen Fachbibliotheken" zu entwickeln. Im folgenden werden die Empfehlungen vorgestellt. Sie basieren auf den Ergebnissen und der Auswertung von Antworteng eines Internet-Fragebogens, in dem die Datenelemente erfragt wurden, die in den einzelnen Virtuellen Fachbibliotheken zur Erschließung verwendet bzw. benötigt werden. Für die Formulierung der Empfehlungen und zur Abstimmung sind zwei MetadatenWorkshops (am 16. Mai 2001 in der SUB Göttingen und am 9./10. August 2001 in der Deutschen Bibliothek Frankfurt am Main) durchgeführt worden, deren Ergebnisse und Diskussionen als Grundlage dienen.
-
Schwänzl, R.: Modulare MetaDaten (2000)
0.01
0.008659236 = product of:
0.034636945 = sum of:
0.034636945 = weight(_text_:und in 4461) [ClassicSimilarity], result of:
0.034636945 = score(doc=4461,freq=6.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.2968967 = fieldWeight in 4461, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0546875 = fieldNorm(doc=4461)
0.25 = coord(1/4)
- Abstract
- Die Syntax des HTML Meta-Tags erlaubt die Darstellung von Grundinformationen über Ressourcen. Jedoch schon bei einfachen Gruppierungsanforderungen werden Absprachen erforderlich, die keinen Rückhalt in der HTML Spezifikation haben und deshalb nicht mehr maschinenverstehbar sind. Die bereits auf der zweiten Dublin Core Tagung beschriebene Notwendigkeit der Modularität von Metadaten (Warwick Framework) (Verfeinerung und Erweiterung von Dublin Core, Zielsetzungen außerhalb eines eng verstandenen Resource Discovery, Bezüge zwischen Vokabularen) kann in zufriedenstellender Form mit dem Meta-Tag nicht implementiert werden. Fortschritte auch für die semantische Interoperabilität lassen sich durch den Einsatz des vom W3 Konsortium definierten Resource Description Framework (RDF) Schema erzielen
- Source
- Zeitschrift für Bibliothekswesen und Bibliographie. 47(2000) H.1, S.87-94
-
Wolf, S.; Hartmann, S.; Fischer, T.; Rühle, S.: Deutsche Übersetzung des DCMI-type-vocabulary (2009)
0.01
0.008659236 = product of:
0.034636945 = sum of:
0.034636945 = weight(_text_:und in 3228) [ClassicSimilarity], result of:
0.034636945 = score(doc=3228,freq=6.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.2968967 = fieldWeight in 3228, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0546875 = fieldNorm(doc=3228)
0.25 = coord(1/4)
- Abstract
- Das DCMI Type Vocabulary ist ein kontrolliertes Vokabular für Objekttypen. Es unterstützt die Interoperabilität durch die Vorgabe von Termen, die als Wert für das Dublin Core Type Element anwendungsübergreifend genutzt werden können. Das Vokabular setzt sich aus 12 allgemeinen Termen zusammen, die gleichzeitig auch Teil der umfangreicheren DCMI Metadata Terms sind. Die vorliegende Übersetzung entstand auf Anfrage und in Zusammenarbeit mit einer Arbeitsgruppe der DINI-AG Elektronisches Publizieren, die im Kontext der Weiterentwicklung von XMetaDiss zu XmetaDissPlus und dem DINI-Zertifikat ein "Gemeinsames Vokabular für Publikations- und Dokumenttpyen" erarbeitet hat. Dieses Vokabular stützt sich auf die vorhandenen, international verbreiteten Vorgaben, insbesondere das vorliegende DCMI Type Vocabulary sowie das Publication Type Vocabulary der Driver Guidelines.