Search (77 results, page 3 of 4)

  • × theme_ss:"Normdateien"
  1. Gömpel, R.: Standardisierungsarbeit für Bibliotheken : Konzept der Deutschen Bibliothek (2001) 0.01
    0.010349605 = product of:
      0.04139842 = sum of:
        0.04139842 = weight(_text_:und in 6128) [ClassicSimilarity], result of:
          0.04139842 = score(doc=6128,freq=2.0), product of:
            0.12075608 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.054483794 = queryNorm
            0.34282678 = fieldWeight in 6128, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=6128)
      0.25 = coord(1/4)
    
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 48(2001) H.5, S.294-301
  2. Förster, F.: Zuweisung von Katalogdatensätzen an Personennormdatensätze mittels Wahrscheinlichkeiten (2020) 0.01
    0.010349605 = product of:
      0.04139842 = sum of:
        0.04139842 = weight(_text_:und in 42) [ClassicSimilarity], result of:
          0.04139842 = score(doc=42,freq=8.0), product of:
            0.12075608 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.054483794 = queryNorm
            0.34282678 = fieldWeight in 42, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=42)
      0.25 = coord(1/4)
    
    Abstract
    Im Juni 2020 werden die Tn-Sätze in der Gemeinsamen Normdatei (GND) gelöscht. Die Tp-Sätze für eindeutig identifizierbare Personen bleiben im Bereich des Personenbestandes übrig. Dieser Beitrag soll eine Anreicherung und Bereinigung der Personennamensdatensätze mittels Wahrscheinlichkeiten auf der Datenbasis von GND und k10plus anregen. Zu jedem Tp-Satz kann ein Profil aus verknüpften Informationen erstellt werden: z. B. über Stichwörter, fachliche Schwerpunkte, Ko-Autoren, Zeiten und Orte usw. Im gleichen Maß können abgrenzbare Profile für Tn-Sätze per Algorithmus erkannt werden. Zusätzlich könnten bestehende Verknüpfungen von Personen- in Titeldatensätzen Fehlzuweisungen aufspüren. Die Folgen eines solchen Verfahrens wären eine retrospektive Anreichung des Altbestandes und eine präzisere Ausgestaltung des Katalogs.
  3. Aleksander, K.: Wie steht es um die geschlechtersensible Beschlagwortung in der Gemeinsamen Normdatei (2022) 0.01
    0.010243452 = product of:
      0.04097381 = sum of:
        0.04097381 = weight(_text_:und in 576) [ClassicSimilarity], result of:
          0.04097381 = score(doc=576,freq=6.0), product of:
            0.12075608 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.054483794 = queryNorm
            0.33931053 = fieldWeight in 576, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=576)
      0.25 = coord(1/4)
    
    Abstract
    Die Gemeinsame Normdatei liefert normierte Sachbegriffe für die Inhaltserschließung von Publikationen. Als historisch gewachsenes System kontrollierten Vokabulars ist sie selbst Produkt der Wissensproduktion, die sie widerspiegelt. Seit über 30 Jahren fordert die Geschlechterforschung dieses System heraus und hinterfragt seine androzentrische Basis. In dem Artikel werden einige historische und aktuelle Beispiele diskutiert sowie Möglichkeiten offeriert, wie Sachbegriffe künftig geschlechtersensibel definiert werden können.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 75(2022) H.1, S.243-261
  4. Haffner, A.: Internationalisierung der GND durch das Semantic Web (2012) 0.01
    0.010020962 = product of:
      0.040083848 = sum of:
        0.040083848 = weight(_text_:und in 318) [ClassicSimilarity], result of:
          0.040083848 = score(doc=318,freq=30.0), product of:
            0.12075608 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.054483794 = queryNorm
            0.33194062 = fieldWeight in 318, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=318)
      0.25 = coord(1/4)
    
    Abstract
    Seit Bestehen der Menschheit sammelt der Mensch Informationen, seit Bestehen des Internets stellt der Mensch Informationen ins Web, seit Bestehen des Semantic Webs sollen auch Maschinen in die Lage versetzt werden mit diesen Informationen umzugehen. Das Bibliothekswesen ist einer der Sammler. Seit Jahrhunderten werden Kataloge und Bibliografien sowie Inventarnachweise geführt. Mit der Aufgabe des Zettelkatalogs hin zum Onlinekatalog wurde es Benutzern plötzlich möglich in Beständen komfortabel zu suchen. Durch die Bereitstellung von Daten aus dem Bibliothekswesen im Semantic Web sollen nicht nur die eigenen Katalogsysteme Zugriff auf diese Informationen erhalten, sondern jede beliebige Anwendung, die auf das Web zugreifen kann. Darüber hinaus ist die Vorstellung, dass sich die im Web befindenden Daten - in sofern möglich - miteinander verlinken und zu einem gigantischen semantischen Netz werden, das als ein großer Datenpool verwendet werden kann. Die Voraussetzung hierfür ist wie beim Übergang zum Onlinekatalog die Aufbereitung der Daten in einem passenden Format. Normdaten dienen im Bibliothekswesen bereits dazu eine Vernetzung der unterschiedlichen Bestände zu erlauben. Bei der Erschließung eines Buches wird nicht bloß gesagt, dass jemand, der Thomas Mann heißt, der Autor ist - es wird eine Verknüpfung vom Katalogisat zu dem Thomas Mann erzeugt, der am 6. Juni 1875 in Lübeck geboren und am 12. August 1955 in Zürich verstorben ist. Der Vorteil von Normdateneintragungen ist, dass sie zum eindeutigen Nachweis der Verfasserschaft oder Mitwirkung an einem Werk beitragen. Auch stehen Normdateneintragungen bereits allen Bibliotheken für die Nachnutzung bereit - der Schritt ins Semantic Web wäre somit die Öffnung der Normdaten für alle denkbaren Nutzergruppen.
    Die Gemeinsame Normdatei (GND) ist seit April 2012 die Datei, die die im deutschsprachigen Bibliothekswesen verwendeten Normdaten enthält. Folglich muss auf Basis dieser Daten eine Repräsentation für die Darstellung als Linked Data im Semantic Web etabliert werden. Neben der eigentlichen Bereitstellung von GND-Daten im Semantic Web sollen die Daten mit bereits als Linked Data vorhandenen Datenbeständen (DBpedia, VIAF etc.) verknüpft und nach Möglichkeit kompatibel sein, wodurch die GND einem internationalen und spartenübergreifenden Publikum zugänglich gemacht wird. Dieses Dokument dient vor allem zur Beschreibung, wie die GND-Linked-Data-Repräsentation entstand und dem Weg zur Spezifikation einer eignen Ontologie. Hierfür werden nach einer kurzen Einführung in die GND die Grundprinzipien und wichtigsten Standards für die Veröffentlichung von Linked Data im Semantic Web vorgestellt, um darauf aufbauend existierende Vokabulare und Ontologien des Bibliothekswesens betrachten zu können. Anschließend folgt ein Exkurs in das generelle Vorgehen für die Bereitstellung von Linked Data, wobei die so oft zitierte Open World Assumption kritisch hinterfragt und damit verbundene Probleme insbesondere in Hinsicht Interoperabilität und Nachnutzbarkeit aufgedeckt werden. Um Probleme der Interoperabilität zu vermeiden, wird den Empfehlungen der Library Linked Data Incubator Group [LLD11] gefolgt.
    Im Kapitel Anwendungsprofile als Basis für die Ontologieentwicklung wird die Spezifikation von Dublin Core Anwendungsprofilen kritisch betrachtet, um auszumachen wann und in welcher Form sich ihre Verwendung bei dem Vorhaben Bereitstellung von Linked Data anbietet. In den nachfolgenden Abschnitten wird die GND-Ontologie, welche als Standard für die Serialisierung von GND-Daten im Semantic Web dient, samt Modellierungsentscheidungen näher vorgestellt. Dabei wird insbesondere der Technik des Vocabulary Alignment eine prominente Position eingeräumt, da darin ein entscheidender Mechanismus zur Steigerung der Interoperabilität und Nachnutzbarkeit gesehen wird. Auch wird sich mit der Verlinkung zu externen Datensets intensiv beschäftigt. Hierfür wurden ausgewählte Datenbestände hinsichtlich ihrer Qualität und Aktualität untersucht und Empfehlungen für die Implementierung innerhalb des GND-Datenbestandes gegeben. Abschließend werden eine Zusammenfassung und ein Ausblick auf weitere Schritte gegeben.
  5. Frank, N.: ¬Die Renovierung der ethnologischen Terminologie in der Schlagwortnormdatei (2008) 0.01
    0.00991818 = product of:
      0.03967272 = sum of:
        0.03967272 = weight(_text_:und in 2350) [ClassicSimilarity], result of:
          0.03967272 = score(doc=2350,freq=10.0), product of:
            0.12075608 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.054483794 = queryNorm
            0.328536 = fieldWeight in 2350, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2350)
      0.25 = coord(1/4)
    
    Abstract
    Die vorliegende Arbeit beschäftigt sich mit der ethnologischen Terminologie in der Schlagwortnormdatei und zeigt dabei grundsätzliche Probleme der verbalen Sacherschließung und der SWD im Allgemeinen sowie der ethnologischen Terminologie im Besonderen auf. Ausgehend von den Suchbedarfen der Benutzer/innen, die anhand der Kernthemen von Völkerkunde und Volkskunde abgesteckt werden, wird gefragt, inwieweit die ethnologische Terminologie in der SWD diese Bedürfnisse erfüllen kann. Dabei wird festgestellt, dass die Sachgruppen der SWD die Ethnologien auf die Erforschung des weit Entfernten oder des Vergangenen beschränken und ethnologische Forschungen z.B. zum kulturellen Wandel, zu Migration oder zu städtischem Leben durch die SWD schlecht abgebildet werden. Problematisch für die Suche nach ethnologischer Literatur ist auch die unzureichende Relationierung von Schlagwörtern sowie besonders das Fehlen von Top Terms, von denen aus eine immer feiner werdende Suche möglich würde. Als erste Schritte zur Verbesserung der ethnologischen Terminologie schlägt die Arbeit einige Top Terms vor und zeigt vollständige Relationierungen beispielhaft auf.
  6. ORCID (2015) 0.01
    0.00991818 = product of:
      0.03967272 = sum of:
        0.03967272 = weight(_text_:und in 1870) [ClassicSimilarity], result of:
          0.03967272 = score(doc=1870,freq=10.0), product of:
            0.12075608 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.054483794 = queryNorm
            0.328536 = fieldWeight in 1870, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1870)
      0.25 = coord(1/4)
    
    Content
    ORCID soll die elektronische Zuordnung von Publikation und Autoren ermöglichen. Dies ist notwendig, da verschiedene Autoren gleiche Namen haben können, Namen sich ändern (z. B. bei Heirat) und Namen in verschiedenen Publikationen unterschiedlich angegeben werden (z. B. einmal die ausgeschriebenen Vornamen, ein anderes Mal aber nur die Initialen). ORCID soll zum De-facto-Standard für die Autorenidentifikation wissenschaftlicher Publikationen werden. Die Etablierung wird von der Non-Profit-Organisation Open Researcher Contributor Identification Initiative organisiert. Zu den Gründungsmitgliedern der Initiative gehören zahlreiche wissenschaftliche Verlagsgruppen (z. B. Elsevier, Nature Publishing Group, Springer) und Forschungsorganisationen (z. B. EMBO, CERN). Die Planungen für ORCID wurden 2010 auf Umfragen gestützt. ORCID ging am 16. Oktober 2012 offiziell an den Start. Am Jahresende 2012 hatte ORCID 42.918 Registrierte, Jahresende 2013 waren es 460.000 Registrierte und im November 2014 hatte ORCID 1 Million Autorenidentifikationen ausgestellt. Vgl. auch den Zusammenhang mit der GND und den Erfassungsleitfaden der DNB unter: https://wiki.dnb.de/x/vYYGAw.
  7. Hartmann, S.; Pampel, H.: GND und ORCID : Brückenschlag zwischen zwei Systemen zur Autorenidentifikation (2017) 0.01
    0.00991818 = product of:
      0.03967272 = sum of:
        0.03967272 = weight(_text_:und in 5115) [ClassicSimilarity], result of:
          0.03967272 = score(doc=5115,freq=10.0), product of:
            0.12075608 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.054483794 = queryNorm
            0.328536 = fieldWeight in 5115, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5115)
      0.25 = coord(1/4)
    
    Abstract
    Die Uneindeutigkeit von Personennamen erschwert im Rahmen der bibliothekarischen Erschließung die eindeutige Zuordnung von Autorinnen und Autoren zu ihren Werken. Bibliotheken im deutschsprachigen Raum adressieren das Problem der Mehrdeutigkeit von Namen durch den Einsatz der Gemeinsamen Normdatei (GND). Die internationale Initiative ORCID (Open Researcher and Contributor ID) verfolgt das gleiche Ziel. Akteur ist hier jedoch die einzelne Wissenschaftlerin oder der einzelne Wissenschaftler. Das Projekt "ORCID DE - Förderung der Open Researcher and Contributor ID in Deutschland" hat sich, dank der Förderung der Deutschen Forschungsgemeinschaft (DFG), unter anderem zum Ziel gesetzt, einen Brückenschlag zwischen den beiden Systemen - GND und ORCID - zu schaffen, um damit die Datenqualität beider Systeme wechselseitig zu erhöhen. Der vorliegende Beitrag gibt einen Überblick über ORCID und das Projekt ORCID DE. Dabei wird insbesondere auf die angestrebte Verlinkung von GND und ORCID eingegangen.
  8. Behrens, R.: Version 1.1 der RNAB erschienen (2022) 0.01
    0.00991818 = product of:
      0.03967272 = sum of:
        0.03967272 = weight(_text_:und in 803) [ClassicSimilarity], result of:
          0.03967272 = score(doc=803,freq=10.0), product of:
            0.12075608 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.054483794 = queryNorm
            0.328536 = fieldWeight in 803, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=803)
      0.25 = coord(1/4)
    
    Abstract
    Mailtext: "die Arbeitsgruppe RNAB des Standardisierungsausschusses freut sich, die Aktualisierung der 2019 erstmals veröffentlichten "Ressourcenerschließung mit Normdaten für Archive und Bibliotheken, (RNAB)" vorzulegen. Die hier präsentierte Version 1.1 ist keine grundsätzlich neue Fassung dieses Regelwerks. Es wurden überwiegend kleine Korrekturen und Ergänzungen im Text vorgenommen. Größere Veränderungen gibt es lediglich bei der stärkeren Abgrenzung des Werkbegriffs gegenüber der RDA und beim kontrollierten Vokabular. Schließlich behandelt das Regelwerk nunmehr die Nachlassbibliotheken als eigenständigen Sammelschwerpunkt. Sie finden die aktualisiert Version 1.1 auf der Website der Deutschen Nationalbibliothek unter DNB - Standards<https://www.dnb.de/DE/Professionell/Standardisierung/Standards/standards_node.html>. Um die Änderungen leichter nachvollziehen zu können, wird zusätzlich eine Fassung mit Markierungen zur Verfügung gestellt. Der Standardisierungsausschuss hat der Aktualisierung in seiner Sitzung im Dezember 2021 zugestimmt und die RNAB zur Anwendung empfohlen. Ein besonderer Dank geht an das Redaktionsteam der RNAB: Martin Wedl (Österreichische Nationalbibliothek), Ralf Breslau (Staatsbibliothek zu Berlin) und Rudolf Probst (Schweizerische Nationalbibliothek)."
  9. Bee, G.; Horstkotte, M.; Jahns, Y.; Karg, H.; Nadj-Guttandin, J.: Wissen, was verbindet: . O-Bib. Das Offene Bibliotheksjournal / Herausgeber VDB, 10(1), 1-15. : GND-Arbeit zwischen Terminologie und Redaktion (2023) 0.01
    0.00991818 = product of:
      0.03967272 = sum of:
        0.03967272 = weight(_text_:und in 934) [ClassicSimilarity], result of:
          0.03967272 = score(doc=934,freq=10.0), product of:
            0.12075608 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.054483794 = queryNorm
            0.328536 = fieldWeight in 934, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=934)
      0.25 = coord(1/4)
    
    Abstract
    Die Gemeinsame Normdatei (GND) ist aus dem Bibliothekswesen nicht mehr wegzudenken und wird künftig verstärkt auch in anderen Einrichtungen aus Kultur und Wissenschaft zum Einsatz kommen. Von entscheidender Bedeutung für ihre Weiterentwicklung ist die kooperative Redaktionstätigkeit der im deutschsprachigen Raum tätigen Verbundpartner*innen, die im vorliegenden Beitrag näher vorgestellt wird. Nach einem kurzen historischen Überblick werden die Schwerpunkte und Besonderheiten der gegenwärtigen Terminologiearbeit anhand von Beispielen veranschaulicht. Im Anschluss daran wird der Frage nachgegangen, wie die Redaktionsarbeit an der GND an zukünftige Herausforderungen (z. B. den zunehmenden Einsatz maschineller Erschließung und die Vernetzung mit anderen Vokabularen) angepasst werden kann.
  10. Virtual International Authority File wächst : VIAF-Projekt um französische Normdaten erweitert (2007) 0.01
    0.009779457 = product of:
      0.039117828 = sum of:
        0.039117828 = weight(_text_:und in 764) [ClassicSimilarity], result of:
          0.039117828 = score(doc=764,freq=14.0), product of:
            0.12075608 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.054483794 = queryNorm
            0.32394084 = fieldWeight in 764, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=764)
      0.25 = coord(1/4)
    
    Content
    "Die Deutsche Nationalbibliothek, die Bibliotheque nationale de France, die Library of Congress und das Online Computer Library Center (OCLC) sind übereingekommen, gemeinsam das "Virtual International Authority File (VIAF)", eine Virtuelle Internationale Normdatei, aufzubauen und fortzuentwickeln. Die einzelnen Normdateien sollen im VIAF virtuell zu einem gemeinsamen Normdaten-Service integriert werden, der den Zugang zu den Namen aller einbezogenen Normdateien bietet. Die Vereinbarung baut auf einem vorausgegangenen Forschungsprojekt auf, in dem die Deutsche Nationalbibliothek gemeinsam mit der Library of Congress und OCLC durch die Zusammenführung ihrer Personennamendateien nachgewiesen haben, dass der Aufbau eines Virtual International Authority File auch unter den Bedingungen großer Datenbestände machbar ist. Mit der neuen Kooperationsvereinbarung stößt die Bibliotheque nationale de France hinzu, und der VIAF wird um die französischen Normdaten erweitert. Die Matching-Routinen werden weiterhin von OCLC entwickelt. Langfristig zielt das VIAF-Projekt darauf ab, die Normdateien möglichst vieler Bibliotheken zu einem globalen VIAF-Service zu integrieren, der für die Nutzer im Web weltweit frei zugänglich ist. Die Erweiterung um die französischen Normdaten stellt einen Meilenstein auf dem Weg in diese Zukunft dar. Die Vereinbarung bietet zudem den organisatorischen Rahmen, weitere Normdateien einbeziehen zu können. Der VIAF stellt einen wichtigen Baustein zur Interoperabilität zwischen den bibliothekarischen Nachweissystemen dar. Durch die Verlinkung der unterschiedlichen Namensformen für identische Personen bzw. Organisationen wird der VIAF schon in der nahen Zukunft die Recherche- und Nachnutzungsmöglichkeiten für Titeldaten aus dem englisch-, französisch- und deutschsprachigen Raum entscheidend verbessern, und es steht zu erwarten, dass er in den kommenden Jahren für eine sogar noch größere Zahl von Sprachgemeinschaften dieselben Vorteile bringen wird."
  11. Behrens-Neumann, R.: Aus der 56. Sitzung der Arbeitsgemeinschaft der Verbundsysteme am 23. April 2009 in Wien : ein Bericht (2009) 0.01
    0.009779457 = product of:
      0.039117828 = sum of:
        0.039117828 = weight(_text_:und in 3041) [ClassicSimilarity], result of:
          0.039117828 = score(doc=3041,freq=14.0), product of:
            0.12075608 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.054483794 = queryNorm
            0.32394084 = fieldWeight in 3041, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3041)
      0.25 = coord(1/4)
    
    Abstract
    Am 23. April 2009 fand die 56. Sitzung der Arbeitsgemeinschaft der Verbundsysteme auf Einladung der Österreichischen Bibliothekenverbund und Service G.m.b.H. (OBVSG) in Wien statt.
    Content
    Darin auch ein Abschnitt zu CrissCross: "Ziel des Projekts ist die Schaffung eines multilingualen, thesaurusbasierten und benutzerorientierten Recherchevokabulars zu heterogen erschlossenen Dokurrenten für die Nutzer des deutschen wissenschaftlichen Bibliothekswesens. Dazu werden die Sachschlagwörter der SWD mit den Notationen der Dewey Dezimalklassifikation verbunden sowie mit ihren Äquivalenten in LCSH und Rameau verknüpft. Das Projektende ist nach Verlängerung des Projektantrags April 2010. In dem Berichtszeitraum wurde die Vergabe von DDC-Notationen für SWD-Terme in dem Katalogisierungsclient WinIBW fortgeführt. Änderungen in dem Redaktionsverfahren der SWD, das im ONS-Projekt eingeführt worden ist, haben sich auf die Arbeitsweise und den Workflow des CrissCross-Projektes ausgewirkt und mussten entsprechend angepasst werden. Nach wie vor steht DNB in Kontakt mit den Betreibern der MACS-Datenbank, die als Arbeitsumgebung für die Verlinkung der multilingualen Terme genutzt werden soll. Im Berichtszeitraum wurden keine größeren IT-Aktivitäten notwendig. Ab April 2009 wird die eigentliche Verlinkungsarbeit beginnen und dann sind auch begleitende IT-Maßnahmen zu erwarten."
    Footnote
    Darin Abschnitte zu: - Umstieg auf MARC21 - Auswirkungen von RDA auf MARC21 - Gemeinsame Normdatei (GND) - Normdateien und Onlineschnittstelle - vascoda - Kataloganreicherung
  12. Steeg, F.; Pohl, A.: ¬Ein Protokoll für den Datenabgleich im Web am Beispiel von OpenRefine und der Gemeinsamen Normdatei (GND) (2021) 0.01
    0.009779457 = product of:
      0.039117828 = sum of:
        0.039117828 = weight(_text_:und in 367) [ClassicSimilarity], result of:
          0.039117828 = score(doc=367,freq=14.0), product of:
            0.12075608 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.054483794 = queryNorm
            0.32394084 = fieldWeight in 367, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=367)
      0.25 = coord(1/4)
    
    Abstract
    Normdaten spielen speziell im Hinblick auf die Qualität der Inhaltserschließung bibliografischer und archivalischer Ressourcen eine wichtige Rolle. Ein konkretes Ziel der Inhaltserschließung ist z. B., dass alle Werke über Hermann Hesse einheitlich zu finden sind. Hier bieten Normdaten eine Lösung, indem z. B. bei der Erschließung einheitlich die GND-Nummer 11855042X für Hermann Hesse verwendet wird. Das Ergebnis ist eine höhere Qualität der Inhaltserschließung vor allem im Sinne von Einheitlichkeit und Eindeutigkeit und, daraus resultierend, eine bessere Auffindbarkeit. Werden solche Entitäten miteinander verknüpft, z. B. Hermann Hesse mit einem seiner Werke, entsteht ein Knowledge Graph, wie ihn etwa Google bei der Inhaltserschließung des Web verwendet (Singhal 2012). Die Entwicklung des Google Knowledge Graph und das hier vorgestellte Protokoll sind historisch miteinander verbunden: OpenRefine wurde ursprünglich als Google Refine entwickelt, und die Funktionalität zum Abgleich mit externen Datenquellen (Reconciliation) wurde ursprünglich zur Einbindung von Freebase entwickelt, einer der Datenquellen des Google Knowledge Graph. Freebase wurde später in Wikidata integriert. Schon Google Refine wurde zum Abgleich mit Normdaten verwendet, etwa den Library of Congress Subject Headings (Hooland et al. 2013).
    Series
    Bibliotheks- und Informationspraxis; 70
  13. Oehlschläger, S.: Aus der 49. Sitzung der Arbeitsgemeinschaft der Verbundsysteme am 23. und 24. November 2005 in Köln (2006) 0.01
    0.009603237 = product of:
      0.038412947 = sum of:
        0.038412947 = weight(_text_:und in 632) [ClassicSimilarity], result of:
          0.038412947 = score(doc=632,freq=54.0), product of:
            0.12075608 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.054483794 = queryNorm
            0.3181036 = fieldWeight in 632, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=632)
      0.25 = coord(1/4)
    
    Abstract
    Am 23. und 24. November 2005 hat die Arbeitsgemeinschaft der Verbundsysteme ihre 49. Sitzung auf Einladung des Hochschulbibliothekszentrums NordrheinWestfalen (HBZ) in Köln durchgeführt.
    Content
    "Zusammenarbeit der Verbundsysteme, Verbesserung von Datentausch und Fremddatennutzung Matchkey Bei der Verwendung von Meta-Suchmaschinen zur parallelen Recherche in bibliografischen Datenbanken kommt es häufig vor, dass derselbe Titel mehrmals in der Trefferliste auftaucht. In dieser Situation könnte ein so genannter Matchkey Abhilfe schaffen, der jeden Datensatz aus den vorhandenen bibliografischen Daten heraus eindeutig identifiziert. Ein solcher Algorithmus geht von einem bibliografischen Datensatz aus und generiert einen Schlüssel (Matchkey), der wiederum in den Datensatz integriert werden kann. Der Schlüssel muss sortierfähig sein, so dass die Trefferliste nach dem Grad der Ähnlichkeit sortiert werden kann. Eine wichtige Voraussetzung für die erfolgreiche Anwendung des Matchkey ist die Beseitigung der Hausregeln in den Verbünden und Bibliotheken. Bisher hat Die Deutsche Bibliothek das Thema analysiert und strebt nun die Formulierung und Bereitstellung eines ersten Algorithmus an, um eine Implementierung zu Testzwecken voraussichtlich im März/April 2006 zu ermöglichen. Ein klares Ergebnis soll bis Ende 2006 vorliegen.
    MARC21 als Austauschformat Die Expertengruppe Datenformate hat in ihrer 5. Sitzung am 22. November 2005 die Frage der Hierarchienabbildung bei der Übernahme von MARC 21 weiter diskutiert und einer Lösung zugeführt. Für einen geringen Prozentsatz der Daten werden trotz Vorarbeiten der Expertengruppe Probleme bei der Überführung von MARC-21-Daten in MAB2-Strukturen gesehen. Es wurde darauf hingewiesen, dass es im Zusammenhang mit dem Umstieg auf MARC 21 ebenso wie bei der kooperativen Katalogisierung notwendig ist, gemeinsame Regeln festzulegen und Absprachen zwischen den Verbünden zu treffen. Eine unterschiedliche Handhabung des Formats sollte sich von vornherein verbieten. Projekt Kooperative Neukatalogisierung Die Projektgruppe hat zweimal getagt, zuletzt am 3. November 2005. Es liegen erste Ergebnisse vor, und spätestens Anfang Januar 2006 soll das Verfahren erprobt werden. Alle Verbünde signalisieren ihr Interesse an dem geplanten Verfahren, da die Eigenkatalogisierungsrate nach wie vor zu hoch ist. Für die Akzeptanz des Dienstes, der auch zum Synchronisieren der vorhandenen Aufnahmen und zum Austausch von Sacherschließungsdaten genutzt werden soll, ist die Aktualität des geplanten Neukatalogisierungspools essentiell. Ein weiteres Ziel ist auch die Optimierung der Arbeitsabläufe zwischen Verbundzentrale und Bibliotheken. Catalogue Enrichment Zur Anreicherung der Katalogdaten gibt es verschiedene Aktivitäten innerhalb der Arbeitsgemeinschaft der Verbundsysteme, die koordiniert werden müssen, damit eine Mehrfachdigitalisierung von Inhaltsverzeichnissen, Abstracts und anderen Objekten vermieden werden kann. Die Arbeitsgemeinschaft der Verbundsysteme beschließt, eine kleine Arbeitsgruppe einzusetzen, die bis spätestens Anfang Februar 2006 einen Vorschlag mit unterschiedlichen Szenarien für unterschiedliche Umgebungen vorlegen soll. Aufgabe der AG Datenanreicherung ist die Konzeption eines schnellen Dienstes für die Digitalisierung von Abstracts und Inhaltsverzeichnissen sofern sie lizenzrechtlich frei verfügbar sind, die allen Verbünden zur Verfügung gestellt werden sollen. Dazu gehören eine Übersicht über die vorhandenen Daten und eine ausgearbeitete Verfahrensvorschrift für das künftige Vorgehen.
    Gesamtnachweis aller Bibliotheksbestände in deutschsprachigen Raum Das HBZ hat seinen am 15. November frei geschalteten Dreiländer-Katalog (Deutschland, Österreich, Schweiz) vorgestellt, dessen Ziel der Gesamtnachweis aller Bibliotheksbestände in deutschsprachigen Raum ist. Der Katalog entstand in Kooperation des HBZ mit dem Bibliotheksverbund Bayern (BVB) und dem Österreichischen Bibliothekenverbund (OBV); die Integration weiterer Bibliotheksbestände aus anderen Regionen ist in Arbeit. Realisiert wurde das Projekt mittels der Suchmaschinentechnologie des HBZ, die Antwortzeiten in Bruchteilen von Sekunden, Ranking und Kategorisierung der Treffermengen ermöglicht. Die Mitglieder der Arbeitsgemeinschaft der Verbundsysteme haben beschlossen, sich die für die Literaturversorgung relevanten Verbunddaten (Titeldaten mit Nachweisen) für den Aufbau verbundbezogener, nicht kommerzieller Dienste auf Gegenseitigkeit kostenfrei zur Verfügung zu stellen. Normdateien Online-Schnittstelle Ziel der Online-Kommunikation mit Normdateien ist es, die Arbeit mit den zentralen Normdateien dadurch zu vereinfachen, dass Änderungen an Normdaten in den zentral bei Der Deutschen Bibliothek gehaltenen Dateien mit dem eigenen Client erfolgen können. Ferner sollen alle Änderungen an den Normdateien zeitnah in die Normdaten-Spiegel der Verbundsysteme transportiert werden (Replikation). Das Verfahren soll sich auf alle bei Der Deutschen Bibliothek geführten Normdaten erstrecken. Als standardisiertes Kommunikationsprotokoll soll Z39.50 SR Extended Services Update genutzt werden. Für die Replikation ist OAI vorgesehen, als Austauschformat zunächst MAB2 bzw. MABXML. Die existierenden Implementierungen erfüllen an mehreren wichtigen Stellen nicht die Anforderungen. Eine Konversion in und aus einem neutralen Transportformat, wie für die Online-Kommunikation mit Normdateien benötigt, ist an der gegenwärtigen Pica-Schnittstelle nicht vorgesehen und lässt sich nur realisieren, wenn wesentliche Veränderungen vorgenommen werden. OCLC PICA plant, diese Veränderungen im 1. Quartal 2006 vorzunehmen. Nach der aktuellen Projektplanung soll die Online-Kommunikation zu Beginn des Jahres 2007 starten.
    DDC/Melvil-Nutzungs- und Lizenzsituation Die Deutsche Bibliothek hat den Dienst Melvil vorgestellt, der auf der im Rahmen des Projektes DDC Deutsch erstellten deutschen Übersetzung der 22. Ausgabe der DDC basiert, und die Such- und Sprachgewohnheiten deutschsprachiger Benutzerinnen und Benutzer berücksichtigt. Mit Melvil wurde ein Online-Dienst entwickelt, der Bibliotheken und Informationseinrichtungen außer einem an WebDewey orientierten Klassifikationstool MelvilClass auch ein Retrievaltool MelvilSearch für die verbale Suche nach DDC-erschlossenen Dokumenten und das Browsing in der DDC-Hierarchie zur Verfügung stellt. Über die Schnittstelle MelvilSoap können Bibliotheken und Verbundzentralen, die den Dienst Melvil lizenziert haben, auch DDC-Daten zur weiteren Nutzung herunterladen. Gegenwärtig vergibt Die Deutsche Bibliothek Testlizenzen, ab 2006 kann der Dienst nach einem gestaffelten Modell kostenpflichtig genutzt werden Ergebnisse der Adhoc-Arbeitsgruppe ISBD(CR) Der Standardisierungsausschuss hatte in seiner 9. Sitzung am 15. Dezember 2004 die Anpassung der Splitregeln bei fortlaufenden Sammelwerken an die ISBD(CR) mit dem Ziel der Übernahme beschlossen. Im Januar 2005 richtete die Arbeitsstelle für Standardisierung eine Ad-hoc-AG ISBD(CR) ein, in der Vertreter der ZDB, der Expertengruppe Formalerschließung und der AGDBT (Arbeitsgemeinschaft der Datenbankteilnehmer der ZDB) unter der Federführung der Arbeitsstelle für Standardisierung zusammenarbeiteten. Auftragsgemäß konnte dem Standardisierungsausschuss am 2. August 2005 ein entscheidungsreifer Entwurf zur Anwendung der ISBD(CR)-Splitregeln für fortlaufende Sammelwerke vorgelegt werden. Die Unterlage, die dem Standardisierungsausschuss zu seiner 11. Sitzung am 1. Dezember 2005 zugeleitet wurde, wurde den Mitgliedern der Arbeitsgemeinschaft der Verbundsysteme im Vorfeld der Sitzung zur Kenntnis gegeben. Die zeitnahe Anwendung der ISBD(CR)-Splitregeln würde nicht nur in einem kleinen abgeschlossenen Bereich eine Angleichung an internationale Gepflogenheiten bedeuten, sondern sie hätte auch einige positive Auswirkungen auf die von Zeitschriftentiteln abhängigen ergänzenden Dienstleistungen. So würde z.B. die Verlinkung mit SFX-Diensten erheblich erleichtert."
  14. Geißelmann, F.: Codes in Bibliothekskatalogen : Bericht über die Arbeitsgruppe Codes (2000) 0.01
    0.00935095 = product of:
      0.0374038 = sum of:
        0.0374038 = weight(_text_:und in 5545) [ClassicSimilarity], result of:
          0.0374038 = score(doc=5545,freq=20.0), product of:
            0.12075608 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.054483794 = queryNorm
            0.3097467 = fieldWeight in 5545, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=5545)
      0.25 = coord(1/4)
    
    Abstract
    Die Arbeitsgruppe Codes wurde von der Konferenz für Regelwerksfragen 1997 eingesetzt. Sie wird ihre Arbeit im ersten Halbjahr 2000 beenden. Bei einem Bericht über den Stand der Arbeiten kann kein Gesamtüberblick über die Probleme gegeben werden, da das Thema aus zu vielen Details besteht - acht Regelwerksparagraphen und dem Entwurf zu sechs Anlagen mit zusammen 40 Seiten; dazu kommen sieben Seiten Entwurf für Änderungen in MAB. Vielmehr soll hier auf die Grundsätze eingegangen werden, die der Arbeit zugrunde lagen. Zunächst eine Vorbemerkung: Das Thema Codes ist sicherlich ein ungeliebtes Thema. Die Zahl der Kollegen, die sich damit befassen wollen, ist nicht sehr groß und bei Spezialfragen bekommt man oft nur mit großer Mühe eine Antwort, auch ggf. von Einrichtungen, deren genuine Aufgabe gerade die Stellungnahme zu solchen Themen ist. Andere geben Entwürfe im Verbund sehr schnell weiter - in der Hoffnung bei irgend welchen Kollegen Kenntnisse zu den Entwürfen zu finden. Woher kommt diese Skepsis der Bibliothekare'? Zum einen sicherlich aus dem Zweifel, ob der postulierte Hauptzweck, dem Benutzer zusätzliche Möglichkeiten im Retrieval anzubieten, wirklich erreicht werden wird. Unsere OPACs haben noch zahlreiche andere Defizite - wann wird also die Suche mit Codes tatsächlich beim Benutzer ankommen'? Ein zweiter Punkt ist, dass es sich z.T. um sehr spezielle Materien handelt, die für eine eigene Stellungnahme Einarbeitung verlangen, also durchaus einen erheblichen Arbeitsaufwand. Zum dritten handelt es sich um eine sehr trockene Materie, so trocken, wie die Deutsche Bibliotheksstatistik. Jedermann hält deren Ergebnisse für dringend notwendig, wenn er eine zahlenmäßige Untermauerung von irgendwelchen Entscheidungen oder Argumentationen sucht. Die Beantwortung ist aber weder angenehm noch wird sie vermutlich unter den deutschen Bibliotheken auch nur einigermaßen gleichmäßig gehandhabt. Trotzdem ist die Statistik unvermeidlich und müsste durchaus noch differenzierter sein
    Series
    Gemeinsamer Kongress der Bundesvereinigung Deutscher Bibliotheksverbände e.V. (BDB) und der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI); Bd.1)(Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V.; Bd.3
    Source
    Information und Öffentlichkeit: 1. Gemeinsamer Kongress der Bundesvereinigung Deutscher Bibliotheksverbände e.V. (BDB) und der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI), Leipzig, 20.-23.3.2000. Zugleich 90. Deutscher Bibliothekartag, 52. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI). Hrsg.: G. Ruppelt u. H. Neißer
  15. Naumann, U.: Wird das deutsche Bibliothekswesen autoritär? : Eine Antwort auf Klaus Franken (2002) 0.01
    0.00935095 = product of:
      0.0374038 = sum of:
        0.0374038 = weight(_text_:und in 229) [ClassicSimilarity], result of:
          0.0374038 = score(doc=229,freq=20.0), product of:
            0.12075608 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.054483794 = queryNorm
            0.3097467 = fieldWeight in 229, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=229)
      0.25 = coord(1/4)
    
    Content
    "Als ich im Oktober-Heft 2001 des BIBLIOTHEKSDIENST den Beitrag von Klaus Franken "Ist Deutschland reif für die internationale Zusammenarbeit?" (S.1342-1343) überflog, dachte ich mir: "Gut gebrüllt, Löwe", denn ich konnte seine Darstellung nicht anders als eine Satire auf die Gremienarbeit im deutschen Bibliothekswesen interpretieren. Inzwischen erscheint es mir aufgrund verschiedener Signale (Zwickau und Standardisierungsausschuss!), dass das dort Vorgeschlagene ernst gemeint sein muss, dass Franken vielleicht nur "his master's voice" ist. Und deshalb will ich, wenn auch sonst zurückhaltend veranlagt, meine "direktoriale" Stimme erheben und rufen: "So bitte nicht!" Mag sein, dass Klaus Franken wie auch die an der in seinem Beitrag beschriebenen Podiumsdiskussion beteiligten "maßgeblichen und einflussreichen Bibliothekarinnen und Bibliothekare" hervorragende Kenner der Katalogisierungsprobleme sind: ich bin es nicht. Nach meiner Kurzausbildung in Frankfurt am Main (gemeinsam mit Berndt Dugall), dabei intensiv geschult im sorgfältigen Tippen von PI-Katalogaufnahmen auf Matrizen, und den sicher verdienstvollen Bemühungen von Frau Nafzger-Glöser, Frau Bouvier und Frau Miksch, mir an der Bibliotheksschule Frankfurt die theoretischen Grundkenntnisse in PI und RAK zu vermitteln (wobei mich das erfolgreiche Bestehen der Klausur primär interessierte), hat mich mein weiterer Berufsweg weit von der formalen Katalogisierung entfernt. Stationen waren eine Dozentur an der Bibliotheksschule Frankfurt mit gleichzeitigem Fachreferat, die Herstellung der Hessischen Bibliographie, die Leitung der Benutzungsabteilung der Universitätsbibliothek der Freien Universität Berlin und schließlich die Leitung dieser Einrichtung. Selbst in meinem 25-jährigen Unterricht habe ich mich nie auf die Probleme der formalen Erschließung eingelassen. Ich bin also Laie, wenn es um Katalogisierungsfragen geht, glaube aber andererseits, dass meine "Karriere" nicht untypisch für viele leitende Bibliothekarinnen und Bibliothekare ist, die Mitglieder der maßgeblichen Gremien des deutschen Bibliothekswesens sind (Joachim Stoltzenburg nannte das einmal den "Inneren Kreis"). Meine Grenzen erkennend, könnte auf mich allerdings eine Feststellung nicht zutreffen, die ich kürzlich in diesem Zusammenhang las: Eine eindeutige Befürwortung einer gravierenden Regelwerksumstellung fällt erfahrungsgemäß umso leichter, je weiter man von den praktischen Katalogisierungsproblemen entfernt ist, ... "
  16. Jahns, Y.; Trummer, M.: Crosskonkordanz Wirtschaft (2003) 0.01
    0.009054018 = product of:
      0.036216073 = sum of:
        0.036216073 = weight(_text_:und in 1962) [ClassicSimilarity], result of:
          0.036216073 = score(doc=1962,freq=12.0), product of:
            0.12075608 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.054483794 = queryNorm
            0.29991096 = fieldWeight in 1962, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1962)
      0.25 = coord(1/4)
    
    Abstract
    Die Suche nach wirtschaftswissenschaftlicher Literatur im Internet führt heute zu unterschiedlich erschlossenen Informationsbeständen. Die Antwort auf diese Heterogenität sollte das Angebot einer integrierten sachlichen Suche über verteilte Datenbanken sein. Crosskonkordanzen unterstützen diese Entwicklung, indem sie Suchfragen in die Terminologie verschiedener Thesauri übersetzen. Nutzern von Bibliotheken und Fachinformationszentren wird das Navigieren erleichtert, sie ersparen sich Mehrfachrecherchen und können auf ihre vertraute Indexierungssprache zurückgreifen. Wirtschaftswissenschaftliche Literatur wird in Deutschland mit verschiedenen Thesauri indexiert. Einerseits bieten Hochschulbibliothekskataloge eine sachliche Suche mit den Schlagwörtern der Schlagwortnormdatei (SWD) an, andererseits sind wirtschaftswissenschaftliche Fachdatenbanken mit dem Standard Thesaurus Wirtschaft (STW) erschlossen. Hier setzt das Angebot der Crosskonkordanz Wirtschaft an - ein Retrieval-Instrument für sachlich heterogen erschlossene Datenbestände." Concordans bedeutet »übereinstimmend«, »zusammenhängend«, »verknüpft«, wir verknüpfen also die Deskriptoren (Sachbegriffe) der SWD im Bereich Wirtschaft mit den Deskriptoren des STW. Die SWD, getragen und entwickelt von Der Deutschen Bibliothek und den Bibliotheksverbünden des deutschen Sprachraums, ist das Instrument zur Indexierung der gesamten deutschsprachigen wirtschaftswissenschaftlichen Literatur. Auch unselbstständige Literatur wird beispielsweise von der Universitätsbibliothek Köln als Sondersammelgebiet Betriebswirtschaftslehre mithilfe der SWD erschlossen. Trotz ihres eigentlichen Charakters als Allgemeinthesaurus ist sie im Bereich Wirtschaft besonders differenziert entwickelt und enthält etwa 12.500 Deskriptoren. Der STW ist der bedeutendste Fachthesaurus für Wirtschaftswissenschaften in der Bundesrepublik Deutschland. Getragen vom Hamburgischen WeIt-Wirtschafts-Archiv (HWWA), der Deutschen Zentralbibliothek für Wirtschaftswissenschaften in Kiel (ZBW) und der Gesellschaft für Betriebswirtschaftliche Information München findet er Anwendung in verschiedenen Fachdatenbanken. Der STW enthält rund 5.000 Deskriptoren
  17. Kühn, A.: SWD im SWB : Schlagwortnormdatei im Südwestdeutschen Bibliotheksverbund (2008) 0.01
    0.009054018 = product of:
      0.036216073 = sum of:
        0.036216073 = weight(_text_:und in 2176) [ClassicSimilarity], result of:
          0.036216073 = score(doc=2176,freq=12.0), product of:
            0.12075608 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.054483794 = queryNorm
            0.29991096 = fieldWeight in 2176, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2176)
      0.25 = coord(1/4)
    
    Abstract
    Im Südwestdeutschen Bibliotheksverbund (SWB) besteht die Möglichkeit, Titel sachlich sowohl verbal als auch klassifikatorisch zu erschließen. Im Lokaldatenbereich liegt die Verantwortung für die verwendeten Klassifikationen, Thesauri oder freien Begriffe in der alleinigen Verantwortung der jeweiligen Bibliothek. Im Titelbereich stehen für die klassifikatorische Erschließung verschiedene Felder für unterschiedliche Klassifikationen, wie DDC, LCC und MSC zur Verfügung. Als für die SWB-Teilnehmerbibliotheken wichtigste Klassifikation steht die Regensburger Verbundklassifikation (RVK) als Normdatei zur Verknüpfung im Titelbereich in einem eigenen Titelfeld bereit. Die verbale Erschließung auf Titelebene geschieht im SWB ausschließlich durch SWD-Vokabular bzw. RSWK-gerechte Schlagwörter. Die Anwendung der SWD erfolgt produktiv seit dem Sommer 1994. Die verbale Erschließung erfolgt in den allermeisten Fällen durch Kettenbildung nach den RSWK. In der CBS-Verbunddatenbank können Titel- und Exemplarsätze mit regionalen bzw. lokalen Normsätzen verknüpft werden. Im Titelbereich stehen Verknüpfungsfelder zu RVK-Notationen, Körperschaften (GKD), Personen und Schlagwörtern (SWD bzw. PND für Personenschlagwörter) zur Verfügung. Wie in der überregionalen SWD, gehalten in der Datenbank der Deutschen Nationalbibliothek (DNB), sind auch im SWB die für die Sacherschließung genutzten Personen - also Personenschlagwörter - datentechnisch Teil der PND, dies spiegelt sich im Datenformat wider. Derselbe Personendatensatz kann also, sofern er für die Sacherschließung genutzt werden darf, im Titel sowohl aus den Formal- als auch aus den Sacherschließungsfeldern heraus genutzt werden. Bei abweichenden Ansetzungsformen nach RAK und RSWK wird im Titelverknüpfungsfeld für die Formalerschließung die Ansetzungsform nach RAK und im Titelverknüpfungsfeld für die Sacherschließung die Ansetzungsform nach RSWK eingeblendet.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 61(2008) H.3, S.44-49
  18. Sandner, M.: NSW online : Elektronisches Tool zur "Liste der fachlichen Nachschlagewerke" (2010) 0.01
    0.009054018 = product of:
      0.036216073 = sum of:
        0.036216073 = weight(_text_:und in 4527) [ClassicSimilarity], result of:
          0.036216073 = score(doc=4527,freq=12.0), product of:
            0.12075608 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.054483794 = queryNorm
            0.29991096 = fieldWeight in 4527, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4527)
      0.25 = coord(1/4)
    
    Abstract
    Die "Liste der fachlichen Nachschlagewerke zu den Normdateien" (NSW-Liste) stellt mit ihren derzeit rund 1.660 Einträgen ein verbindliches Arbeitsinstrument für die tägliche Praxis in der kooperativen Normdatenpflege des deutsch-sprachigen Raumes, speziell für die Terminologiearbeit in der bibliothekarischen Sacherschließung dar. In jedem Normdatensatz der Schlagwortnormdatei (SWD) werden für den Nachweis und die Begründung der Ansetzungs- und Verweisungsformen eines Deskriptors im Feld "Quelle" Referenzwerke aus der so genannten Prioritätenliste (Rangfolge der Nachschlagewerke), darüber hinaus aus der gesamten NSW-Liste, festgehalten und normiert abgekürzt. In gedruckter Form erscheint sie jährlich aktuali-siert mit einem Änderungsdienst (Änderungen, Neuauflagen; Neuaufnahmen) und steht seit eini-gen Jahren auch elektronisch abrufbar bereit. Dennoch ist diese Liste "in die Jahre" ge-kommen. Vor allem die Durchnummerierung ihrer Einträge ist störend: In jeder neuen Auflage ändern sich die laufenden Nummern, während sich gleichzeitig die meisten Register gerade auf diese Zählung beziehen. - Das einzig gleichbleibende Merkmal jedes aufgelisteten Nachschlagewerks ist seine normierte Abkürzung. Deshalb haben wir uns im neuen elektronischen NSW-Tool für diese Abkürzungen als Anker entschieden. Die Entstehung dieses Tools resultiert aus einer Verkettung günstiger Umstände und hatte so gut wie keine finanzielle Basis. Es beruht auf einem starken Engagement aller Beteiligten. Aus die-sem Grund freuen wir uns ganz besonders über das erreichte Ergebnis und wagen uns nun mit einer Beta-Version an die Fachöffentlichkeit.
  19. Hoyer, R.: Normdaten-Kooperation im Kunstbibliotheken-Fachverbund Florenz-München-Rom (2001) 0.01
    0.0089630205 = product of:
      0.035852082 = sum of:
        0.035852082 = weight(_text_:und in 6917) [ClassicSimilarity], result of:
          0.035852082 = score(doc=6917,freq=6.0), product of:
            0.12075608 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.054483794 = queryNorm
            0.2968967 = fieldWeight in 6917, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=6917)
      0.25 = coord(1/4)
    
    Abstract
    Die Bibliotheken der drei deutschen universitätsunabhängigen kunsthistorischen Forschungsinstitute Kunsthistorisches Institut in Florenz, Zentralinstitut für Kunstgeschichte in München und Bibliotheca Hertziana (Max-Planck-Institut), Rom, katalogisieren seit 1997 online als eigenständiger, dezentraler EDV-Verbund aus drei Parallelumgebungen unter dem Programmsystem Allegro. Der im Internet unter <http://Www.kubikat.org> zugängliche Verbundkatalog verzeichnete Ende März 2001 knapp 150.000 Titel von Büchern, Zeitschriften und Aufsätzen und wächst infolge laufender Arbeiten zur Konversion der zugunsten des EDV-Verbundes abgebrochenen Zettelkataloge kurzfristig sprunghaft stark an
  20. Hubrich, J.: Aufwand zur Sicherstellung der Qualität und Möglichkeiten des Nutzens im OPAC (2005) 0.01
    0.0089630205 = product of:
      0.035852082 = sum of:
        0.035852082 = weight(_text_:und in 3690) [ClassicSimilarity], result of:
          0.035852082 = score(doc=3690,freq=6.0), product of:
            0.12075608 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.054483794 = queryNorm
            0.2968967 = fieldWeight in 3690, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3690)
      0.25 = coord(1/4)
    
    Abstract
    »Sacherschließung - können wir uns die noch leisten?« Angesichts des zunehmend geringeren Gesamtetats, der den Bibliotheken zur Verfügung steht, drängt sich diese Frage nahezu auf. Sacherschließung ist teuer und für das moderne Bibliothekswesen nur dann noch tragbar, wenn der Mitteleinsatz in einem angemessenen Verhältnis zum Ergebnis steht, das sich in der Leistungsfähigkeit des Produkts widerspiegelt. Im deutschsprachigen Raum trägt die SWD wesentlich zu einer effektiveren Sacherschließungsarbeit bei. Ihre Pflege und Weiterentwicklung ist jedoch mit einem enormen Aufwand gekoppelt, der nur mit einer entsprechenden Nutzung der Daten für das thematische Retrieval in den OPACs gerechtfertigt werden kann.

Years

Languages

  • d 69
  • e 7

Types

  • a 64
  • el 14
  • m 3
  • x 3
  • r 1
  • s 1
  • More… Less…