Search (9 results, page 1 of 1)

  • × author_ss:"Kasprzik, A."
  1. Kasprzik, A.: Vorläufer der Internationalen Katalogisierungsprinzipien (2014) 0.01
    0.013483474 = product of:
      0.053933896 = sum of:
        0.053933896 = weight(_text_:und in 1619) [ClassicSimilarity], result of:
          0.053933896 = score(doc=1619,freq=18.0), product of:
            0.12236088 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05520786 = queryNorm
            0.4407773 = fieldWeight in 1619, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1619)
      0.25 = coord(1/4)
    
    Abstract
    Für eine korrekte und zielführende Formalerschließung lassen sich drei Ebenen von Leitlinien definieren: Zielsetzungen, Prinzipien und Regeln der Katalogisierung. Der vorliegende Artikel befasst sich hauptsächlich mit den (möglichen) Zielsetzungen und Prinzipien der Katalogisierung. In der Einleitung der im Jahr 2009 herausgegebenen "Erklärung zu den Internationalen Katalogisierungsprinzipien" (ICP) ist vermerkt, dass die dort vorgelegte Prinzipiensammlung aufbaut auf "den großen Katalogtraditionen der Welt". Diese Traditionen werden dann mit drei Referenzen aus der frühen Fachliteratur belegt: Den Schriften von Charles A. Cutter (1904), Shiyali R. Ranganathan (1955) und Seymour Lubetzky (1969). In diesem Artikel werden nach einem kurzen chronologischen Überblick die drei genannten Publikationen und insbesondere die darin enthaltenen Feststellungen zu Sinn und Zweck von international einheitlichen Prinzipien für die bibliothekarische Formalerschließung in ihren geschichtlichen Kontext eingeordnet und ihr jeweiliger Einfluss auf die diversen existierenden Formulierungen von Zielen und Prinzipien näher beleuchtet. Außerdem werden einige bemerkenswert moderne Gedankengänge in den betreffenden Schriften aufgezeigt. Ein abschließendes Fazit fasst die wichtigsten Zielsetzungen und Prinzipien der Katalogisierung noch einmal mit Bezug auf die verwendete Literatur zur Theorie der Informationsorganisation zusammen.
  2. Kasprzik, A.: Voraussetzungen und Anwendungspotentiale einer präzisen Sacherschließung aus Sicht der Wissenschaft (2018) 0.01
    0.012844079 = product of:
      0.051376317 = sum of:
        0.051376317 = weight(_text_:und in 5195) [ClassicSimilarity], result of:
          0.051376317 = score(doc=5195,freq=12.0), product of:
            0.12236088 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05520786 = queryNorm
            0.41987535 = fieldWeight in 5195, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5195)
      0.25 = coord(1/4)
    
    Abstract
    Große Aufmerksamkeit richtet sich im Moment auf das Potential von automatisierten Methoden in der Sacherschließung und deren Interaktionsmöglichkeiten mit intellektuellen Methoden. In diesem Kontext befasst sich der vorliegende Beitrag mit den folgenden Fragen: Was sind die Anforderungen an bibliothekarische Metadaten aus Sicht der Wissenschaft? Was wird gebraucht, um den Informationsbedarf der Fachcommunities zu bedienen? Und was bedeutet das entsprechend für die Automatisierung der Metadatenerstellung und -pflege? Dieser Beitrag fasst die von der Autorin eingenommene Position in einem Impulsvortrag und der Podiumsdiskussion beim Workshop der FAG "Erschließung und Informationsvermittlung" des GBV zusammen. Der Workshop fand im Rahmen der 22. Verbundkonferenz des GBV statt.
  3. Kasprzik, A.: Automatisierte und semiautomatisierte Klassifizierung : eine Analyse aktueller Projekte (2014) 0.01
    0.012712342 = product of:
      0.050849367 = sum of:
        0.050849367 = weight(_text_:und in 2470) [ClassicSimilarity], result of:
          0.050849367 = score(doc=2470,freq=16.0), product of:
            0.12236088 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05520786 = queryNorm
            0.41556883 = fieldWeight in 2470, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2470)
      0.25 = coord(1/4)
    
    Abstract
    Das sprunghafte Anwachsen der Menge digital verfügbarer Dokumente gepaart mit dem Zeit- und Personalmangel an wissenschaftlichen Bibliotheken legt den Einsatz von halb- oder vollautomatischen Verfahren für die verbale und klassifikatorische Inhaltserschließung nahe. Nach einer kurzen allgemeinen Einführung in die gängige Methodik beleuchtet dieser Artikel eine Reihe von Projekten zur automatisierten Klassifizierung aus dem Zeitraum 2007-2012 und aus dem deutschsprachigen Raum. Ein Großteil der vorgestellten Projekte verwendet Methoden des Maschinellen Lernens aus der Künstlichen Intelligenz, arbeitet meist mit angepassten Versionen einer kommerziellen Software und bezieht sich in der Regel auf die Dewey Decimal Classification (DDC). Als Datengrundlage dienen Metadatensätze, Abstracs, Inhaltsverzeichnisse und Volltexte in diversen Datenformaten. Die abschließende Analyse enthält eine Anordnung der Projekte nach einer Reihe von verschiedenen Kriterien und eine Zusammenfassung der aktuellen Lage und der größten Herausfordungen für automatisierte Klassifizierungsverfahren.
  4. Kasprzik, A.; Kett, J.: Vorschläge für eine Weiterentwicklung der Sacherschließung und Schritte zur fortgesetzten strukturellen Aufwertung der GND (2018) 0.01
    0.012422118 = product of:
      0.049688473 = sum of:
        0.049688473 = weight(_text_:und in 4599) [ClassicSimilarity], result of:
          0.049688473 = score(doc=4599,freq=22.0), product of:
            0.12236088 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05520786 = queryNorm
            0.40608138 = fieldWeight in 4599, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4599)
      0.25 = coord(1/4)
    
    Abstract
    Aufgrund der fortgesetzten Publikationsflut stellt sich immer dringender die Frage, wie die Schwellen für die Titel- und Normdatenpflege gesenkt werden können - sowohl für die intellektuelle als auch die automatisierte Sacherschließung. Zu einer Verbesserung der Daten- und Arbeitsqualität in der Sacherschließung kann beigetragen werden a) durch eine flexible Visualisierung der Gemeinsamen Normdatei (GND) und anderer Wissensorganisationssysteme, so dass deren Graphstruktur intuitiv erfassbar wird, und b) durch eine investigative Analyse ihrer aktuellen Struktur und die Entwicklung angepasster automatisierter Methoden zur Ermittlung und Korrektur fehlerhafter Muster. Die Deutsche Nationalbibliothek (DNB) prüft im Rahmen des GND-Entwicklungsprogramms 2017-2021, welche Bedingungen für eine fruchtbare community-getriebene Open-Source-Entwicklung entsprechender Werkzeuge gegeben sein müssen. Weiteres Potential steckt in einem langfristigen Übergang zu einer Darstellung von Titel- und Normdaten in Beschreibungssprachen im Sinne des Semantic Web (RDF; OWL, SKOS). So profitiert die GND von der Interoperabilität mit anderen kontrollierten Vokabularen und von einer erleichterten Interaktion mit anderen Fach-Communities und kann umgekehrt auch außerhalb des Bibliothekswesens zu einem noch attraktiveren Wissensorganisationssystem werden. Darüber hinaus bieten die Ansätze aus dem Semantic Web die Möglichkeit, stärker formalisierte, strukturierende Satellitenvokabulare rund um die GND zu entwickeln. Daraus ergeben sich nicht zuletzt auch neue Perspektiven für die automatisierte Sacherschließung. Es wäre lohnend, näher auszuloten, wie und inwieweit semantisch-logische Verfahren den bestehenden Methodenmix bereichern können.
  5. Franke-Maier, M.; Beck, C.; Kasprzik, A.; Maas, J.F.; Pielmeier, S.; Wiesenmüller, H: ¬Ein Feuerwerk an Algorithmen und der Startschuss zur Bildung eines Kompetenznetzwerks für maschinelle Erschließung : Bericht zur Fachtagung Netzwerk maschinelle Erschließung an der Deutschen Nationalbibliothek am 10. und 11. Oktober 2019 (2020) 0.01
    0.01100921 = product of:
      0.04403684 = sum of:
        0.04403684 = weight(_text_:und in 5851) [ClassicSimilarity], result of:
          0.04403684 = score(doc=5851,freq=12.0), product of:
            0.12236088 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05520786 = queryNorm
            0.35989314 = fieldWeight in 5851, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5851)
      0.25 = coord(1/4)
    
    Abstract
    Am 10. und 11. Oktober 2019 trafen sich rund 100 Vertreterinnen und Vertreter aus Bibliothek, Wissenschaft und Wirtschaft an der Deutschen Nationalbibliothek (DNB) in Frankfurt am Main zu einer Fachtagung über das derzeitige Trend-Thema "maschinelle Erschließung". Ziel der Veranstaltung war die "Betrachtung unterschiedlicher Anwendungsbereiche maschineller Textanalyse" sowie die Initiation eines Dialogs zu Technologien für die maschinelle Textanalyse, Aufgabenstellungen, Erfahrungen und den Herausforderungen, die maschinelle Verfahren nach sich ziehen. Hintergrund ist der Auftrag des Standardisierungsausschusses an die DNB, regelmäßig einschlägige Tagungen durchzuführen, aus denen "perspektivisch ein Kompetenznetzwerk für die maschinelle Erschließung entsteh[t]".
  6. Auer, S.; Kasprzik, A.; Sens, I.: Von dokumentenbasierten zu wissensbasierten Informationsflüssen : Die Rolle wissenschaftlicher Bibliotheken im Transformationsprozess. Teil 1: Vor einer Revolution der wissenschaftlichen Kommunikation (2019) 0.01
    0.010803413 = product of:
      0.04321365 = sum of:
        0.04321365 = weight(_text_:und in 5241) [ClassicSimilarity], result of:
          0.04321365 = score(doc=5241,freq=26.0), product of:
            0.12236088 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05520786 = queryNorm
            0.3531656 = fieldWeight in 5241, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=5241)
      0.25 = coord(1/4)
    
    Abstract
    Im Zuge der Vernetzung und Digitalisierung sind mittlerweile nahezu alle Arten von Information online verfügbar und der Informationsaustausch hat sich in zahlreichen Bereichen radikal gewandelt. Informationen, die früher über gedruckte Medien wie Telefon- und Adressbücher, Straßenkarten und -atlanten oder auch Katalogen für den Bestell-Einzelhandel zur Verfügung gestellt wurden, werden heute in der Regel online und komplett anders strukturiert dargeboten. In der Wissenschaft erfolgt die Kommunikation von Forschungsergebnissen jedoch nach wie vor auf der Basis statischer Text-Dokumente: Forscher erarbeiten Aufsätze und Artikel, die in Online- und Offline-Publikationsmedien als grobgranulare und wenig übergreifend strukturierte Dokumente verfügbar gemacht werden. Als Nutzer einer Bibliothek suchen sie dann ihrerseits nach Dokumenten und müssen zunächst in langen Trefferlisten die passenden Dokumente und in diesen wiederum die für sie relevanten Informationen identifizieren. Auch wenn der Anteil an Publikationen wächst, die im Open Access verfügbar sind, sind die Wissenschaftler weiterhin darauf angewiesen, dass die Bibliothek ihnen ein umfassendes Ressourcenangebot zur Verfügung stellt. Auf diese grundsätzliche Vorgehensweise ist die gesamte Bibliotheks-, Technologie-, Dienst- und Forschungslandschaft derzeit ausgerichtet. Während es früher ausreichte, nur wenige Zeitschriften für das eigene Fach im Blick zu haben, sind Information Overload und Transdisziplinarität nun allgegenwärtige Herausforderungen. Die TIB hat mit der Realisierung eines prototypischen ORKG-Dienstes begonnen.
    Footnote
    Vgl. auch den Abdruck in: Bredemeier, W. (Hrsg.): Zukunft der Informationswissenschaft: Hat die Infromationswissenschaft eine Zukunft? Grundlagen und Perspektiven - Angebote in der Lehre - An den Fronten der Informationswissenschaft. Berlin: Simon Verlag für Bibliothekswesen 2019. S.170-186.
  7. Kasprzik, A.: Aufbau eines produktiven Dienstes für die automatisierte Inhaltserschließung an der ZBW : ein Status- und Erfahrungsbericht. (2023) 0.01
    0.00947522 = product of:
      0.03790088 = sum of:
        0.03790088 = weight(_text_:und in 935) [ClassicSimilarity], result of:
          0.03790088 = score(doc=935,freq=20.0), product of:
            0.12236088 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05520786 = queryNorm
            0.3097467 = fieldWeight in 935, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=935)
      0.25 = coord(1/4)
    
    Abstract
    Die ZBW - Leibniz-Informationszentrum Wirtschaft betreibt seit 2016 eigene angewandte Forschung im Bereich Machine Learning mit dem Zweck, praktikable Lösungen für eine automatisierte oder maschinell unterstützte Inhaltserschließung zu entwickeln. 2020 begann ein Team an der ZBW die Konzeption und Implementierung einer Softwarearchitektur, die es ermöglichte, diese prototypischen Lösungen in einen produktiven Dienst zu überführen und mit den bestehenden Nachweis- und Informationssystemen zu verzahnen. Sowohl die angewandte Forschung als auch die für dieses Vorhaben ("AutoSE") notwendige Softwareentwicklung sind direkt im Bibliotheksbereich der ZBW angesiedelt, werden kontinuierlich anhand des State of the Art vorangetrieben und profitieren von einem engen Austausch mit den Verantwortlichen für die intellektuelle Inhaltserschließung. Dieser Beitrag zeigt die Meilensteine auf, die das AutoSE-Team in zwei Jahren in Bezug auf den Aufbau und die Integration der Software erreicht hat, und skizziert, welche bis zum Ende der Pilotphase (2024) noch ausstehen. Die Architektur basiert auf Open-Source-Software und die eingesetzten Machine-Learning-Komponenten werden im Rahmen einer internationalen Zusammenarbeit im engen Austausch mit der Finnischen Nationalbibliothek (NLF) weiterentwickelt und zur Nachnutzung in dem von der NLF entwickelten Open-Source-Werkzeugkasten Annif aufbereitet. Das Betriebsmodell des AutoSE-Dienstes sieht regelmäßige Überprüfungen sowohl einzelner Komponenten als auch des Produktionsworkflows als Ganzes vor und erlaubt eine fortlaufende Weiterentwicklung der Architektur. Eines der Ergebnisse, das bis zum Ende der Pilotphase vorliegen soll, ist die Dokumentation der Anforderungen an einen dauerhaften produktiven Betrieb des Dienstes, damit die Ressourcen dafür im Rahmen eines tragfähigen Modells langfristig gesichert werden können. Aus diesem Praxisbeispiel lässt sich ableiten, welche Bedingungen gegeben sein müssen, um Machine-Learning-Lösungen wie die in Annif enthaltenen erfolgreich an einer Institution für die Inhaltserschließung einsetzen zu können.
  8. Franke-Maier, M.; Kasprzik, A.; Ledl, A.; Schürmann, H.: Editorial (2021) 0.01
    0.009082135 = product of:
      0.03632854 = sum of:
        0.03632854 = weight(_text_:und in 360) [ClassicSimilarity], result of:
          0.03632854 = score(doc=360,freq=6.0), product of:
            0.12236088 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05520786 = queryNorm
            0.2968967 = fieldWeight in 360, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=360)
      0.25 = coord(1/4)
    
    Abstract
    Es ist naheliegend, einen Band zur Qualität in der Inhaltserschließung damit zu beginnen, den Begriff Qualität als solchen zu reflektieren. Wenn wir Qualität gemäß der ISO-Norm 9000:2015-1 definieren als "Grad, in dem ein Satz inhärenter Merkmale eines Objekts Anforderungen erfüllt", was sind dann die Qualitätsanforderungen an die Inhaltserschließung? Auf diese Frage gibt es zweifellos keine eindeutige und allgemeingültige Antwort - zumindest war das das Ergebnis der Diskussion unter den Herausgeber:innen dieses Bandes. Dementsprechend beleuchten wir die Frage im Folgenden aus vier unterschiedlichen Perspektiven: zunächst aus einer eher idealistischen, im Berufsethos verankerten, dann aus einer rein fachlichen und schließlich aus einer praktischen Perspektive. Die vierte, die deskriptive bzw. historische, geht als eigener Aufsatz von Andreas Ledl in den Band ein.
    Series
    Bibliotheks- und Informationspraxis; 70
  9. Kasprzik, A.: Implementierung eines Hierarchisierungsalgorithmus' für die Konstanzer Systematik : Projektbericht (2013) 0.01
    0.005992655 = product of:
      0.02397062 = sum of:
        0.02397062 = weight(_text_:und in 1277) [ClassicSimilarity], result of:
          0.02397062 = score(doc=1277,freq=2.0), product of:
            0.12236088 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05520786 = queryNorm
            0.19590102 = fieldWeight in 1277, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1277)
      0.25 = coord(1/4)
    
    Abstract
    Die in ihren Grundzügen hierarchisch angelegte Aufstellungssystematik der Bibliothek der Universität Konstanz ist im Laufe der Zeit durch zahlreiche nicht-hierarchische Strukturen ergänzt worden, so dass ein heterogenes Gebilde entstanden ist. Außerdem kam der Wunsch nach Austauschbarkeit der Konstanzer Klassifikation mit anderen bibliothekarischen Einrichtungen auf. Aus diesen Gründen soll die Systematik nun bereinigt werden. Dazu wird als zentrales Werkzeug ein Diagnosealgorithmus benötigt, welcher sichtbar macht, wie weit die aktuelle Systematik von einem vorher zu definierenden, möglichst baumförmigen Idealzustand entfernt ist. In diesem Projekt ist ein solcher Algorithmus entwickelt und implementiert worden.