-
Krause, J.: Konkretes zur These, die Standardisierung von der Heterogenität her zu denken (2004)
0.01
0.01228941 = product of:
0.04915764 = sum of:
0.04915764 = weight(_text_:und in 2259) [ClassicSimilarity], result of:
0.04915764 = score(doc=2259,freq=16.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.41556883 = fieldWeight in 2259, product of:
4.0 = tf(freq=16.0), with freq of:
16.0 = termFreq=16.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.046875 = fieldNorm(doc=2259)
0.25 = coord(1/4)
- Abstract
- Die Entwicklungsperspektive für den Bereich wissenschaftlicher Information sind innovative, integrierende Fachportale, die in einem Wissenschaftsportal zusammengefasst werden und die allgemeinen, fachübergreifenden Zugänge der Bibliotheken mit spezifischen Fachzugängen verbinden. In dieser Struktur kann der Kunde mit qualitativ hochwertigen Such- und Selektionsinstrumenten auf wissenschaftsrelevante Informationen (Literaturnachweise, Experten und Forschungsreferenzen, Volltexte, Materialien, Daten, Fakten, Linklisten etc.) zugreifen. Sowohl theoriegeleitete Analysen und Bestandsaufnahmen der wissenschaftlichen Informationslandschaft als auch die Ergebnisse der neueren Benutzerumfragen zum Informationsverhalten und zum -bedarf von Wissenschaftlern weisen auf die Wünschbarkeit solch einer Entwicklung hin. Heute ist ein weitgehender Konsens über das anzustrebende Ziel erreicht. Die Herausforderung für die Weiterentwicklung ist somit nicht die Akzeptanz der angestrebten Zielvorstellung, sondern die Frage, wie sie zu erreichen ist. Die im Folgenden diskutierte Entwicklung von bilateralen Transferkomponenten zur Behandlung semantischer Heterogenität zwischen Dokumentensammlungen mit unterschiedlicher Inhaltserschließung zeigt für einen wesentlichen Teil der Frage nach dem »Wie« der Zielerreichung eine tragfähige Lösungsstrategie auf. Sie wird theoretisch und praktisch konkretisiert, der Entwicklungsstand beschrieben und die konkreten Einsatzmöglichkeiten werden aufgezeigt.
- Source
- Zeitschrift für Bibliothekswesen und Bibliographie. 51(2004) H.2, S.76-89
-
Mayr, P.; Zapilko, B.; Sure, Y.: ¬Ein Mehr-Thesauri-Szenario auf Basis von SKOS und Crosskonkordanzen (2010)
0.01
0.01228941 = product of:
0.04915764 = sum of:
0.04915764 = weight(_text_:und in 3392) [ClassicSimilarity], result of:
0.04915764 = score(doc=3392,freq=16.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.41556883 = fieldWeight in 3392, product of:
4.0 = tf(freq=16.0), with freq of:
16.0 = termFreq=16.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.046875 = fieldNorm(doc=3392)
0.25 = coord(1/4)
- Abstract
- Im August 2009 wurde SKOS "Simple Knowledge Organization System" als neuer Standard für web-basierte kontrollierte Vokabulare durch das W3C veröffentlicht1. SKOS dient als Datenmodell, um kontrollierte Vokabulare über das Web anzubieten sowie technisch und semantisch interoperabel zu machen. Perspektivisch kann die heterogene Landschaft der Erschließungsvokabulare über SKOS vereinheitlicht und vor allem die Inhalte der klassischen Datenbanken (Bereich Fachinformation) für Anwendungen des Semantic Web, beispielsweise als Linked Open Data2 (LOD), zugänglich und stär-ker miteinander vernetzt werden. Vokabulare im SKOS-Format können dabei eine relevante Funktion einnehmen, indem sie als standardisiertes Brückenvokabular dienen und semantische Verlinkung zwischen erschlossenen, veröffentlichten Daten herstellen. Die folgende Fallstudie skizziert ein Szenario mit drei thematisch verwandten Thesauri, die ins SKOS-Format übertragen und inhaltlich über Crosskonkordanzen aus dem Projekt KoMoHe verbunden werden. Die Mapping Properties von SKOS bieten dazu standardisierte Relationen, die denen der Crosskonkordanzen entsprechen. Die beteiligten Thesauri der Fallstudie sind a) TheSoz (Thesaurus Sozialwissenschaften, GESIS), b) STW (Standard-Thesaurus Wirtschaft, ZBW) und c) IBLK-Thesaurus (SWP).
- Footnote
- Beitrag für: 25. Oberhofer Kolloquium 2010: Recherche im Google-Zeitalter - Vollständig und präzise!?.
-
Dunckel, P.: Zusammenführung mehrerer Thesauri zu einem gemeinsamen Begriffssystem : Probleme und Lösungsansätze (2017)
0.01
0.01228941 = product of:
0.04915764 = sum of:
0.04915764 = weight(_text_:und in 4233) [ClassicSimilarity], result of:
0.04915764 = score(doc=4233,freq=16.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.41556883 = fieldWeight in 4233, product of:
4.0 = tf(freq=16.0), with freq of:
16.0 = termFreq=16.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.046875 = fieldNorm(doc=4233)
0.25 = coord(1/4)
- Abstract
- Im Zeitalter der digitalen Vernetzung und im Zuge zunehmend interdisziplinärer und internationaler Forschungsbestrebungen gewinnt die Interoperabilität von Informationssystemen stärker an Bedeutung. Ein wichtiger Schritt, um diese Interoperabilität zu erreichen und einen zentralen Zugang zu verteilten Systemen zu ermöglichen, liegt in der Zusammenführung der jeweiligen Erschließungsinstrumente der Informationssysteme. Eine Integration der verschiedenen kontrollierten Vokabulare erlaubt einen Datenaustausch zwischen den diversen Informationssystemen. Außerdem ermöglicht und vereinfacht sie eine systemübergreifende Recherche über mehrere Datenbanken, ohne dass eine Suchanfrage mehrmals formuliert oder umformuliert werden muss. Es existieren unterschiedliche Methoden und Instrumente sowie Strukturmodelle, mit denen eine Thesaurusintegration durchgeführt werden kann. Die am weitesten verbreitete Methode, das Mapping, ist sogar als ISO-Norm formuliert. Bei einer Thesauruszusammenführung können diverse Probleme auftreten. Jedoch gibt es Lösungsansätze, mit denen den Herausforderungen begegnet werden kann.
- Source
- Information - Wissenschaft und Praxis. 68(2017) H.4, S.253-262
- Theme
- Konzeption und Anwendung des Prinzips Thesaurus
-
Hubrich, J.: Thematische Suche in heterogenen Informationsräumen (2010)
0.01
0.012008843 = product of:
0.048035372 = sum of:
0.048035372 = weight(_text_:und in 4377) [ClassicSimilarity], result of:
0.048035372 = score(doc=4377,freq=22.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.40608138 = fieldWeight in 4377, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0390625 = fieldNorm(doc=4377)
0.25 = coord(1/4)
- Abstract
- Wissensorganisationssysteme unterstützen inhaltsbezogene Recherche- und Explorationsprozesse, indem sie a priori Beziehungen zwischen Begriffen ausweisen und einen standardisierten Zugriff auf Informationen ermöglichen. In heterogen erschlossenen Informationsräumen ist ihre Funktionalität indes eingeschränkt, da sie lediglich die Suche nach den Informationsressourcen, die mit ihnen erschlossen wurden, effizienter gestalten. Dokumente, deren inhaltliche Beschreibung auf der Grundlage von sprachlich, strukturell und typologisch unterschiedlichen Begriffssystemen erfolgte, werden hingegen nicht gefunden. Dies führt zu einem unzureichenden Recall und macht zusätzliche Recherchen notwendig. Mittels der Herstellung von Verbindungen zwischen Begriffen unterschiedlicher Dokumentationssprachen wird der standardisierte Zugriff auf Informationen erweitert und das Potential einzelner Erschließungsinstrumente über Teilmengen hinaus nutzbar. Vor dem Hintergrund, über welche inhaltlichen Qualitäten die erstellten Links verfügen, lassen sich drei Arten semantischer Interoperabilität unterscheiden, die mit jeweils anderen Implikationen für Retrievalszenarien einhergehen: wortbasierte, begriffliche und differenzierte Interoperabilität.
In dem von der Deutschen Forschungsgemeinschaft (DFG) geförderten und von der Deutschen Nationalbibliothek (DNB) in Kooperation mit der Fachhochschule Köln durchgeführten Projekt CrissCross wird eine begriffliche und differenzierte Interoperabilität zwischen der Schlagwortnormdatei (SWD) und der Dewey- Dezimalklassifikation (DDC) realisiert. In diesem Beitrag wird unter Berücksichtigung der Charakteristika der beiden Begriffssysteme dargelegt, welche Möglichkeiten die SWD-DDC-Mappings sowohl zur Unterstützung von inhaltsbezogenen Such- und Explorationsprozessen als auch zur Strukturierung von Treffermengen bieten.
- Series
- Schriften der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare (VÖB); Band 7
-
Stempfhuber, M.; Zapilko, M.B.: ¬Ein Ebenenmodell für die semantische Integration von Primärdaten und Publikationen in Digitalen Bibliotheken (2013)
0.01
0.012008843 = product of:
0.048035372 = sum of:
0.048035372 = weight(_text_:und in 917) [ClassicSimilarity], result of:
0.048035372 = score(doc=917,freq=22.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.40608138 = fieldWeight in 917, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0390625 = fieldNorm(doc=917)
0.25 = coord(1/4)
- Abstract
- Digitale Bibliotheken stehen derzeit vor der Herausforderung, den veränderten Informationsbedürfnissen ihrer wissenschaftlichen Nutzer nachzukommen und einen integrierten Zugriff auf verschiedene Informationsarten (z.B. Publikationen, Primärdaten, Wissenschaftler- und. Organisationsprofile, Forschungsprojektinformationen) zu bieten, die in zunehmenden Maße digital zur Verfügung stehen und diese in virtuellen Forschungsumgebungen verfügbar zu machen. Die daraus resultierende Herausforderungen struktureller und semantischer Heterogenität werden durch ein weites Feld von verschiedenen Metadaten-Standards, Inhaltserschließungsverfahren sowie Indexierungsansätze für verschiedene Arten von Information getragen. Bisher existiert jedoch kein allgemeingültiges, integrierendes Modell für Organisation und Retrieval von Wissen in Digitalen Bibliotheken. Dieser Beitrag stellt aktuelle Forschungsentwicklungen und -aktivitäten vor, die die Problematik der semantischen Interoperabilität in Digitalen Bibliotheken behandeln und präsentiert ein Modell für eine integrierte Suche in textuellen Daten (z.B. Publikationen) und Faktendaten (z.B. Primärdaten), das verschiedene Ansätze der aktuellen Forschung aufgreift und miteinander in Bezug setzt. Eingebettet in den Forschungszyklus treffen dabei traditionelle Inhaltserschließungsverfahren für Publikationen auf neuere ontologie-basierte Ansätze, die für die Repräsentation komplexerer Informationen und Zusammenhänge (z.B. in sozialwissenschaftlichen Umfragedaten) geeigneter scheinen. Die Vorteile des Modells sind (1) die einfache Wiederverwendbarkeit bestehender Wissensorganisationssysteme sowie (2) ein geringer Aufwand bei der Konzeptmodellierung durch Ontologien.
-
Nentwig, L.: Semantische Interoperabilität : Bd.3: Qualitätssicherung von Spezifikationen (2010)
0.01
0.01194316 = product of:
0.04777264 = sum of:
0.04777264 = weight(_text_:und in 4849) [ClassicSimilarity], result of:
0.04777264 = score(doc=4849,freq=34.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.40386027 = fieldWeight in 4849, product of:
5.8309517 = tf(freq=34.0), with freq of:
34.0 = termFreq=34.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.03125 = fieldNorm(doc=4849)
0.25 = coord(1/4)
- Abstract
- Ziel des »Semantic Interoperability Engineering« (SIE) ist es, Grundlagen für einen Organisationsgrenzen überschreitenden Datenaustausch zu schaffen, in dem Fehlinterpretationen und inhaltliche Missverständnisse von Begriffen, Datenstrukturen, Schreibkonventionen etc. ausgeschlossen sind und semantische Interoperabilität herrscht. Im Zentrum des vorliegenden Bands 3 »Qualitätssicherung von Spezifikationen« stehen die sogenannten Interoperabilitätsspezifikationen. Mit ihnen werden diejenigen Eigenschaften erfasst, die IT-Systeme aufweisen müssen, um an einem interoperablen Datenaustausch teilzunehmen. Nur Spezifikationen mit einer hohen Qualität gewährleisten eine durchgängig eindeutige und semantische Interoperabilität. Neben der systematischen Entwicklung der Interoperabilitätsspezifikationen selbst nimmt daher der begleitende Qualitätsmanagementprozess einen wichtigen Teil dieses White Papers ein.
Das SIE-Vorgehen ist für viele Umfelder geeignet: Sowohl Unternehmen mit internen Spezifikationsaktivitäten als auch Organisationen, die Standards entwickeln, können wesentlich vom SIE profitieren. Ein zentraler Aspekt ist, dass das beschriebene Vorgehen auf eine gemeinschaftliche Entwicklung von Spezifikationen durch eine offene1 und gleichberechtigte Community ausgerichtet ist. »Community« bezeichnet die Gesamtheit aller an der Entwicklung einer Spezifikation beteiligten Personen und Organisationen. Die einzelnen beteiligten Personen und Organisationen werden wiederum durch verschiedene Rollen beschrieben. Durch ihre jeweiligen Sichten ergänzen sich ihre Beiträge und tragen so zur Steigerung der Qualität bei. Durch die aktive und kontinuierliche Einbindung der Community sowie den integrierten Qualitätsmanagementprozess werden die Risiken eines Scheiterns reduziert und gleichzeitig die Chancen auf eine qualitativ hochwertige, akzeptierte und nutzbare Spezifikation deutlich gesteigert. Dem SIE-Vorgehen liegen drei Stützpfeiler als Richtlinie zugrunde, welche von der Community unbedingt eingehalten und verinnerlicht werden sollten: Kooperation - Vertrauen - Offenheit.
- Content
- Um zwischen Behörden, Wirtschaft und Bürgern durchgängige Prozessketten zu erreichen, wird heute weitgehend auf internetgestützte Kooperation gesetzt. Vielfach sind dabei Insellösungen und autarke IT-Fachanwendungen entstanden, die nicht ohne Weiteres interoperabel sind. Trotz eines syntaktisch korrekten Datenaustausches können die Nutzung unterschiedlicher Begriffe, Datenstrukturen und Schreibkonventionen zu Fehlinterpretationen führen. In der White Paper-Reihe »Semantische Interoperabilität« vermittelt das Fraunhofer ISST in verständlicher Weise Grundlagen und Lösungsansätze des »Semantic Interoperability Engineerings « (SIE). Die Reihe richtet sich an technisch interessierte Personenkreise mit und ohne fachliches Vorwissen (vom Projektleiter bis zum CIO). Vgl.: http://www.isst.fraunhofer.de/geschaeftsfelder/gfegovernment/referenzprojekte/sie/white-paper/index.jsp.
- Imprint
- Berlin : Fraunhofer-Institut für Software- und Systemtechnik ISST
-
Budin, G.: Kommunikation in Netzwerken : Terminologiemanagement (2006)
0.01
0.011586567 = product of:
0.04634627 = sum of:
0.04634627 = weight(_text_:und in 5700) [ClassicSimilarity], result of:
0.04634627 = score(doc=5700,freq=8.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.39180204 = fieldWeight in 5700, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0625 = fieldNorm(doc=5700)
0.25 = coord(1/4)
- Abstract
- Dieses Kapitel gibt einen Überblick über Ziele, Methoden, und Anwendungskontexte des Terminologiemanagements. Eine Definition von "Terminologie" leitet über zu einem terminologischen Wissensmodell, mit dem die Dynamik und Komplexität von begrifflichen Wissensstrukturen und entsprechenden lexikalischen Repräsentationsformen beschrieben werden kann. Ziel der terminologischen Wissensmodellierung ist die Erarbeitung von sprachlichen und begrifflichen Voraussetzungen für präzise Fachkommunikation sowie für die semantische Interoperabilität im künftigen "Semantic Web".
-
Göldner, R.: Datenaustauschformate : Erfahrungen und Schlüsse aus ADeX (2010)
0.01
0.011586567 = product of:
0.04634627 = sum of:
0.04634627 = weight(_text_:und in 2435) [ClassicSimilarity], result of:
0.04634627 = score(doc=2435,freq=2.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.39180204 = fieldWeight in 2435, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.125 = fieldNorm(doc=2435)
0.25 = coord(1/4)
-
Concepts in Context : Cologne Conference on Interoperability and Semantics in Knowledge Organization
0.01
0.011586567 = product of:
0.04634627 = sum of:
0.04634627 = weight(_text_:und in 4038) [ClassicSimilarity], result of:
0.04634627 = score(doc=4038,freq=32.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.39180204 = fieldWeight in 4038, product of:
5.656854 = tf(freq=32.0), with freq of:
32.0 = termFreq=32.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.03125 = fieldNorm(doc=4038)
0.25 = coord(1/4)
- Abstract
- Am 19. und 20. Juli 2010 richten das Institut für Informationsmanagement (IIM) der Fachhochschule Köln und die Deutsche Nationalbibliothek (DNB) im Rahmen der Projekte CrissCross und RESEDA die Fachtagung Concepts in Context - Cologne Conference on Interoperability and Semantics in Knowledge Organization aus. Die Tagung findet in der Fachhochschule Köln statt und widmet sich Fragen der Interoperabilität und semantischer Informationen in der Wissensorganisation. Die Konferenz bietet Experten, Anwendern und Interessierten die Möglichkeit, verschiedene Modelle und Strategien der Wissensorganisation zu diskutieren und sich über neue Entwicklungen im Bereich der Standardisierung und Implementierung solcher Modelle zu informieren und auszutauschen. Der erste Tag ist als Abschlussworkshop für das DFG-Projekt CrissCross konzipiert und bietet neben einem umfassenden Überblick über das Projekt auch weitere praktische Anwendungsbeispiele für semantische Interoperabilität und mögliche Szenarien für ihre Anwendung in Online-Katalogen und im Rahmen des Semantic Web. Eine vertiefte Auseinandersetzung mit neueren Entwicklungen im Bereich der Interoperabilität unterschiedlicher Begriffssysteme sowie mit zukunftsträchtigen Modellen der semantischen Wissensorganisation findet am zweiten Tag statt. Aktuelle thematische Schwerpunkte werden hier die Functional Requirements for Bibliographic Records (FRBR) und die Functional Requirements for Subject Authority Data (FRSAD) sein. Zur Konferenz werden Informationsspezialisten aus mehreren Ländern erwartet.
- Content
- Beiträge: Insights and Outlooks: A Retrospective View on the CrissCross Project - Jan-Helge Jacobs, Tina Mengel, Katrin Müller Translingual Retrieval: Moving between Vocabularies - MACS 2010 - Helga Karg und Yvonne Jahns Intersystem Relations: Characteristics and Functionalities - Jessica Hubrich Would an Explicit Versioning of the DDC Bring Advantages for Retrieval? - Claudia Effenberger und Julia Hauser A Semantic Web View on Concepts and their Alignments - From Specific Library Cases to a Wider Linked Data Perspective - Antoine Isaac Conceptual Foundations for Semantic Mapping and Semantic Search - Dagobert Soergel In Pursuit of Cross-Vocabulary Interoperability: Can We Standardize Mapping Types? - Stella Dextre Clarke Searching in a Multi-Thesauri-Scenario - Experiences with SKOS and Terminology Mappings - Philipp Mayr Interoperability and Semantics in RDF Representations of FRBR, FRAD and FRSAD - Gordon Dunsire FRSAD: Challenges of Modelling the Aboutness - Maja Zumer Integrating Interoperability into FRSAD - Felix Boteram
-
Hubrich, J.: Semantische Interoperabilität zwischen Klassifikationen und anderen Wissenssystemen (2018)
0.01
0.011586567 = product of:
0.04634627 = sum of:
0.04634627 = weight(_text_:und in 4272) [ClassicSimilarity], result of:
0.04634627 = score(doc=4272,freq=8.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.39180204 = fieldWeight in 4272, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0625 = fieldNorm(doc=4272)
0.25 = coord(1/4)
- Abstract
- Heutzutage sind Informationsräume häufig durch die Heterogenität der in ihr enthaltenen Ressourcen geprägt, deren inhaltliche Beschreibungen aus unterschiedlichen Quellen stammen und auf der Basis verschiedener, sich strukturell und typologisch unterscheidender Erschließungsinstrumente erstellt wurden. Einzelne Klassifikationen können in solchen Räumen nur bedingt Suchunterstützung bieten, da sie stets nur auf einen Teilbestand zugreifen. Dieser Artikel beschreibt ausgehend von den Charakteristiken von Indexierungssprachen, wie durch semantische Interoperabilität eine Verbesserung der Retrievalsituation erreicht werden kann.
- Series
- Bibliotheks- und Informationspraxis; 53
-
Gabler, S.: Thesauri - a Toolbox for Information Retrieval (2023)
0.01
0.011586567 = product of:
0.04634627 = sum of:
0.04634627 = weight(_text_:und in 114) [ClassicSimilarity], result of:
0.04634627 = score(doc=114,freq=8.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.39180204 = fieldWeight in 114, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0625 = fieldNorm(doc=114)
0.25 = coord(1/4)
- Abstract
- Thesauri sind etablierte Instrumente der bibliothekarischen Sacherschließung. Durch die jüngste technologische Entwicklung und das Aufkommen künstlicher Intelligenz haben sie an Bedeutung gewonnen, da sie in der Lage sind, erklärbare Ergebnisse für die computergestützte Erschließungs- und Konkordanzarbeit mit anderen Datensätzen und Modellen sowie für die Datenvalidierung zu liefern. Ausgehend von bestehenden eigenen Recherchen für eine Masterarbeit wird der Aspekt der Qualitätssicherung in Bibliothekskatalogen anhand ausgewählter Beispiele vertieft.
- Source
- Bibliothek: Forschung und Praxis. 47(2023) H.2, S.189-199
-
Mayr, P.: Thesauri, Klassifikationen & Co - die Renaissance der kontrollierten Vokabulare? (2006)
0.01
0.011495691 = product of:
0.045982763 = sum of:
0.045982763 = weight(_text_:und in 28) [ClassicSimilarity], result of:
0.045982763 = score(doc=28,freq=14.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.38872904 = fieldWeight in 28, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.046875 = fieldNorm(doc=28)
0.25 = coord(1/4)
- Abstract
- Der Beitrag beschäftigt sich mit aktuellen Entwicklungen im Bereich des Terminologie Mapping zwischen kontrollierten Vokabularen. Die unterschiedlichen Typen und Ausprägungen von kontrollierten Vokabularen - Thesauri, Klassifikationen, Schlagwortnormdaten und kontrollierte Schlagwortlisten - dienen hauptsächlich der inhaltlichen Erschließung von Literatur und anderen Dokumenttypen und werden u. a. in Datenbanksystemen bei der Deskriptorensuche und zum Browsing angeboten. Die Zusammenführung der heterogenen Indexierungssprachen bei der übergreifenden Datenbankrecherche (crossdatabase retrieval) führt jedoch zu Problemen bei der semantischen Integration der zugrunde liegenden Bestände. Der Beitrag stellt in diesem Kontext den Ansatz sowie die bisherigen Ergebnisse des Projekts" Modellbildung und Heterogenitätsbehandlung" vor. Im Anschluss wird auf Bradford's Law of Scattering (BLS) sowie abgeleitete Einsatzmöglichkeiten des BLS im Projekt Bezug genommen: 1) BLS zur Untersuchung der Auswirkungen der Heterogenitätsbehandlung, 2) BLS bzw. Bradfordizing als alternativer, informationswissenschaftlich begründeter Zugangsmechanismus für Zeitschriftenartikel.
- Series
- Beiträge zur Bibliotheks- und Informationswissenschaft; 1
-
Gödert, W.: Multilingualität und Lokalisierung zur Wissenserkundung : oder vom Nutzen semantischer Netze für das Information Retrieval (2007)
0.01
0.011495691 = product of:
0.045982763 = sum of:
0.045982763 = weight(_text_:und in 557) [ClassicSimilarity], result of:
0.045982763 = score(doc=557,freq=14.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.38872904 = fieldWeight in 557, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.046875 = fieldNorm(doc=557)
0.25 = coord(1/4)
- Abstract
- Das CrissCross-Projekt verfolgt die Zielsetzung, ein erweitertes multilinguales und thesaurusbasiertes Registervokabular zur Dewey-Dezimalklassifikation (DDC Deutsch) zu erstellen, das als Recherchevokabulars zu heterogen erschlossenen Dokumenten verwendet werden kann und soll damit die Ausgangsbedingungen für die Gestaltung von OPAC-Retrievalumgebungen verbessern helfen. Im einzelnen soll jedes Sachschlagwort der Schlagwortnormdatei (SWD) eine DDC-Notation erhalten und es sollen die im Projekt MACS begonnen Arbeiten fortgesetzt werden, Links zwischen den Schlagwörtern der SWD, den Library of Congress Subject Headings (LCSH) und dem Répertoire d'autorité-matière encyclopédique et alphabétique unifé (Rameau) herzustellen. In diesem Beitrag wird der Vorschlag gemacht, die Zielsetzung des Projektes darin zu sehen, eine Kern-Ontologie mit universalen Relationen als Klassifikation zu benutzen und die beteiligten Normdateien als zugeordnete semantische Netze zu entwickeln, indem nicht-generische Relationen die Aufgabe der durch die Lokalisierung gestellten Anforderungen übernehmen. Generische Relationen im bekannten Thesaurussinn sind für derartige semantische Netze nicht mehr erforderlich, da sie sich aus den generischen Beziehungen der Kern-Ontologie vererben.
- Series
- Schriften der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare (VÖB); Bd. 2
-
Borst, T.: Repositorien auf ihrem Weg in das Semantic Web : semantisch hergeleitete Interoperabilität als Zielstellung für künftige Repository-Entwicklungen (2014)
0.01
0.011495691 = product of:
0.045982763 = sum of:
0.045982763 = weight(_text_:und in 1555) [ClassicSimilarity], result of:
0.045982763 = score(doc=1555,freq=14.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.38872904 = fieldWeight in 1555, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.046875 = fieldNorm(doc=1555)
0.25 = coord(1/4)
- Abstract
- Repositorien zählen mittlerweile zu den Standardanwendungen und -infrastrukturkomponenten im Bereich digitaler Bibliotheken und zielen mit ihrer durchgängigen Unterstützung des OAI-Protokolls seit jeher auf Interoperabilität, Austausch und Wiederverwendung ihrer Daten. In dem vorliegenden Artikel wird erläutert, warum das Protokoll in seiner bisherigen Form hierfür allerdings keine ausreichende Grundlage bietet. Demgegenüber bietet der Einsatz von Prinzipien und Techniken des Semantic Web die Aussicht, die Daten von Repositorien auf der Einzelebene nicht nur selbst besser wiederverwendbar und interoperabel mit anderen Repositorien zu publizieren, sondern durch die konsequente Verwendung von - teilweise bereits als Linked Open Data (LOD) vorliegenden - externen Daten in eine LOD-basierte Dateninfrastruktur zu integrieren. Vor diesem Hintergrund wird beschrieben, wie im Rahmen einer experimentellen Entwicklung die Metadaten eines großen Repositoriums für wirtschaftswissenschaftliche Literatur in ein Linked Dataset konvertiert wurden, und welche Folgearbeiten sich hieraus ergeben.
- Source
- Bibliothek: Forschung und Praxis. 38(2014) H.2, S.257-265
-
Dolud, L.; Kreis, C: ¬Die Crosskonkordanz Wirtschaft zwischen dem STW und der GND (2012)
0.01
0.011495691 = product of:
0.045982763 = sum of:
0.045982763 = weight(_text_:und in 1716) [ClassicSimilarity], result of:
0.045982763 = score(doc=1716,freq=14.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.38872904 = fieldWeight in 1716, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.046875 = fieldNorm(doc=1716)
0.25 = coord(1/4)
- Abstract
- Bibliotheken erarbeiten mit öffentlichen Mitteln unter hohem zeitlichem, personellem und finanziellem Aufwand wertvolle und nützliche Datenbestände. Was liegt im Sinne eines effizienten Ressourceneinsatzes näher, als solche Daten einer kooperativen Nutzung zuzuführen? Diese Frage mündete in den Jahren 2002 bis 2004 in einem DFG-finanzierten Projekt, an dem seinerzeit die Deutsche Bibliothek, das Hamburger Weltwirtschaftsarchiv, die Deutsche Zentralbibliothek für Wirtschaftswissenschaften Kiel (heute ZBW - Deutsche Zentralbibliothek für Wirtschaftswissenschaften - Leibniz-Informationszentrum Wirtschaft), der Gemeinsame Bibliotheksverbund und die Universitäts- und Stadtbibliothek Köln beteiligt waren. Ziel war es, den normierten Wortschatz des STW (Standard-Thesaurus Wirtschaft) mit dem wirtschaftswissenschaftlichen Teil der damaligen Schlagwortnormdatei (SWD) zu relationieren. Die Crosskonkordanz STW-GND bzw. Crosskonkordanz Wirtschaft wird mittlerweile durch die DNB und die ZBW in gemeinsamer Verantwortung weiterentwickelt und laufend gepflegt. Dabei han-delt es sich vor allem um die Anpassung der Crosskonkordanz nach redaktionellen Änderungen durch kontinuierliche Einarbeitung neuer bzw. geänderter oder gelöschter Deskriptoren.
-
Hubrich, J.: Concepts in Context - Cologne Conference on Interoperability and Semantics in Knowledge Organization : Internationale Fachtagung und Abschlussworkshop des DFGProjekts CrissCross in Köln (2010)
0.01
0.011449982 = product of:
0.04579993 = sum of:
0.04579993 = weight(_text_:und in 4315) [ClassicSimilarity], result of:
0.04579993 = score(doc=4315,freq=80.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.3871834 = fieldWeight in 4315, product of:
8.944272 = tf(freq=80.0), with freq of:
80.0 = termFreq=80.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.01953125 = fieldNorm(doc=4315)
0.25 = coord(1/4)
- Content
- "Am 19. und 20. Juli 2010 fand in der Fachhochschule Köln die internationale Tagung "Concepts in Context - Cologne Conference on Interoperability and Semantics in Knowledge Organization" statt. Ausgerichtet wurde sie mit finanzieller Unterstützung der Deutschen Forschungsgemeinschaft (DFG) vom Institut für Informationsmanagement (IIM) der Fachhochschule Köln in Kooperation mit der Deutschen Nationalbibliothek (DNB). Im Mittelpunkt der Veranstaltung standen Fragen der Modellierung von Interoperabilität und semantischen Informationen in der Wissensorganisation, die einen unmittelbaren thematischen Zusammenhang mit den am Institut für Informationsmanagement angesiedelten Projekten CrissCross und RESEDA aufweisen. Das Programm umfasste 11 Beiträge aus 5 verschiedenen Ländern sowohl zu praktischen als auch zu theoretischen Aspekten der Wissensorganisation unter besonderer Berücksichtigung moderner Technologien, aktueller Entwicklungen und zukunftsbezogener Perspektiven. Der erste Tag war als Abschlussworkshop für das CrissCross-Projekt konzipiert und bot in zwei Sessions neben einem umfassenden Überblick über das Projekt auch weitere Best-Practice-Beispiele für die Gestaltung von Interoperabilität vor allem im Rahmen von Ansätzen der Semantic-Web- und Linked-Data-Initiativen. Eine vertiefte Auseinandersetzung mit sich in der Entwicklung befindlichen oder auch erst kürzlich fertiggestellten Standards und Modellen der Interoperabilität und Wissensorganisation erfolgte am zweiten Tag, der mit einer Keynote von Dagobert Soergel von der University at Buffalo (USA) eröffnet wurde und in zwei weitere Sessions unterteilt war. Zu der Veranstaltung konnten Prof. Dr. Klaus-Dirk Schmitz, Leiter des Kölner Instituts für Informationsmanagement, sowie Ulrike Junger, Leiterin der Abteilung Sacherschließung der Deutschen Nationalbibliothek in Stellvertretung der Generaldirektorin, Dr. Elisabeth Niggemann, ca. 120 Teilnehmer aus insgesamt 16 Ländern begrüßen. Prof. Klaus-Dirk Schmitz stellte in seiner Eröffnungsrede die Fachhochschule Köln und insbesondere das Institut für Informationsmanagement vor und erörterte das Konferenzthema mit Beispielen aus Forschungsgebieten der Terminologiearbeit. Ulrike Junger ging auf die gelungene Zusammenarbeit zwischen der Fachhochschule Köln und der Deutschen Nationalbibliothek ein, die mit dem DFG-Projekt DDC Deutsch begonnen und in dem DFG-Projekt CrissCross eine Fortsetzung gefunden hatte. Eine Einführung in die spezifischen Konferenzinhalte gab schließlich Prof. Winfried Gödert, Leiter des RESEDA-Projekts sowie - seitens der Fachhochschule Köln - des CrissCross-Projekts.
Die erste Session der Veranstaltung war dem von der DFG geförderten Projekt CrissCross gewidmet, das von der Fachhochschule Köln in Kooperation mit der Deutschen Nationalbibliothek durchgeführt wird. Das Projekt, das 2006 begann und im Herbst diesen Jahres endet, verfolgt das Ziel, ein multilinguales, thesaurusbasiertes und nutzerfreundliches Recherchevokabular zu heterogen erschlossenen Informationsressourcen zu schaffen. Hierzu wird einerseits eine unidirektionale Verbindung zwischen Sachschlagwörtern der Schlagwortnormdatei (SWD) und Notationen der Dewey-Dezimalklassifikation hergestellt, andererseits werden - in Fortführung der in dem Projekt Multilingual Access to Subject Headings (MACS) entwickelten Methodik - häufig verwendete SWD-Schlagwörter mit ihren Äquivalenten in der englischen Schlagwortsprache Library of Congress Subject Headings (LCSH) und der französischen Schlagwortsprache Répertoire d'autorité-matière encyclopédique et alphabétique unifié (RAMEAU) verknüpft. Jan-Helge Jacobs, Katrin Müller und Tina Mengel von der Fachhochschule Köln gaben einen Überblick über das für das Projekt spezifische SWD-DDC-Mapping. Sie erläuterten die zugrunde liegende Methodik und stellten den mit den Daten gegebenen möglichen Mehrwert sowohl zur Verbesserung des Zugangs zur DDC und zu DDC-erschlossenen Informationsressourcen im Allgemeinen als auch zur Unterstützung von explorativen Suchprozessen im Speziellen dar. Ergänzend präsentierten Yvonne Jahns und Helga Karg von der Deutschen Nationalbibliothek den im MACSProjekt praktizierten Ansatz zur Verbindung von Indexierungsinstrumenten verschiedener Sprachen und das damit gegebene Potential zur Unterstützung eines multilingualen Retrievals. Die adäquate Modellierung von Dokumentationssprachen und Relationen zur Gewährleistung von Interoperabilität und Verbesserung von Suchfunktionalitäten bei heterogen erschlossenen Dokumentbeständen besonders in Hinblick auf Semantic-Web-Applikationen war Thema der zweiten Session. Jessica Hubrich von der Fachhochschule Köln nahm theoretische Ergebnisse des CrissCross-Projektes auf und stellte ein gestuftes Interoperabilitätsmodell vor, in dem Methoden zur Erstellung von Links zwischen Begriffen verschiedener Wissenssysteme in Bezug gesetzt wurden zu spezifischen Suchfunktionalitäten in Retrievalszenarien. Im anschließenden Vortrag von Claudia Effenberger und Julia Hauser von der Deutschen Nationalbibliothek wurde von den bisherigen Ergebnissen eines an der Deutschen Nationalbibliothek angesiedelten Forschungsprojekts berichtet, in dem jeder Klasse der Dewey-Dezimalklassifikation ein eindeutiger Identifier zugeordnet wird, durch den verschiedene Versionen einer Klasse unterschieden werden können. Dies dient der Verbesserung des Zugriffs auf bibliografische Titeldaten, die auf der Basis unterschiedlicher DDC-Versionen erschlossen wurden. Der erste Tag schloss mit einer Präsentation von Antoine Isaac von der Vrije Universiteit in Amsterdam ab. In dieser wurde Interoperabilität als Teil eines semantischen Netzes von Linked Data diskutiert und ein Überblick über zentrale Linked-Data-Projekte gegeben.
Der zweite Tag begann mit einer Keynote von Dagobert Soergel von der University at Buffalo mit dem Thema Conceptual Foundations for Semantic Mapping and Semantic Search. Im Zentrum stand die Idee eines Hubs, einer semantischen Verbindungsstruktur in Form einer Kernklassifikation, die elementare Begriffe sowie semantische Relationen enthält und über die ein Mapping zwischen unterschiedlichen Wissensorganisationssystemen erfolgen soll. Die Methode wurde durch zahlreiche Beispiele veranschaulicht. Die erste Session des zweiten Tages war dem Thema Interoperabilität und Standardisierung gewidmet. Stella Dextre Clarke aus Großbritannien berichtete - ausgehend von den in zentralen Mappingprojekten erstellten Relationen zwischen Begriffen unterschiedlicher Dokumentationssprachen - über Herausforderungen und Fragestellungen bei der Entwicklung des neuen ISO-Standards 25964-2, der als Leitfaden zur Herstellung von Interoperabilität zwischen Thesauri und anderen Vokabularien fungieren soll. In dem Folgevortrag von Philipp Mayr vom GESIS Leipniz-Institut für Sozialwissenschaften wurd mit KoMoHe (Kompetenzzentrum Modellbildung und Heterogenitätsbehandlung) ein bereits abgeschlossenes Projekt vorgestellt, dessen Mehrwert für das Retrieval in heterogen erschlossenen Informationsräumen mittels eines Information-Retrieval-Tests bestätigt werden konnte. Unpräzise Trefferresultate motivierten indes zu dem Nachfolgeprojekt IRM (Value-Added Services for Information Retrieval), in dem Möglichkeiten von Suchexpansion und Re-Ranking untersucht werden.
Ein sehr aktuelles Thema mit hohem Potential für zukünftige Entwicklung wurde mit der letzten Session adressiert: die Functional Requirements for Bibliographic Records (FRBR), die Functional Requirements for Authority Data (FRAD) sowie die Functional Requirements for Subject Authority Data (FRSAD), wobei der Schwerpunkt auf den letzteren lag. Gordon Dunsire von der University of Strathclyde in Glasgow beschrieb aktuelle Ansätze für eine adäquate RDF-Repräsentation von FRBR, FRAD und FRSAD und diskutierte die dabei auftretenden Fragen der Interoperabilität, die mitunter dadurch bedingt sind, dass die RDF-Versionen von FRBR, FRAD und FRSAD mit eigenständigen Namensräumen erstellt werden. Auf FRSAD im Speziellen ging Maja Zumer von der Universität von Ljubljana ein. Sie berichtete von den Schwierigkeiten, die mit der Entwicklung des Modells einhergingen und stellte auch einige der zu dem Draft eingegangenen Kommentare vor. Die Zukunftsaufgabe liegt für sie in der Harmonisierung der Modelle der FRBR-Familie. Aus der Perspektive der Projekte CrissCross und RESEDA ist Interoperabilität indes in FRSAD bisher nur unzureichend berücksichtigt. Eine Erweiterung wird für notwendig gehalten. Zentrale Überlegungen hierzu wurden von Felix Boteram von der Fachhochschule Köln vorgestellt. Die Folien sowie zahlreiche mp3-Aufnahmen der Vorträge können auf der Konferenzhomepage unter http://linux2.fbi.fh-koeln.de/cisko2010/ programm.html eingesehen werden. Die Herausgabe eines Sammelbandes mit Artikeln zu den in der Konferenz behandelten Themen ist in Planung."
- Source
- Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 63(2010) H.3/4, S.129-132
-
Effenberger, C.: ¬Die Dewey Dezimalklassifikation als Erschließungsinstrument : optimiertes Retrieval durch eine Versionierung der DDC (2011)
0.01
0.011449982 = product of:
0.04579993 = sum of:
0.04579993 = weight(_text_:und in 4321) [ClassicSimilarity], result of:
0.04579993 = score(doc=4321,freq=20.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.3871834 = fieldWeight in 4321, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0390625 = fieldNorm(doc=4321)
0.25 = coord(1/4)
- Abstract
- Unsere Welt ist voller Informationen. Diese werden seit jeher in eine systematische Ordnung gebracht. In der Geschichte der Wissensreprasentation spielen Bibliotheken und Bibliothekare eine grose Rolle. Bereits in der Antike gab es Kataloge. In der Bibliothek der Ptolemaer in Alexandria erarbeitete der Bibliothekar Kallimachos (ca. 305 . ca. 240 v.Chr.) die .Pinakes_g (Pinax: altgriechisch fur Tafel und Verzeichnis), die sehr wahrscheinlich gleichzeitig einen systematischen Katalog und eine Bibliographie verkorperten. Zusatzlich wurden die Dokumente rudimentar mittels eines vorgegebenen Ordnungssystems erschlossen und der Inhalt ruckte in den Mittelpunkt. Auch Philosophen hatten ihren Anteil an den Grundlagen der Wissensreprasentation. Aristoteles (384_]322 v.Chr.) arbeitete Kriterien aus, nach denen Begriffe voneinander zu differenzieren sind und nach denen Begriffe in eine hierarchische Ordnung gebracht werden. Das waren die Grundlagen fur Klassifikationen. Eine methodische Revolution erleben Klassifikationsforschung und .praxis mit der .Decimal Classification_g (1876) des amerikanischen Bibliothekars Melvil Dewey (1851_]1931). Die Grundidee der Klassifikation war einfach. Das Wissen wurde in maximal zehn Unterbegriffe unterteilt und durch Dezimalzeichen dargestellt. Die Aufstellung der Bucher in der Bibliothek folgte der Klassifikation, so dass thematisch verwandte Werke dicht beieinander standen. Die Dewey Dezimalklassifikation (DDC) wird auch heute noch haufig fur die inhaltliche Erschliesung genutzt und im Umkehrschluss um Dokumente aus einer Fulle von Informationen herausfinden zu konnen.
Diese These, dass die Versionierung der DDC zu einer verbesserten Suche führt, soll in dieser Arbeit untersucht werden. Es soll geprüft werden, ob die vorgeschlagene Vorgehensweise zu einem besseren Retrievalergebnis führt. Die Arbeit wird zunächst einen Überblick über die theoretischen Hintergründe von inhaltlicher Erschließung und den technischen Methoden liefern, bevor das eigentliche Problem anhand einer Testdatenbank und entsprechender Suchanfragen behandelt wird.
-
Menzel, S.; Schnaitter, H.; Zinck, J.; Petras, V.; Neudecker, C.; Labusch, K.; Leitner, E.; Rehm, G.: Named Entity Linking mit Wikidata und GND : das Potenzial handkuratierter und strukturierter Datenquellen für die semantische Anreicherung von Volltexten (2021)
0.01
0.011449982 = product of:
0.04579993 = sum of:
0.04579993 = weight(_text_:und in 373) [ClassicSimilarity], result of:
0.04579993 = score(doc=373,freq=20.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.3871834 = fieldWeight in 373, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0390625 = fieldNorm(doc=373)
0.25 = coord(1/4)
- Abstract
- Named Entities (benannte Entitäten) - wie Personen, Organisationen, Orte, Ereignisse und Werke - sind wichtige inhaltstragende Komponenten eines Dokuments und sind daher maßgeblich für eine gute inhaltliche Erschließung. Die Erkennung von Named Entities, deren Auszeichnung (Annotation) und Verfügbarmachung für die Suche sind wichtige Instrumente, um Anwendungen wie z. B. die inhaltliche oder semantische Suche in Texten, dokumentübergreifende Kontextualisierung oder das automatische Textzusammenfassen zu verbessern. Inhaltlich präzise und nachhaltig erschlossen werden die erkannten Named Entities eines Dokuments allerdings erst, wenn sie mit einer oder mehreren Quellen verknüpft werden (Grundprinzip von Linked Data, Berners-Lee 2006), die die Entität eindeutig identifizieren und gegenüber gleichlautenden Entitäten disambiguieren (vergleiche z. B. Berlin als Hauptstadt Deutschlands mit dem Komponisten Irving Berlin). Dazu wird die im Dokument erkannte Entität mit dem Entitätseintrag einer Normdatei oder einer anderen zuvor festgelegten Wissensbasis (z. B. Gazetteer für geografische Entitäten) verknüpft, gewöhnlich über den persistenten Identifikator der jeweiligen Wissensbasis oder Normdatei. Durch die Verknüpfung mit einer Normdatei erfolgt nicht nur die Disambiguierung und Identifikation der Entität, sondern es wird dadurch auch Interoperabilität zu anderen Systemen hergestellt, in denen die gleiche Normdatei benutzt wird, z. B. die Suche nach der Hauptstadt Berlin in verschiedenen Datenbanken bzw. Portalen. Die Entitätenverknüpfung (Named Entity Linking, NEL) hat zudem den Vorteil, dass die Normdateien oftmals Relationen zwischen Entitäten enthalten, sodass Dokumente, in denen Named Entities erkannt wurden, zusätzlich auch im Kontext einer größeren Netzwerkstruktur von Entitäten verortet und suchbar gemacht werden können
- Series
- Bibliotheks- und Informationspraxis; 70
-
Niggemann, E.: Wer suchet, der findet? : Verbesserung der inhaltlichen Suchmöglichkeiten im Informationssystem Der Deutschen Bibliothek (2006)
0.01
0.0113349045 = product of:
0.045339618 = sum of:
0.045339618 = weight(_text_:und in 5812) [ClassicSimilarity], result of:
0.045339618 = score(doc=5812,freq=10.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.38329202 = fieldWeight in 5812, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0546875 = fieldNorm(doc=5812)
0.25 = coord(1/4)
- Abstract
- Elektronische Bibliothekskataloge und Bibliografien haben ihr Monopol bei der Suche nach Büchern, Aufsätzen, musikalischen Werken u. a. verloren. Globale Suchmaschinen sind starke Konkurrenten, und Bibliotheken müssen heute so planen, dass ihre Dienstleistungen auch morgen noch interessant sind. Die Deutsche Bibliothek (DDB) wird ihre traditionelle Katalogrecherche zu einem globalen, netzbasierten Informationssystem erweitern, das die Vorteile der neutralen, qualitätsbasierten Katalogsuche mit den Vorteilen moderner Suchmaschinen zu verbinden sucht. Dieser Beitrag beschäftigt sich mit der Verbesserung der inhaltlichen Suchmöglichkeiten im Informationssystem Der Deutschen Bibliothek. Weitere Entwicklungsstränge sollen nur kurz im Ausblick angerissen werden.
- Source
- Information und Sprache: Beiträge zu Informationswissenschaft, Computerlinguistik, Bibliothekswesen und verwandten Fächern. Festschrift für Harald H. Zimmermann. Herausgegeben von Ilse Harms, Heinz-Dirk Luckhardt und Hans W. Giessen
-
Mayr, P.; Petras, V.: Crosskonkordanzen : Terminologie Mapping und deren Effektivität für das Information Retrieval
0.01
0.0113349045 = product of:
0.045339618 = sum of:
0.045339618 = weight(_text_:und in 1996) [ClassicSimilarity], result of:
0.045339618 = score(doc=1996,freq=10.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.38329202 = fieldWeight in 1996, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0546875 = fieldNorm(doc=1996)
0.25 = coord(1/4)
- Abstract
- Das Bundesministerium für Bildung und Forschung hat eine große Initiative zur Erstellung von Crosskonkordanzen gefördert, die 2007 zu Ende geführt wurde. Die Aufgabe dieser Initiative war die Organisation, die Erstellung und das Management von Crosskonkordanzen zwischen kontrollierten Vokabularen (Thesauri, Klassifikationen, Deskriptorenlisten) in den Sozialwissenschaften und anderen Fachgebieten. 64 Crosskonkordanzen mit mehr als 500.000 Relationen wurden umgesetzt. In der Schlussphase des Projekts wurde eine umfangreiche Evaluation durchgeführt, die die Effektivität der Crosskonkordanzen in unterschiedlichen Informationssystemen testen sollte. Der Artikel berichtet über die Crosskonkordanz-Arbeit und die Evaluationsergebnisse.