-
Kasprzik, A.: Voraussetzungen und Anwendungspotentiale einer präzisen Sacherschließung aus Sicht der Wissenschaft (2018)
0.01
0.012416765 = product of:
0.04966706 = sum of:
0.04966706 = weight(_text_:und in 5195) [ClassicSimilarity], result of:
0.04966706 = score(doc=5195,freq=12.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.41987535 = fieldWeight in 5195, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0546875 = fieldNorm(doc=5195)
0.25 = coord(1/4)
- Abstract
- Große Aufmerksamkeit richtet sich im Moment auf das Potential von automatisierten Methoden in der Sacherschließung und deren Interaktionsmöglichkeiten mit intellektuellen Methoden. In diesem Kontext befasst sich der vorliegende Beitrag mit den folgenden Fragen: Was sind die Anforderungen an bibliothekarische Metadaten aus Sicht der Wissenschaft? Was wird gebraucht, um den Informationsbedarf der Fachcommunities zu bedienen? Und was bedeutet das entsprechend für die Automatisierung der Metadatenerstellung und -pflege? Dieser Beitrag fasst die von der Autorin eingenommene Position in einem Impulsvortrag und der Podiumsdiskussion beim Workshop der FAG "Erschließung und Informationsvermittlung" des GBV zusammen. Der Workshop fand im Rahmen der 22. Verbundkonferenz des GBV statt.
-
Wiesenmüller, H.: Maschinelle Indexierung am Beispiel der DNB : Analyse und Entwicklungmöglichkeiten (2018)
0.01
0.012416765 = product of:
0.04966706 = sum of:
0.04966706 = weight(_text_:und in 5209) [ClassicSimilarity], result of:
0.04966706 = score(doc=5209,freq=12.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.41987535 = fieldWeight in 5209, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0546875 = fieldNorm(doc=5209)
0.25 = coord(1/4)
- Abstract
- Der Beitrag untersucht die Ergebnisse des bei der Deutschen Nationalbibliothek (DNB) eingesetzten Verfahrens zur automatischen Vergabe von Schlagwörtern. Seit 2017 kommt dieses auch bei Printausgaben der Reihen B und H der Deutschen Nationalbibliografie zum Einsatz. Die zentralen Problembereiche werden dargestellt und an Beispielen illustriert - beispielsweise dass nicht alle im Inhaltsverzeichnis vorkommenden Wörter tatsächlich thematische Aspekte ausdrücken und dass die Software sehr häufig Körperschaften und andere "Named entities" nicht erkennt. Die maschinell generierten Ergebnisse sind derzeit sehr unbefriedigend. Es werden Überlegungen für mögliche Verbesserungen und sinnvolle Strategien angestellt.
-
Dreis, G.: Formen des sachlichen Zugriffs : Probleme des automatischen Indexierens (1991)
0.01
0.01228941 = product of:
0.04915764 = sum of:
0.04915764 = weight(_text_:und in 2995) [ClassicSimilarity], result of:
0.04915764 = score(doc=2995,freq=4.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.41556883 = fieldWeight in 2995, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.09375 = fieldNorm(doc=2995)
0.25 = coord(1/4)
- Series
- Zeitschrift für Bibliothekswesen und Bibliographie: Sonderh.52
- Source
- Der Online-Publikumskatalog der Universitätsbibliothek Düsseldorf: methodische Erkenntnisse und Erfahrungen, OPAC-Kolloquium am 27. u.28.11.1989. Hrsg.: G. Gattermann
-
Reimer, U.: Verfahren der automatischen Indexierung : benötigtes Vorwissen und Ansätze zu seiner automatischen Akquisition, ein Überblick (1992)
0.01
0.01228941 = product of:
0.04915764 = sum of:
0.04915764 = weight(_text_:und in 7858) [ClassicSimilarity], result of:
0.04915764 = score(doc=7858,freq=4.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.41556883 = fieldWeight in 7858, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.09375 = fieldNorm(doc=7858)
0.25 = coord(1/4)
- Source
- Experimentelles und praktisches Information Retrieval: Festschrift für Gerhard Lustig. Hrsg. R. Kuhlen
-
Lück, W.: Erfahrungen mit dem automatischen Indexierungssystem AIR/PHYS (1988)
0.01
0.01228941 = product of:
0.04915764 = sum of:
0.04915764 = weight(_text_:und in 526) [ClassicSimilarity], result of:
0.04915764 = score(doc=526,freq=4.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.41556883 = fieldWeight in 526, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.09375 = fieldNorm(doc=526)
0.25 = coord(1/4)
- Source
- Von der Information zum Wissen - vom Wissen zur Information: traditionelle und moderne Informationssysteme für Wissenschaft und Praxis, Deutscher Dokumentartag 1987, Bad Dürkheim, vom 23.-25.9.1987. Hrsg.: H. Strohl-Goebel
-
Lepsky, K.: Automatisierung in der Sacherschließung : Maschinelles Indexieren von Titeldaten (1996)
0.01
0.01228941 = product of:
0.04915764 = sum of:
0.04915764 = weight(_text_:und in 3418) [ClassicSimilarity], result of:
0.04915764 = score(doc=3418,freq=4.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.41556883 = fieldWeight in 3418, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.09375 = fieldNorm(doc=3418)
0.25 = coord(1/4)
- Series
- Zeitschrift für Bibliothekswesen und Bibliographie: Sonderh.63
- Source
- 85. Deutscher Bibliothekartag in Göttingen 1995: Die Herausforderung der Bibliotheken durch elektronische Medien und neue Organisationsformen. Hrsg.: S. Wefers
-
Schneider, C.; Womser-Hacker, C.: Inhaltserschließungssysteme für Patenttexte : Test und Systemvergleich im Projekt PADOK (1986)
0.01
0.01228941 = product of:
0.04915764 = sum of:
0.04915764 = weight(_text_:und in 2648) [ClassicSimilarity], result of:
0.04915764 = score(doc=2648,freq=4.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.41556883 = fieldWeight in 2648, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.09375 = fieldNorm(doc=2648)
0.25 = coord(1/4)
- Source
- Deutscher Dokumentartag 1986, Freiburg, 8.-10.10.1986: Bedarfsorientierte Fachinformation: Methoden und Techniken am Arbeitsplatz. Bearb.: H. Strohl-Goebel
-
Knorz, G.: Automatische Indexierung (1994)
0.01
0.01228941 = product of:
0.04915764 = sum of:
0.04915764 = weight(_text_:und in 4254) [ClassicSimilarity], result of:
0.04915764 = score(doc=4254,freq=4.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.41556883 = fieldWeight in 4254, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.09375 = fieldNorm(doc=4254)
0.25 = coord(1/4)
- Series
- Berufsbegleitendes Ergänzungsstudium im Tätigkeitsfeld wissenschaftliche Information und Dokumentation (BETID): Lehrmaterialien; Nr.3
- Source
- Wissensrepräsentation und Information Retrieval. R.-D. Hennings u.a
-
Kasprzik, A.: Automatisierte und semiautomatisierte Klassifizierung : eine Analyse aktueller Projekte (2014)
0.01
0.01228941 = product of:
0.04915764 = sum of:
0.04915764 = weight(_text_:und in 2470) [ClassicSimilarity], result of:
0.04915764 = score(doc=2470,freq=16.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.41556883 = fieldWeight in 2470, product of:
4.0 = tf(freq=16.0), with freq of:
16.0 = termFreq=16.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.046875 = fieldNorm(doc=2470)
0.25 = coord(1/4)
- Abstract
- Das sprunghafte Anwachsen der Menge digital verfügbarer Dokumente gepaart mit dem Zeit- und Personalmangel an wissenschaftlichen Bibliotheken legt den Einsatz von halb- oder vollautomatischen Verfahren für die verbale und klassifikatorische Inhaltserschließung nahe. Nach einer kurzen allgemeinen Einführung in die gängige Methodik beleuchtet dieser Artikel eine Reihe von Projekten zur automatisierten Klassifizierung aus dem Zeitraum 2007-2012 und aus dem deutschsprachigen Raum. Ein Großteil der vorgestellten Projekte verwendet Methoden des Maschinellen Lernens aus der Künstlichen Intelligenz, arbeitet meist mit angepassten Versionen einer kommerziellen Software und bezieht sich in der Regel auf die Dewey Decimal Classification (DDC). Als Datengrundlage dienen Metadatensätze, Abstracs, Inhaltsverzeichnisse und Volltexte in diversen Datenformaten. Die abschließende Analyse enthält eine Anordnung der Projekte nach einer Reihe von verschiedenen Kriterien und eine Zusammenfassung der aktuellen Lage und der größten Herausfordungen für automatisierte Klassifizierungsverfahren.
-
Pielmeier, S.; Voß, V.; Carstensen, H.; Kahl, B.: Online-Workshop "Computerunterstützte Inhaltserschließung" 2020 (2021)
0.01
0.01228941 = product of:
0.04915764 = sum of:
0.04915764 = weight(_text_:und in 4409) [ClassicSimilarity], result of:
0.04915764 = score(doc=4409,freq=16.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.41556883 = fieldWeight in 4409, product of:
4.0 = tf(freq=16.0), with freq of:
16.0 = termFreq=16.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.046875 = fieldNorm(doc=4409)
0.25 = coord(1/4)
- Abstract
- Zum ersten Mal in digitaler Form und mit 230 Teilnehmer*innen fand am 11. und 12. November 2020 der 4. Workshop "Computerunterstützte Inhaltserschließung" statt, organisiert von der Deutschen Nationalbibliothek (DNB), der Firma Eurospider Information Technology, der Staatsbibliothek zu Berlin - Preußischer Kulturbesitz (SBB), der UB Stuttgart und dem Bibliotheksservice-Zentrum Baden-Württemberg (BSZ). Im Mittelpunkt stand der "Digitale Assistent DA-3": In elf Vorträgen wurden Anwendungsszenarien und Erfahrungen mit dem System vorgestellt, das Bibliotheken und andere Wissenschafts- und Kultureinrichtungen bei der Inhaltserschließung unterstützen soll. Die Begrüßung und Einführung in die beiden Workshop-Tage übernahm Frank Scholze (Generaldirektor der DNB). Er sieht den DA-3 als Baustein für die Verzahnung der intellektuellen und der maschinellen Erschließung.
-
Mödden, E.; Dreger, A.; Hommes, K.P.; Mohammadianbisheh, N.; Mölck, L.; Pinna, L.; Sitte-Zöllner, D.: ¬Der Weg zur Gründung der AG Erschließung ÖB-DNB und die Entwicklung eines maschinellen Verfahrens zur Verschlagwortung der Kinder- und Jugendliteratur mit GND-Vokabular (2020)
0.01
0.01215533 = product of:
0.04862132 = sum of:
0.04862132 = weight(_text_:und in 71) [ClassicSimilarity], result of:
0.04862132 = score(doc=71,freq=46.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.41103485 = fieldWeight in 71, product of:
6.78233 = tf(freq=46.0), with freq of:
46.0 = termFreq=46.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.02734375 = fieldNorm(doc=71)
0.25 = coord(1/4)
- Abstract
- Öffentliche Bibliotheken und die Deutsche Nationalbibliothek haben viele Gemeinsamkeiten. Öffentliche Bibliotheken und die Deutsche Nationalbibliothek haben aber auch viele Unterschiede. Zu den Gemeinsamkeiten zählt zweifelsohne die inhaltliche Vielfalt des Medienangebots. Anders als institutionell gebundene Bibliotheken wie Hochschulbibliotheken, seien es Universitäts- oder Fachhochschulbibliotheken, offerieren Öffentliche Bibliotheken wie auch die DNB ein über institutionelle Belange hinausreichendes universelles Angebot. Sie haben Kinderbücher und philosophische Abhandlungen, Ratgeber und Romane, Spiele und Noten im Bestand. Die Vielfalt der inhaltlichen und formalen Medien korrespondiert mit der Vielfalt der Nutzerinnen und Nutzer. Die Nutzerinnen und Nutzer der Öffentlichen Bibliotheken und der DNB müssen nicht Angehörige einer Institution sein; es reicht, dass sie ein wie auch immer geartetes je persönliches Informationsbedürfnis haben. Zu den Unterschieden zählen neben den gesetzlichen Aufgaben, für die DNB festgelegt als Bundesgesetz, für Öffentliche Bibliotheken in einigen Bundesländern durch entsprechende Landesgesetze, der ganz unterschiedliche Umgang mit Medien. Haben Öffentliche Bibliotheken den Anspruch, Gebrauchsbibliotheken zu sein, in denen Medien, intensiv genutzt, ein zeitlich begrenztes Aufenthaltsrecht haben, so fungiert die DNB als Gedächtnisinstitution, um die Medien auch für nachfolgende Generationen zu erhalten. Die DNB hat dabei die Aufgabe, die Medien "zu erschließen und bibliografisch zu verzeichnen" und hierbei "zentrale bibliothekarische und nationalbiografische Dienste zu leisten" sowie die Medien "für die Allgemeinheit nutzbar zu machen" (DNBG §2, Satz 1)1. Die Gebrauchsorientierung der Öffentlichen Bibliotheken impliziert, dass mit der hohen Kundenorientierung die gute Auffindbarkeit von Medien im Zentrum der Erschließung steht. Was liegt daher näher, als hierfür die zentralen Metadatendienste der DNB zu nutzen? Die Versorgung mit zentral erfassten Metadaten in hoher Qualität für die Erschließung lokaler Medienbestände ist wirtschaftlich und ermöglicht, die knappen personellen Ressourcen auf dringend erforderliche Vermittlungstätigkeiten zu konzentrieren. Soweit die Theorie, soweit auch die Praxis, bis vor etwa zehn Jahren Veränderungen eintraten.
Man einigte sich auf das Vorhaben, die THEMA-angereicherten Daten des Buchhandels bibliotheksspezifisch aufzuarbeiten und maschinell in verbale Erschließungskategorien zu transferieren. Es wurde darüber informiert, dass die Marketing- und Verlagsservice für den Buchhandel GmbH - MVB sich intensiv bemüht, die Verwendung von THEMA durch die Verlage im Rahmen einer Offensive zur Verbesserung der Qualität der Daten im Verzeichnis Lieferbarer Bücher zu forcieren. Die Workshop-Teilnehmenden waren sich einig in der Auffassung, an der Normierung des Schlagwortvokabulars, wie sie über die GND stattfindet, festzuhalten. Denkbar sei, freie Schlagwörter aus den MVB-Daten mit der GND abzugleichen und/oder eine Liste von Begriffen zu erstellen, die für ein Mapping der THEMA-Notationen auf die GND geeignet wären. Als geeignetstes Segment empfahl sich die Kinderliteratur, zum einen wegen ihrer großen Menge und hohen Bedeutung in den ÖBs und der mangelnden Erschließung durch jedwede Klassifikation, zum anderen wegen der Menge und Qualität der freien Schlagwörter in den Daten des Buchhandels. Verabredet wurde, dass die DNB eine Skizze für ein Projekt zur Nutzbarmachung von THEMA und der freien MVB-Schlagwörter erarbeiten und zur Verfügung stellen sollte, während die ÖB-Vertretungen eine Liste von Schlagwörtern im Bereich der Kinderliteratur, die von besonderer Relevanz z.B. bei der Auskunftserteilung sind, an die DNB übermitteln wollten.
-
Scherer, B.: Automatische Indexierung und ihre Anwendung im DFG-Projekt "Gemeinsames Portal für Bibliotheken, Archive und Museen (BAM)" (2003)
0.01
0.012008843 = product of:
0.048035372 = sum of:
0.048035372 = weight(_text_:und in 4283) [ClassicSimilarity], result of:
0.048035372 = score(doc=4283,freq=22.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.40608138 = fieldWeight in 4283, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0390625 = fieldNorm(doc=4283)
0.25 = coord(1/4)
- Abstract
- Automatische Indexierung verzeichnet schon seit einigen Jahren aufgrund steigender Informationsflut ein wachsendes Interesse. Allerdings gibt es immer noch Vorbehalte gegenüber der intellektuellen Indexierung in Bezug auf Qualität und größerem Aufwand der Systemimplementierung bzw. -pflege. Neuere Entwicklungen aus dem Bereich des Wissensmanagements, wie beispielsweise Verfahren aus der Künstlichen Intelligenz, der Informationsextraktion, dem Text Mining bzw. der automatischen Klassifikation sollen die automatische Indexierung aufwerten und verbessern. Damit soll eine intelligentere und mehr inhaltsbasierte Erschließung geleistet werden. In dieser Masterarbeit wird außerhalb der Darstellung von Grundlagen und Verfahren der automatischen Indexierung sowie neueren Entwicklungen auch Möglichkeiten der Evaluation dargestellt. Die mögliche Anwendung der automatischen Indexierung im DFG-ProjektGemeinsames Portal für Bibliotheken, Archive und Museen (BAM)" bilden den Schwerpunkt der Arbeit. Im Portal steht die bibliothekarische Erschließung von Texten im Vordergrund. In einem umfangreichen Test werden drei deutsche, linguistische Systeme mit statistischen Verfahren kombiniert (die aber teilweise im System bereits integriert ist) und evaluiert, allerdings nur auf der Basis der ausgegebenen Indexate. Abschließend kann festgestellt werden, dass die Ergebnisse und damit die Qualität (bezogen auf die Indexate) von intellektueller und automatischer Indexierung noch signifikant unterschiedlich sind. Die Gründe liegen in noch zu lösenden semantischen Problemen bzw, in der Obereinstimmung mit Worten aus einem Thesaurus, die von einem automatischen Indexierungssystem nicht immer nachvollzogen werden kann. Eine Inhaltsanreicherung mit den Indexaten zum Vorteil beim Retrieval kann, je nach System oder auch über die Einbindung durch einen Thesaurus, erreicht werden.
- Imprint
- Konstanz : Universität / Fachbereich Informatik und Informationswissenschaft
-
Schneider, A.: Moderne Retrievalverfahren in klassischen bibliotheksbezogenen Anwendungen : Projekte und Perspektiven (2008)
0.01
0.01194316 = product of:
0.04777264 = sum of:
0.04777264 = weight(_text_:und in 4031) [ClassicSimilarity], result of:
0.04777264 = score(doc=4031,freq=34.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.40386027 = fieldWeight in 4031, product of:
5.8309517 = tf(freq=34.0), with freq of:
34.0 = termFreq=34.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.03125 = fieldNorm(doc=4031)
0.25 = coord(1/4)
- Abstract
- Die vorliegende Arbeit beschäftigt sich mit modernen Retrievalverfahren in klassischen bibliotheksbezogenen Anwendungen. Wie die Verbindung der beiden gegensätzlich scheinenden Wortgruppen im Titel zeigt, werden in der Arbeit Aspekte aus der Informatik bzw. Informationswissenschaft mit Aspekten aus der Bibliothekstradition verknüpft. Nach einer kurzen Schilderung der Ausgangslage, der so genannten Informationsflut, im ersten Kapitel stellt das zweite Kapitel eine Einführung in die Theorie des Information Retrieval dar. Im Einzelnen geht es um die Grundlagen von Information Retrieval und Information-Retrieval-Systemen sowie um die verschiedenen Möglichkeiten der Informationserschließung. Hier werden Formal- und Sacherschließung, Indexierung und automatische Indexierung behandelt. Des Weiteren werden im Rahmen der Theorie des Information Retrieval unterschiedliche Information-Retrieval-Modelle und die Evaluation durch Retrievaltests vorgestellt. Nach der Theorie folgt im dritten Kapitel die Praxis des Information Retrieval. Es werden die organisationsinterne Anwendung, die Anwendung im Informations- und Dokumentationsbereich sowie die Anwendung im Bibliotheksbereich unterschieden. Die organisationsinterne Anwendung wird durch das Beispiel der Datenbank KURS zur Aus- und Weiterbildung veranschaulicht. Die Anwendung im Bibliotheksbereich bezieht sich in erster Linie auf den OPAC als Kompromiss zwischen bibliothekarischer Indexierung und Endnutzeranforderungen und auf seine Anreicherung (sog. Catalogue Enrichment), um das Retrieval zu verbessern. Der Bibliotheksbereich wird ausführlicher behandelt, indem ein Rückblick auf abgeschlossene Projekte zu Informations- und Indexierungssystemen aus den Neunziger Jahren (OSIRIS, MILOS I und II, KASCADE) sowie ein Einblick in aktuelle Projekte gegeben werden. In den beiden folgenden Kapiteln wird je ein aktuelles Projekt zur Verbesserung des Retrievals durch Kataloganreicherung, automatische Erschließung und fortschrittliche Retrievalverfahren präsentiert: das Suchportal dandelon.com und das 180T-Projekt des Hochschulbibliothekszentrums des Landes Nordrhein-Westfalen. Hierbei werden jeweils Projektziel, Projektpartner, Projektorganisation, Projektverlauf und die verwendete Technologie vorgestellt. Die Projekte unterscheiden sich insofern, dass in dem einen Fall eine große Verbundzentrale die Projektkoordination übernimmt, im anderen Fall jede einzelne teilnehmende Bibliothek selbst für die Durchführung verantwortlich ist. Im sechsten und letzten Kapitel geht es um das Fazit und die Perspektiven. Es werden sowohl die beiden beschriebenen Projekte bewertet als auch ein Ausblick auf Entwicklungen bezüglich des Bibliothekskatalogs gegeben. Diese Veröffentlichung geht zurück auf eine Master-Arbeit im postgradualen Fernstudiengang Master of Arts (Library and Information Science) an der Humboldt-Universität zu Berlin.
- Imprint
- Berlin : Institut für Bibliotheks- und Informationswissenschaft der Humboldt-Universität zu Berlin
-
Panyr, J.: STEINADLER: ein Verfahren zur automatischen Deskribierung und zur automatischen thematischen Klassifikation (1978)
0.01
0.011586567 = product of:
0.04634627 = sum of:
0.04634627 = weight(_text_:und in 5169) [ClassicSimilarity], result of:
0.04634627 = score(doc=5169,freq=2.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.39180204 = fieldWeight in 5169, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.125 = fieldNorm(doc=5169)
0.25 = coord(1/4)
-
Klinger, K.-H.: Automatische Inhaltserschließung einer Volltextdatenbank : Machbarkeitsstudie am Beispiel der FAZ (1994)
0.01
0.011586567 = product of:
0.04634627 = sum of:
0.04634627 = weight(_text_:und in 2766) [ClassicSimilarity], result of:
0.04634627 = score(doc=2766,freq=2.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.39180204 = fieldWeight in 2766, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.125 = fieldNorm(doc=2766)
0.25 = coord(1/4)
- Imprint
- Darmstadt : Fachhochschule, Fachbereich Information und Dokumentation
-
Knorz, G.: Automatisches Indexieren als Erkennen abstrakter Objekte (1983)
0.01
0.011586567 = product of:
0.04634627 = sum of:
0.04634627 = weight(_text_:und in 6133) [ClassicSimilarity], result of:
0.04634627 = score(doc=6133,freq=2.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.39180204 = fieldWeight in 6133, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.125 = fieldNorm(doc=6133)
0.25 = coord(1/4)
- Series
- Sprache und Information; 8
-
agi: Maschinelle und manuelle Indexierung optimieren (1999)
0.01
0.011586567 = product of:
0.04634627 = sum of:
0.04634627 = weight(_text_:und in 3889) [ClassicSimilarity], result of:
0.04634627 = score(doc=3889,freq=2.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.39180204 = fieldWeight in 3889, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.125 = fieldNorm(doc=3889)
0.25 = coord(1/4)
-
Lepsky, K.: Automatische Indexierung zur Erschließung deutschsprachiger Dokumente (1999)
0.01
0.011586567 = product of:
0.04634627 = sum of:
0.04634627 = weight(_text_:und in 4656) [ClassicSimilarity], result of:
0.04634627 = score(doc=4656,freq=8.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.39180204 = fieldWeight in 4656, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0625 = fieldNorm(doc=4656)
0.25 = coord(1/4)
- Abstract
- Der Beitrag beschäftigt sich mit der Anwendung eines Verfahrens zur automatischen Indexierung deutschsprachiger Texte in Bibliotheken. Die Arbeitsweise des Verfahrens und seine Entwicklung innerhalb der von der Deutschen Forschungsgemeinschaft geförderte und an der ULB Düsseldorf gemeinsam mit der Fachrichtung Informationswissenschaft der Universität des Saarlandes durchgeführten Projekte MILOS I, MILOS II und KASCADE werden geschildert. Die Ergebnisse von Retrievaltests belegen die Tauglichkeit des Verfahrens für den Einsatz in Bibliotheken. Aufsetzend auf diesen Ergebnissen werden Perspektiven für die bibliothekarische Sacherschließung im Hinblick auf den Einsatz von automatischen Verfahren entworfen
- Source
- nfd Information - Wissenschaft und Praxis. 50(1999) H.6, S.325-330
-
Nohr, H.: Grundlagen der automatischen Indexierung : ein Lehrbuch (2003)
0.01
0.011586567 = product of:
0.04634627 = sum of:
0.04634627 = weight(_text_:und in 1767) [ClassicSimilarity], result of:
0.04634627 = score(doc=1767,freq=32.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.39180204 = fieldWeight in 1767, product of:
5.656854 = tf(freq=32.0), with freq of:
32.0 = termFreq=32.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.03125 = fieldNorm(doc=1767)
0.25 = coord(1/4)
- Footnote
- Rez. in: nfd 54(2003) H.5, S.314 (W. Ratzek): "Um entscheidungsrelevante Daten aus der ständig wachsenden Flut von mehr oder weniger relevanten Dokumenten zu extrahieren, müssen Unternehmen, öffentliche Verwaltung oder Einrichtungen der Fachinformation effektive und effiziente Filtersysteme entwickeln, einsetzen und pflegen. Das vorliegende Lehrbuch von Holger Nohr bietet erstmalig eine grundlegende Einführung in das Thema "automatische Indexierung". Denn: "Wie man Information sammelt, verwaltet und verwendet, wird darüber entscheiden, ob man zu den Gewinnern oder Verlierern gehört" (Bill Gates), heißt es einleitend. Im ersten Kapitel "Einleitung" stehen die Grundlagen im Mittelpunkt. Die Zusammenhänge zwischen Dokumenten-Management-Systeme, Information Retrieval und Indexierung für Planungs-, Entscheidungs- oder Innovationsprozesse, sowohl in Profit- als auch Non-Profit-Organisationen werden beschrieben. Am Ende des einleitenden Kapitels geht Nohr auf die Diskussion um die intellektuelle und automatische Indexierung ein und leitet damit über zum zweiten Kapitel "automatisches Indexieren. Hier geht der Autor überblickartig unter anderem ein auf - Probleme der automatischen Sprachverarbeitung und Indexierung - verschiedene Verfahren der automatischen Indexierung z.B. einfache Stichwortextraktion / Volltextinvertierung, - statistische Verfahren, Pattern-Matching-Verfahren. Die "Verfahren der automatischen Indexierung" behandelt Nohr dann vertiefend und mit vielen Beispielen versehen im umfangreichsten dritten Kapitel. Das vierte Kapitel "Keyphrase Extraction" nimmt eine Passpartout-Status ein: "Eine Zwischenstufe auf dem Weg von der automatischen Indexierung hin zur automatischen Generierung textueller Zusammenfassungen (Automatic Text Summarization) stellen Ansätze dar, die Schlüsselphrasen aus Dokumenten extrahieren (Keyphrase Extraction). Die Grenzen zwischen den automatischen Verfahren der Indexierung und denen des Text Summarization sind fließend." (S. 91). Am Beispiel NCR"s Extractor/Copernic Summarizer beschreibt Nohr die Funktionsweise.
Im fünften Kapitel "Information Extraction" geht Nohr auf eine Problemstellung ein, die in der Fachwelt eine noch stärkere Betonung verdiente: "Die stetig ansteigende Zahl elektronischer Dokumente macht neben einer automatischen Erschließung auch eine automatische Gewinnung der relevanten Informationen aus diesen Dokumenten wünschenswert, um diese z.B. für weitere Bearbeitungen oder Auswertungen in betriebliche Informationssysteme übernehmen zu können." (S. 103) "Indexierung und Retrievalverfahren" als voneinander abhängige Verfahren werden im sechsten Kapitel behandelt. Hier stehen Relevance Ranking und Relevance Feedback sowie die Anwendung informationslinguistischer Verfahren in der Recherche im Mittelpunkt. Die "Evaluation automatischer Indexierung" setzt den thematischen Schlusspunkt. Hier geht es vor allem um die Oualität einer Indexierung, um gängige Retrievalmaße in Retrievaltest und deren Einssatz. Weiterhin ist hervorzuheben, dass jedes Kapitel durch die Vorgabe von Lernzielen eingeleitet wird und zu den jeweiligen Kapiteln (im hinteren Teil des Buches) einige Kontrollfragen gestellt werden. Die sehr zahlreichen Beispiele aus der Praxis, ein Abkürzungsverzeichnis und ein Sachregister erhöhen den Nutzwert des Buches. Die Lektüre förderte beim Rezensenten das Verständnis für die Zusammenhänge von BID-Handwerkzeug, Wirtschaftsinformatik (insbesondere Data Warehousing) und Künstlicher Intelligenz. Die "Grundlagen der automatischen Indexierung" sollte auch in den bibliothekarischen Studiengängen zur Pflichtlektüre gehören. Holger Nohrs Lehrbuch ist auch für den BID-Profi geeignet, um die mehr oder weniger fundierten Kenntnisse auf dem Gebiet "automatisches Indexieren" schnell, leicht verständlich und informativ aufzufrischen."
-
Lepsky, K.; Vorhauer, J.: Lingo - ein open source System für die Automatische Indexierung deutschsprachiger Dokumente (2006)
0.01
0.011586567 = product of:
0.04634627 = sum of:
0.04634627 = weight(_text_:und in 3581) [ClassicSimilarity], result of:
0.04634627 = score(doc=3581,freq=8.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.39180204 = fieldWeight in 3581, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0625 = fieldNorm(doc=3581)
0.25 = coord(1/4)
- Abstract
- Lingo ist ein frei verfügbares System (open source) zur automatischen Indexierung der deutschen Sprache. Bei der Entwicklung von lingo standen hohe Konfigurierbarkeit und Flexibilität des Systems für unterschiedliche Einsatzmöglichkeiten im Vordergrund. Der Beitrag zeigt den Nutzen einer linguistisch basierten automatischen Indexierung für das Information Retrieval auf. Die für eine Retrievalverbesserung zur Verfügung stehende linguistische Funktionalität von lingo wird vorgestellt und an Beispielen erläutert: Grundformerkennung, Kompositumerkennung bzw. Kompositumzerlegung, Wortrelationierung, lexikalische und algorithmische Mehrwortgruppenerkennung, OCR-Fehlerkorrektur. Der offene Systemaufbau von lingo wird beschrieben, mögliche Einsatzszenarien und Anwendungsgrenzen werden benannt.