-
Panyr, J.: Automatische Indexierung und Klassifikation (1983)
0.01
0.01399544 = product of:
0.05598176 = sum of:
0.05598176 = weight(_text_:und in 7692) [ClassicSimilarity], result of:
0.05598176 = score(doc=7692,freq=12.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.47985753 = fieldWeight in 7692, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0625 = fieldNorm(doc=7692)
0.25 = coord(1/4)
- Abstract
- Im Beitrag wird zunächst eine terminologische Klärung und Gliederung für drei Indexierungsmethoden und weitere Begriffe, die Konsistenzprobleme bei intellektueller Indexierung betreffen, unternommen. Zur automatichen Indexierung werden Extraktionsmethoden erläutert und zur Automatischen Klassifikation (Clustering) und Indexierung zwei Anwendungen vorgestellt. Eine enge Kooperation zwischen den Befürwortern der intellektuellen und den Entwicklern von automatischen Indexierungsverfahren wird empfohlen
-
Lepsky, K.: Auf dem Weg zur automatischen Inhaltserschließung? : Das DFG-Projekt MILOS und seine Ergebnisse (1997)
0.01
0.01399544 = product of:
0.05598176 = sum of:
0.05598176 = weight(_text_:und in 11) [ClassicSimilarity], result of:
0.05598176 = score(doc=11,freq=12.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.47985753 = fieldWeight in 11, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0625 = fieldNorm(doc=11)
0.25 = coord(1/4)
- Abstract
- Der Beitrag beschäftigt sich mit der Anwendung eines Verfahrens zur Automatischen Indexierung von Titeldaten in Bibliotheken. Die Arbeitsweise des Verfahrens und seine Nutzung innerhalb des von der Deutschen Forschungsgemeinschaft geförderten und an der Universitäts- und Landesbibliothek Düsseldorf durchgeführten Projekts MILOS werden geschildert. Die Ergebnisse eines Retrievaltests belegen die Tauglichkeit des Verfahrens für den Einsatz in Bibliotheken. Aufbauend auf diesen Ergebnissen werden Perspektiven für eine sinnvolle Verbindung von konventioneller bibliothekarischer Sacherschließung und automatischen Verfahren entworfen
- Source
- Mitteilungen der Gesellschaft für Bibliothekswesen und Dokumentation des Landbaus. 1997, H.53, S.46-52
-
Lepsky, K.; Zimmermann, H.H.: Katalogerweiterung durch Scanning und automatische Dokumenterschließung : Ergebnisse des DFG-Projekts KASCADE (2000)
0.01
0.01399544 = product of:
0.05598176 = sum of:
0.05598176 = weight(_text_:und in 4966) [ClassicSimilarity], result of:
0.05598176 = score(doc=4966,freq=12.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.47985753 = fieldWeight in 4966, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0625 = fieldNorm(doc=4966)
0.25 = coord(1/4)
- Abstract
- Der Beitrag befasst sich mit den Zielen, Inhalten und Ergebnissen des von der DFG geförderten Projekts KASCADE. Für KASCADE wurden Katalogdaten aus dem Fachbereich Rechtswissenschafft um Inhaltsverzeichnisse angereichert. Die angereicherten Titeldaten wurden mit einem erweiterten MILOS-Verfahren automatisch indexiert sowie mit den beiden linguistisch und statistisch basierten Verfahren SELIX und THEAS zusätzlich erschlossen. In einem umfangreichen Retrievaltest wurden die Ergebnisse der automatischen Indexierung und Gewichtung untersucht
- Source
- Zeitschrift für Bibliothekswesen und Bibliographie. 47(2000) H.4, S.305-316
-
Junger, U.; Schwens, U.: ¬Die inhaltliche Erschließung des schriftlichen kulturellen Erbes auf dem Weg in die Zukunft : Automatische Vergabe von Schlagwörtern in der Deutschen Nationalbibliothek (2017)
0.01
0.013361492 = product of:
0.05344597 = sum of:
0.05344597 = weight(_text_:und in 3780) [ClassicSimilarity], result of:
0.05344597 = score(doc=3780,freq=28.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.45812157 = fieldWeight in 3780, product of:
5.2915025 = tf(freq=28.0), with freq of:
28.0 = termFreq=28.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0390625 = fieldNorm(doc=3780)
0.25 = coord(1/4)
- Abstract
- Wir leben im 21. Jahrhundert, und vieles, was vor hundert und noch vor fünfzig Jahren als Science Fiction abgetan worden wäre, ist mittlerweile Realität. Raumsonden fliegen zum Mars, machen dort Experimente und liefern Daten zur Erde zurück. Roboter werden für Routineaufgaben eingesetzt, zum Beispiel in der Industrie oder in der Medizin. Digitalisierung, künstliche Intelligenz und automatisierte Verfahren sind kaum mehr aus unserem Alltag wegzudenken. Grundlage vieler Prozesse sind lernende Algorithmen. Die fortschreitende digitale Transformation ist global und umfasst alle Lebens- und Arbeitsbereiche: Wirtschaft, Gesellschaft und Politik. Sie eröffnet neue Möglichkeiten, von denen auch Bibliotheken profitieren. Der starke Anstieg digitaler Publikationen, die einen wichtigen und prozentual immer größer werdenden Teil des Kulturerbes darstellen, sollte für Bibliotheken Anlass sein, diese Möglichkeiten aktiv aufzugreifen und einzusetzen. Die Auswertbarkeit digitaler Inhalte, beispielsweise durch Text- and Data-Mining (TDM), und die Entwicklung technischer Verfahren, mittels derer Inhalte miteinander vernetzt und semantisch in Beziehung gesetzt werden können, bieten Raum, auch bibliothekarische Erschließungsverfahren neu zu denken. Daher beschäftigt sich die Deutsche Nationalbibliothek (DNB) seit einigen Jahren mit der Frage, wie sich die Prozesse bei der Erschließung von Medienwerken verbessern und maschinell unterstützen lassen. Sie steht dabei im regelmäßigen kollegialen Austausch mit anderen Bibliotheken, die sich ebenfalls aktiv mit dieser Fragestellung befassen, sowie mit europäischen Nationalbibliotheken, die ihrerseits Interesse an dem Thema und den Erfahrungen der DNB haben. Als Nationalbibliothek mit umfangreichen Beständen an digitalen Publikationen hat die DNB auch Expertise bei der digitalen Langzeitarchivierung aufgebaut und ist im Netzwerk ihrer Partner als kompetente Gesprächspartnerin geschätzt.
-
Volk, M.; Mittermaier, H.; Schurig, A.; Biedassek, T.: Halbautomatische Volltextanalyse, Datenbankaufbau und Document Retrieval (1992)
0.01
0.013227202 = product of:
0.052908808 = sum of:
0.052908808 = weight(_text_:und in 2571) [ClassicSimilarity], result of:
0.052908808 = score(doc=2571,freq=14.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.4535172 = fieldWeight in 2571, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0546875 = fieldNorm(doc=2571)
0.25 = coord(1/4)
- Abstract
- In diesem Aufsatz beschreiben wir ein System zur Analyse von Kurzartikeln. Das System arbeitet halbautomatisch. Das heißt, zunächst wird der Artikel vom System analysiert und dann dem benutzer zur Nachberarbeitung vorgelegt. Die so gewonnene Information wird in einem Datenbankeintrag abgelegt. Über die Datenbank - in dBase IV implementiert - sind dann Abfragen und Zugriffe auf die Originaltexte effizient möglich. Der Kern dieses Aufsatzes betrifft die halbautomatische Analyse. Wir beschreiben unser Verfahren für parametrisiertes Pattern Matching sowie linguistische Heuristiken zur Ermittlung von Nominalphrasen und Präpositionalphrasen. Das System wurde für den praktischen Einsatz im Bonner Büro des 'Forums InformatikerInnen Für Frieden und gesellschaftliche Verantwortung e.V. (FIFF)' entwickelt
- Source
- Datenanalyse, Klassifikation und Informationsverarbeitung: Methoden und Anwendungen in verschiedenen Fachgebieten. Hrsg.: H. Goebl u. M. Schader
-
Groß, T.: Automatische Indexierung von wirtschaftswissenschaftlichen Dokumenten : Implementierung und Evaluierung am Beispiel der Deutschen Zentralbibliothek für Wirtschaftswissenschaften (2010)
0.01
0.012875456 = product of:
0.051501825 = sum of:
0.051501825 = weight(_text_:und in 2078) [ClassicSimilarity], result of:
0.051501825 = score(doc=2078,freq=26.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.441457 = fieldWeight in 2078, product of:
5.0990195 = tf(freq=26.0), with freq of:
26.0 = termFreq=26.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0390625 = fieldNorm(doc=2078)
0.25 = coord(1/4)
- Abstract
- Die Bewertung der Indexierungsqualität bzw. -güte ist ein grundlegendes Problem von manuellen und automatischen Indexierungsverfahren. Letztere werden aber gerade im digitalen Zeitalter als einzige Möglichkeit angesehen, den zunehmenden Schwierigkeiten bibliothekarischer Informationsstrukturierung gerecht zu werden. Diese Arbeit befasst sich mit der Funktionsweise, Implementierung und Evaluierung der Sacherschließungssoftware MindServer Categorizer, der Firma Recommind, an der Deutschen Zentralbibliothek für Wirtschaftswissenschaften (ZBW). Grundlage der maschinellen Sacherschließung und anschließenden quantitativen und qualitativen Auswertung bilden rund 39.000 wirtschaftswissenschaftliche Dokumente aus den Datenbanken Econis und EconStor. Unter Zuhilfenahme des rund 6.000 Deskriptoren umfassenden Standard-Thesaurus Wirtschaft (STW) wird der ursprünglich rein statistische Indexierungsansatz des MindServer Categorizer zu einem begriffsorientierten Verfahren weiterentwickelt und zur Inhaltserschließung digitaler Informationsressourcen eingesetzt. Der zentrale Fokus dieser Arbeit liegt vor allem auf der Evaluierung der maschinell beschlagworteten Titel, in Anlehnung und entsprechender Anpassung der von Stock (2008) und Lancaster (2003) hierzu vorgeschlagenen Kriterien: Indexierungskonsistenz, -tiefe, -breite, -spezifität, -effektivität. Zusätzlich wird die Belegungsbilanz des STW evaluiert und es erfolgt ferner eine stichprobenartige, qualitative Bewertung der Ergebnisse seitens der zuständigen Fachreferenten und -referentinnen.
- Content
- Vgl. unter: http://edoc.hu-berlin.de/series/berliner-handreichungen/2010-284/PDF/284.pdf. Auch als: Automatische Indexierung von Dokumenten in einer wissenschaftlichen Bibliothek: Implementierung und Evaluierung am Beispiel der Deutschen Zentralbibliothek für Wirtschaftswissenschaften. Diplomica Verlag, 2011.
- Imprint
- Berlin : Institut für Bibliotheks- und Informationswissenschaft der Humboldt-Universität zu Berlin
-
Junger, U.; Scholze, F.: Neue Wege und Qualitäten : die Inhaltserschließungspolitik der Deutschen Nationalbibliothek (2021)
0.01
0.012855633 = product of:
0.051422533 = sum of:
0.051422533 = weight(_text_:und in 365) [ClassicSimilarity], result of:
0.051422533 = score(doc=365,freq=18.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.4407773 = fieldWeight in 365, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.046875 = fieldNorm(doc=365)
0.25 = coord(1/4)
- Abstract
- Es kommt nicht oft vor, dass ein bibliothekfachliches Thema Gegenstand eines ganzseitigen Artikels im Feuilleton einer der wichtigsten überregionalen Zeitungen in Deutschland wird. Am 31. Juli 2017 war dies der Fall: Die Frankfurter Allgemeine Zeitung veröffentlichte einen Artikel des Generaldirektors der Bayerischen Staatsbibliothek, Klaus Ceynowa, in dem dieser sich kritisch mit einem Konzept zur inhaltlichen Erschließung auseinandersetzte, das die Deutsche Nationalbibliothek (DNB) zuvor für die deutschsprachige bibliothekarische Community veröffentlicht hatte. Hatten bereits zuvor die Bemühungen der DNB, Verfahren zur maschinellen Dokumenterschließung zu entwickeln und einzusetzen, zu kontroversen Reaktionen im Bibliothekswesen geführt, so sorgte dieser Artikel noch einmal in besonderer Weise für Aufmerksamkeit und Diskussionen zu einem Thema, das vielen als eher verstaubt und unattraktiv galt: die Inhaltserschließung. Der folgende Beitrag zeichnet einige Grundlinien der Erschließungspolitik der DNB seit 2010 nach und beschreibt, welche Instrumente und Verfahren bei der Inhaltserschließung zum Einsatz kommen, welche konzeptionellen Entscheidungen ihr zugrunde liegen, wie versucht wird, Qualität zu erfassen und welche Entwicklungs- und Handlungsfelder für die Zukunft gesehen werden.
- Series
- Bibliotheks- und Informationspraxis; 70
-
Lustig, G.: Automatische Indexierung : Erfahrungen und Perspektiven (1989)
0.01
0.01277603 = product of:
0.05110412 = sum of:
0.05110412 = weight(_text_:und in 2323) [ClassicSimilarity], result of:
0.05110412 = score(doc=2323,freq=10.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.438048 = fieldWeight in 2323, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0625 = fieldNorm(doc=2323)
0.25 = coord(1/4)
- Abstract
- Es wird zunächst ein "ideales Information-Retrieval-System" beschrieben und diskutiert. Als Kernproblem für -selbst bescheidene - Entwicklungen in die dadurch aufgezeigte Richtung wird das "Verstehen" von Texten durch den Computer angesehen, wobei je nach der Aufgabenstellung einer Systemkomponente stets nur ein partielles Verstehen erforderlich ist. Ein relativ einfaches, aber keineswegs triviales Beispiel dieser Art ist die automatische Indexierung von Referatetexten bei vorgegebenen Deskriptorensystem. Von diesem Problem werden Ansätze, Ergebnisse und Erfahrungen mitgeteilt. Darauf aufbauend werden weitere Forschungsrichtungen und Entwicklungsmöglichkeiten mitgeteilt
- Source
- Klassifikation und Ordnung. Tagungsband 12. Jahrestagung der Gesellschaft für Klassifikation, Darmstadt 17.-19.3.1988. Hrsg.: R. Wille
-
Zukunft der Sacherschließung im OPAC : Vorträge des 2. Düsseldorfer OPAC-Kolloquiums am 21. Juni 1995 (1996)
0.01
0.01277603 = product of:
0.05110412 = sum of:
0.05110412 = weight(_text_:und in 4110) [ClassicSimilarity], result of:
0.05110412 = score(doc=4110,freq=10.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.438048 = fieldWeight in 4110, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0625 = fieldNorm(doc=4110)
0.25 = coord(1/4)
- Content
- Enthält die Beiträge: LEPSKY, K.: Automatische Indexierung und bibliothekarische Inhaltserschließung: Ergebnisse des DFG-Projekts MILOS I; ZIMMERMANN, H.H.: Automatische Indexierung und elektronische Thesauri; WEIDEMÜLLER, H.U.: Sinn und Unsinn von Ketten im OPAC; GÖDERT, W.: Vom Zettelkatalog zum HyperOPAC; KOOPMANN, R.: Ein OPAC mit Gewichtungsalgorithmen: Der PICA Micro OPC
- Imprint
- Düsseldorf : Universitäts- und Landesbibliothek
- Series
- Schriften der Universitäts- und Landesbibliothek Düsseldorf; Bd.25
-
Siegmüller, R.: Verfahren der automatischen Indexierung in bibliotheksbezogenen Anwendungen : Funktion und Qualität (2007)
0.01
0.01277603 = product of:
0.05110412 = sum of:
0.05110412 = weight(_text_:und in 1407) [ClassicSimilarity], result of:
0.05110412 = score(doc=1407,freq=10.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.438048 = fieldWeight in 1407, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0625 = fieldNorm(doc=1407)
0.25 = coord(1/4)
- Abstract
- Die Arbeit beschäftigt sich mit den Verfahren der automatischen Indexierung und ihrem Einsatz in wissenschaftlichen Bibliotheken. Der Aspekt wird nicht nur im Hinblick auf den klassischen Online-Katalog, sondern auch auf die im Rahmen des Internet und der Digitalisierung sich ergebende Ausweitung bibliothekarischer Angebote betrachtet. Durch die Entwicklung zu Portalen, zu einer intensiveren Erschließung und zur Integration von Netzpublikationen ergeben sich neue Rahmenbedingungen für das Thema. Eine Auswahl konkret eingesetzter Verfahren wird hinsichtlich ihres spezifischen Ansatzes, des aktuellen Standes und der Perspektiven im Bibliotheksbereich diskutiert.
-
Probst, M.; Mittelbach, J.: Maschinelle Indexierung in der Sacherschließung wissenschaftlicher Bibliotheken (2006)
0.01
0.01277603 = product of:
0.05110412 = sum of:
0.05110412 = weight(_text_:und in 1755) [ClassicSimilarity], result of:
0.05110412 = score(doc=1755,freq=10.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.438048 = fieldWeight in 1755, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0625 = fieldNorm(doc=1755)
0.25 = coord(1/4)
- Abstract
- Obwohl fast alle größeren Bibliotheken intellektuelle Sacherschließung betreiben, sind elektronische Kataloge für die zielgerichtete sachliche Suche nur eingeschränkt nutzbar. Durch maschinelle Indexierung können ohne nennenswerten personellen Mehraufwand ausreichend große Datenmengen für Informationsretrievalsysteme erzeugt und somit die Auffindbarkeit von Dokumenten erhöht werden. Geeignete Sprachanalysetechniken zur Indextermerzeugung sind bekannt und bieten im Gegensatz zur gebräuchlichen Freitextinvertierung entscheidende Vorteile beim Retrieval. Im Fokus steht die Betrachtung der Vor- und Nachteile der gängigen Indexierungssysteme MILOS und intelligentCAPTURE.
- Source
- Bibliothek: Forschung und Praxis. 30(2006) H.2, S.168-176
-
Glaesener, L.: Automatisches Indexieren einer informationswissenschaftlichen Datenbank mit Mehrwortgruppen (2012)
0.01
0.01277603 = product of:
0.05110412 = sum of:
0.05110412 = weight(_text_:und in 401) [ClassicSimilarity], result of:
0.05110412 = score(doc=401,freq=10.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.438048 = fieldWeight in 401, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0625 = fieldNorm(doc=401)
0.25 = coord(1/4)
- Abstract
- Ein Bericht über die Ergebnisse und die Prozessanalyse einer automatischen Indexierung mit Mehrwortgruppen. Diese Bachelorarbeit beschreibt, inwieweit der Inhalt informationswissenschaftlicher Fachtexte durch informationswissenschaftliches Fachvokabular erschlossen werden kann und sollte und dass in diesen wissenschaftlichen Texten ein Großteil der fachlichen Inhalte in Mehrwortgruppen vorkommt. Die Ergebnisse wurden durch eine automatische Indexierung mit Mehrwortgruppen mithilfe des Programme Lingo an einer informationswissenschaftlichen Datenbank ermittelt.
- Content
- Bachelorarbeit im Studiengang Bibliothekswesen der Fakultät für Informations- und Kommunikationswissenschaften an der Fachhochschule Köln.
- Imprint
- Köln : Fachhochschule / Fakultät für Informations- und Kommunikationswissenschaften
-
Zimmermann, H.H.: Automatische Indexierung und elektronische Thesauri (1996)
0.01
0.01277603 = product of:
0.05110412 = sum of:
0.05110412 = weight(_text_:und in 2062) [ClassicSimilarity], result of:
0.05110412 = score(doc=2062,freq=10.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.438048 = fieldWeight in 2062, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0625 = fieldNorm(doc=2062)
0.25 = coord(1/4)
- Abstract
- Überblick über die Möglichkeiten des Einsatzes automatischer Indexierung für die Erschließung von Textdokumenten mit einer Kurzvorstellung der Verfahren PASSAT, CTX und IDX sowie einer Skizze des Nutzens der Einbindung von Thesauri in den Prozess der automatischen Indexierung.
- Imprint
- Düsseldorf : Universitäts- und Landesbibliothek
- Series
- Schriften der Universitäts- und Landesbibliothek Düsseldorf; Bd.25
- Theme
- Konzeption und Anwendung des Prinzips Thesaurus
-
Keller, A.: Einstellung zur (automatischen) Sacherschließung in deutsch- und englischsprachigen Ländern (2015)
0.01
0.01277603 = product of:
0.05110412 = sum of:
0.05110412 = weight(_text_:und in 2571) [ClassicSimilarity], result of:
0.05110412 = score(doc=2571,freq=10.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.438048 = fieldWeight in 2571, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0625 = fieldNorm(doc=2571)
0.25 = coord(1/4)
- Abstract
- Angesichts der Tatsache, dass die Sacherschließung in deutsch- und englischsprachigen Bibliotheken von verschiedenen Personalgruppen (Fachreferenten bzw. Katalogisierern) geleistet wird, geht die Umfrage der Frage nach, ob unterschiedliche Einstellungen gegenüber der inhaltlichen Erschließung im Allgemeinen und der automatischen Sacherschließung im Besonderen zu erkennen sind. Die Umfrage zeigt eine große Ähnlichkeit zwischen den zwei Sprachregionen: Befragte sind überzeugt vom Nutzen der Sacherschließung und möchten das gegenwärtige Qualitätsniveau aufrechterhalten, gegenüber der automatischen Sacherschließung sind sie hingegen skeptisch eingestellt. Der Beitrag präsentiert und diskutiert die Resultate der Umfrage.
-
Gaus, W.; Kaluscha, R.: Maschinelle inhaltliche Erschließung von Arztbriefen und Auswertung von Reha-Entlassungsberichten (2006)
0.01
0.0124525335 = product of:
0.049810134 = sum of:
0.049810134 = weight(_text_:und in 6078) [ClassicSimilarity], result of:
0.049810134 = score(doc=6078,freq=38.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.42695636 = fieldWeight in 6078, product of:
6.164414 = tf(freq=38.0), with freq of:
38.0 = termFreq=38.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.03125 = fieldNorm(doc=6078)
0.25 = coord(1/4)
- Abstract
- Schon Hippokrates empfahl den Ärzten, Krankenakten zu führen. Heute ist die detaillierte Dokumentation eine Standespflicht der Ärzte [Gaus et al 1999]. Diese Dokumentationen medizinischer Behandlungen bergen einen riesigen und wertvollen Erfahrungsschatz. Informationen zu Therapien und Behandlungsergebnissen, die in Studien erst mühsam erhoben werden müssten, sind bereits in der Routinedokumentation wie Operations- und Entlassungsberichten oder Arztbriefen zahlreich vorhanden. Mit der Einführung der elektronischen Datenverarbeitung in der Medizin liegen diese Informationen seit einigen Jahren auch maschinenlesbar vor, so dass ein Haupthemmnis für die Nutzung dieser Dokumentationen, nämlich die mühsame manuelle Aufbereitung der Papierakten, entfällt. Während die formale Erschließung nach Patientenmerkmalen wie Name und Geburtsdatum von den Krankenhaus- bzw. Praxisinformationssystemen heutzutage gut gelöst ist, bleibt die inhaltliche Erschließung dieser Dokumentationen schwierig, da nur wenige Informationen in strukturierter oder intellektuell indexierter Form vorliegen [Leiner et al. 2003]. Auch wenn nach der Einführung der Fallpauschalen (diagnosis related groups, DRG) in den Krankenhäusern die Diagnosen nach ICD-10 verschlüsselt werden, besteht ein Großteil der Informationen weiterhin aus freiem Text, dessen computerbasierte Erschließung aufgrund der Komplexität menschlicher Sprache nicht trivial ist. Zu diesen medizinischen Texten gehören u.a. Gutachten, verbal beschriebene (Differential-) Diagnosen, vielfältige Untersuchungs- und Befundberichte, Visitenblätter, Operationsberichte und der Arztbrief bzw. Entlassungsbericht. Arztbrief und Entlassbericht dienen der Information des einweisenden oder weiterbehandelnden Arztes (z.B. Hausarzt) über das, was mit dem Patienten geschehen ist, und geben Empfehlungen zur Weiterbehandlung. Sie fassen eine (stationäre) Behandlung epikritisch - also nachdem die Krankheit überwunden ist, im Rückblick - zusammen und geben einen Überblick über Anamnese (Vorgeschichte), Beschwerden und Symptome, die eingesetzten diagnostischen Verfahren, die gestellte(n) Diagnose(n), Therapie, Verlauf, Komplikationen und das erzielte Ergebnis. Sie haben somit eine ähnliche Funktion wie das Abstract in der Literaturdokumentation, oft wird eine Kopie in der Krankenakte obenauf abgelegt. Zumindest in Universitätskliniken möchten wissenschaftlich arbeitende Ärzte auch unter inhaltlichen Gesichtspunkten auf die Krankenakten zugreifen können, z.B. die Krankenakten aller Patienten mit einer bestimmten Diagnose einsehen, exzerpieren und die exzerpierten Daten auswerten. Auch bei der Suche nach ähnlichen Fällen oder im Bereich der Aus- und Fortbildung hilft eine inhaltliche Erschließung weiter. So könnte etwa ein Assistenzarzt, der im Rahmen seiner Weiterbildung demnächst Sonografien des Kniegelenkes durchzuführen hat, sich vorhandene Berichte von solchen Sonografien anschauen und sich so über relevante Untersuchungstechniken und Befunde vorab informieren.
- Source
- Information und Sprache: Beiträge zu Informationswissenschaft, Computerlinguistik, Bibliothekswesen und verwandten Fächern. Festschrift für Harald H. Zimmermann. Herausgegeben von Ilse Harms, Heinz-Dirk Luckhardt und Hans W. Giessen
-
Salton, G.; McGill, M. J.: Information Retrieval: Grundlegendes für Informationswissenschaftler (1987)
0.01
0.012370339 = product of:
0.049481355 = sum of:
0.049481355 = weight(_text_:und in 8648) [ClassicSimilarity], result of:
0.049481355 = score(doc=8648,freq=6.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.42413816 = fieldWeight in 8648, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.078125 = fieldNorm(doc=8648)
0.25 = coord(1/4)
- Content
- Enthält die Kapitel: Information Retrieval: eine Einführung; Invertierte Dateisysteme; Textanalyse und automatisches Indexieren; Die experimentellen Retrievalsysteme SMART und SIRE; Die Bewertung von Retrievalsystemen; Fortgeschrittene Retrievaltechniken; Verarbeitung natürlicher Sprache; Informationstechnologie: Hardware und Software; Datenbankmanagementsysteme; Zukünftige Entwicklungen im Information Retrieval
-
Biebricher, P.; Fuhr, N.; Niewelt, B.: ¬Der AIR-Retrievaltest (1986)
0.01
0.012370339 = product of:
0.049481355 = sum of:
0.049481355 = weight(_text_:und in 4040) [ClassicSimilarity], result of:
0.049481355 = score(doc=4040,freq=6.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.42413816 = fieldWeight in 4040, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.078125 = fieldNorm(doc=4040)
0.25 = coord(1/4)
- Abstract
- Der Beitrag enthält eine Darstellung zur Durchführung und zu den Ergebnissen des Retrievaltests zum AIR/PHYS-Projekt. Er zählt mit seinen 309 Fragen und 15.000 Dokumenten zu den größten Retrievaltests, die bisher zur Evaluierung automatisierter Indexierungs- oder Retrievalverfahren vorgenommen wurden.
- Source
- Automatische Indexierung zwischen Forschung und Anwendung, Hrsg.: G. Lustig
-
Stock, M.; Stock, W.G.: Literaturnachweis- und Terminologiedatenbank : die Erfassung von Fachliteratur und Fachterminologie eines Fachgebiets in einer kombinierten Datenbank (1991)
0.01
0.012370339 = product of:
0.049481355 = sum of:
0.049481355 = weight(_text_:und in 3411) [ClassicSimilarity], result of:
0.049481355 = score(doc=3411,freq=6.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.42413816 = fieldWeight in 3411, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.078125 = fieldNorm(doc=3411)
0.25 = coord(1/4)
- Abstract
- In wissenschaftlichen Spezialgebieten kann über den Aufbau einer Literaturdatenbank gleichzeitig eine Terminologiedatenbank mit erstellt werden. Als Dokumentationsmethode eignet sich die Textwortmethode mit Übersetzungrelation. Mit dem Softwarepaket LBase aufgebaute Druckbildprogramme gestatten die Ausgabe von Bibliographien und Wörterbüchern
-
Giesselbach, S.; Estler-Ziegler, T.: Dokumente schneller analysieren mit Künstlicher Intelligenz (2021)
0.01
0.012370339 = product of:
0.049481355 = sum of:
0.049481355 = weight(_text_:und in 128) [ClassicSimilarity], result of:
0.049481355 = score(doc=128,freq=24.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.42413816 = fieldWeight in 128, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0390625 = fieldNorm(doc=128)
0.25 = coord(1/4)
- Abstract
- Künstliche Intelligenz (KI) und natürliches Sprachverstehen (natural language understanding/NLU) verändern viele Aspekte unseres Alltags und unserer Arbeitsweise. Besondere Prominenz erlangte NLU durch Sprachassistenten wie Siri, Alexa und Google Now. NLU bietet Firmen und Einrichtungen das Potential, Prozesse effizienter zu gestalten und Mehrwert aus textuellen Inhalten zu schöpfen. So sind NLU-Lösungen in der Lage, komplexe, unstrukturierte Dokumente inhaltlich zu erschließen. Für die semantische Textanalyse hat das NLU-Team des IAIS Sprachmodelle entwickelt, die mit Deep-Learning-Verfahren trainiert werden. Die NLU-Suite analysiert Dokumente, extrahiert Eckdaten und erstellt bei Bedarf sogar eine strukturierte Zusammenfassung. Mit diesen Ergebnissen, aber auch über den Inhalt der Dokumente selbst, lassen sich Dokumente vergleichen oder Texte mit ähnlichen Informationen finden. KI-basierten Sprachmodelle sind der klassischen Verschlagwortung deutlich überlegen. Denn sie finden nicht nur Texte mit vordefinierten Schlagwörtern, sondern suchen intelligent nach Begriffen, die in ähnlichem Zusammenhang auftauchen oder als Synonym gebraucht werden. Der Vortrag liefert eine Einordnung der Begriffe "Künstliche Intelligenz" und "Natural Language Understanding" und zeigt Möglichkeiten, Grenzen, aktuelle Forschungsrichtungen und Methoden auf. Anhand von Praxisbeispielen wird anschließend demonstriert, wie NLU zur automatisierten Belegverarbeitung, zur Katalogisierung von großen Datenbeständen wie Nachrichten und Patenten und zur automatisierten thematischen Gruppierung von Social Media Beiträgen und Publikationen genutzt werden kann.
-
Pintscher, L.; Bourgonje, P.; Moreno Schneider, J.; Ostendorff, M.; Rehm, G.: Wissensbasen für die automatische Erschließung und ihre Qualität am Beispiel von Wikidata : die Inhaltserschließungspolitik der Deutschen Nationalbibliothek (2021)
0.01
0.012370339 = product of:
0.049481355 = sum of:
0.049481355 = weight(_text_:und in 366) [ClassicSimilarity], result of:
0.049481355 = score(doc=366,freq=24.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.42413816 = fieldWeight in 366, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0390625 = fieldNorm(doc=366)
0.25 = coord(1/4)
- Abstract
- Wikidata ist eine freie Wissensbasis, die allgemeine Daten über die Welt zur Verfügung stellt. Sie wird von Wikimedia entwickelt und betrieben, wie auch das Schwesterprojekt Wikipedia. Die Daten in Wikidata werden von einer großen Community von Freiwilligen gesammelt und gepflegt, wobei die Daten sowie die zugrundeliegende Ontologie von vielen Projekten, Institutionen und Firmen als Basis für Applikationen und Visualisierungen, aber auch für das Training von maschinellen Lernverfahren genutzt werden. Wikidata nutzt MediaWiki und die Erweiterung Wikibase als technische Grundlage der kollaborativen Arbeit an einer Wissensbasis, die verlinkte offene Daten für Menschen und Maschinen zugänglich macht. Ende 2020 beschreibt Wikidata über 90 Millionen Entitäten unter Verwendung von über 8 000 Eigenschaften, womit insgesamt mehr als 1,15 Milliarden Aussagen über die beschriebenen Entitäten getroffen werden. Die Datenobjekte dieser Entitäten sind mit äquivalenten Einträgen in mehr als 5 500 externen Datenbanken, Katalogen und Webseiten verknüpft, was Wikidata zu einem der zentralen Knotenpunkte des Linked Data Web macht. Mehr als 11 500 aktiv Editierende tragen neue Daten in die Wissensbasis ein und pflegen sie. Diese sind in Wiki-Projekten organisiert, die jeweils bestimmte Themenbereiche oder Aufgabengebiete adressieren. Die Daten werden in mehr als der Hälfte der Inhaltsseiten in den Wikimedia-Projekten genutzt und unter anderem mehr als 6,5 Millionen Mal am Tag über den SPARQL-Endpoint abgefragt, um sie in externe Applikationen und Visualisierungen einzubinden.
- Series
- Bibliotheks- und Informationspraxis; 70