-
Biebricher, P.; Fuhr, N.; Lustig, G.; Schwantner, M.; Knorz, G.: ¬Das automatische Indexierungssystem AIR/PHYS (1988)
0.01
0.010100339 = product of:
0.040401354 = sum of:
0.040401354 = weight(_text_:und in 528) [ClassicSimilarity], result of:
0.040401354 = score(doc=528,freq=4.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.34630734 = fieldWeight in 528, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.078125 = fieldNorm(doc=528)
0.25 = coord(1/4)
- Source
- Von der Information zum Wissen - vom Wissen zur Information: traditionelle und moderne Informationssysteme für Wissenschaft und Praxis, Deutscher Dokumentartag 1987, Bad Dürkheim, vom 23.-25.9.1987. Hrsg.: H. Strohl-Goebel
-
Rapke, K.: Automatische Indexierung von Volltexten für die Gruner+Jahr Pressedatenbank (2001)
0.01
0.010100339 = product of:
0.040401354 = sum of:
0.040401354 = weight(_text_:und in 5863) [ClassicSimilarity], result of:
0.040401354 = score(doc=5863,freq=16.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.34630734 = fieldWeight in 5863, product of:
4.0 = tf(freq=16.0), with freq of:
16.0 = termFreq=16.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0390625 = fieldNorm(doc=5863)
0.25 = coord(1/4)
- Abstract
- Retrievaltests sind die anerkannteste Methode, um neue Verfahren der Inhaltserschließung gegenüber traditionellen Verfahren zu rechtfertigen. Im Rahmen einer Diplomarbeit wurden zwei grundsätzlich unterschiedliche Systeme der automatischen inhaltlichen Erschließung anhand der Pressedatenbank des Verlagshauses Gruner + Jahr (G+J) getestet und evaluiert. Untersucht wurde dabei natürlichsprachliches Retrieval im Vergleich zu Booleschem Retrieval. Bei den beiden Systemen handelt es sich zum einen um Autonomy von Autonomy Inc. und DocCat, das von IBM an die Datenbankstruktur der G+J Pressedatenbank angepasst wurde. Ersteres ist ein auf natürlichsprachlichem Retrieval basierendes, probabilistisches System. DocCat demgegenüber basiert auf Booleschem Retrieval und ist ein lernendes System, das aufgrund einer intellektuell erstellten Trainingsvorlage indexiert. Methodisch geht die Evaluation vom realen Anwendungskontext der Textdokumentation von G+J aus. Die Tests werden sowohl unter statistischen wie auch qualitativen Gesichtspunkten bewertet. Ein Ergebnis der Tests ist, dass DocCat einige Mängel gegenüber der intellektuellen Inhaltserschließung aufweist, die noch behoben werden müssen, während das natürlichsprachliche Retrieval von Autonomy in diesem Rahmen und für die speziellen Anforderungen der G+J Textdokumentation so nicht einsetzbar ist
- Series
- Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
- Source
- Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
-
Bunk, T.: Deskriptoren Stoppwortlisten und kryptische Zeichen (2008)
0.01
0.010100339 = product of:
0.040401354 = sum of:
0.040401354 = weight(_text_:und in 2471) [ClassicSimilarity], result of:
0.040401354 = score(doc=2471,freq=4.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.34630734 = fieldWeight in 2471, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.078125 = fieldNorm(doc=2471)
0.25 = coord(1/4)
- Source
- Information - Wissenschaft und Praxis. 59(2008) H.5, S.285-292
-
Stock, W.G.: Textwortmethode (2000)
0.01
0.010100339 = product of:
0.040401354 = sum of:
0.040401354 = weight(_text_:und in 3408) [ClassicSimilarity], result of:
0.040401354 = score(doc=3408,freq=4.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.34630734 = fieldWeight in 3408, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.078125 = fieldNorm(doc=3408)
0.25 = coord(1/4)
- Imprint
- Düsseldorf : Universitäts- und Landesbibliothek
- Series
- Schriften der Universitäts- und Landesbibliothek Düsseldorf; 32
-
Lepsky, K.: Automatische Indexierung (2013)
0.01
0.010100339 = product of:
0.040401354 = sum of:
0.040401354 = weight(_text_:und in 720) [ClassicSimilarity], result of:
0.040401354 = score(doc=720,freq=4.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.34630734 = fieldWeight in 720, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.078125 = fieldNorm(doc=720)
0.25 = coord(1/4)
- Source
- Grundlagen der praktischen Information und Dokumentation. Handbuch zur Einführung in die Informationswissenschaft und -praxis. 6., völlig neu gefaßte Ausgabe. Hrsg. von R. Kuhlen, W. Semar u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried
-
7e Dag van het Document : 19 & 20 mei 1998, Congrescentrum De Reehorst, Ede ; proceedings (1998)
0.01
0.010100339 = product of:
0.040401354 = sum of:
0.040401354 = weight(_text_:und in 2427) [ClassicSimilarity], result of:
0.040401354 = score(doc=2427,freq=4.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.34630734 = fieldWeight in 2427, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.078125 = fieldNorm(doc=2427)
0.25 = coord(1/4)
- BK
- 06.00 (Information und Dokumentation: Allgemeines)
- Classification
- 06.00 (Information und Dokumentation: Allgemeines)
-
Toepfer, M.; Kempf, A.O.: Automatische Indexierung auf Basis von Titeln und Autoren-Keywords : ein Werkstattbericht (2016)
0.01
0.010100339 = product of:
0.040401354 = sum of:
0.040401354 = weight(_text_:und in 3209) [ClassicSimilarity], result of:
0.040401354 = score(doc=3209,freq=16.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.34630734 = fieldWeight in 3209, product of:
4.0 = tf(freq=16.0), with freq of:
16.0 = termFreq=16.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0390625 = fieldNorm(doc=3209)
0.25 = coord(1/4)
- Abstract
- Automatische Verfahren sind für Bibliotheken essentiell, um die Erschliessung stetig wachsender Datenmengen zu stemmen. Die Deutsche Zentralbibliothek für Wirtschaftswissenschaften - Leibniz-Informationszentrum Wirtschaft sammelt seit Längerem Erfahrungen im Bereich automatischer Indexierung und baut hier eigene Kompetenzen auf. Aufgrund rechtlicher Restriktionen werden unter anderem Ansätze untersucht, die ohne Volltextnutzung arbeiten. Dieser Beitrag gibt einen Einblick in ein laufendes Teilprojekt, das unter Verwendung von Titeln und Autoren-Keywords auf eine Nachnormierung der inhaltsbeschreibenden Metadaten auf den Standard-Thesaurus Wirtschaft (STW) abzielt. Wir erläutern den Hintergrund der Arbeit, betrachten die Systemarchitektur und stellen erste vielversprechende Ergebnisse eines dokumentenorientierten Verfahrens vor.
Im Folgenden erläutern wir zunächst den Hintergrund der aktuellen Arbeit. Wir beziehen uns auf Erfahrungen mit maschinellen Verfahren allgemein und an der Deutschen Zentralbibliothek für Wirtschaftswissenschaften (ZBW) - Leibniz-Informationszentrum Wirtschaft im Speziellen. Im Anschluss geben wir einen konkreten Einblick in ein laufendes Teilprojekt, bei dem die Systemarchitektur der Automatik gegenüber früheren Arbeiten Titel und Autoren-Keywords gemeinsam verwendet, um eine Nachnormierung auf den Standard-Thesaurus Wirtschaft (STW) zu erzielen. Im Gegenssatz zu einer statischen Verknüpfung im Sinne einer Crosskonkordanz bzw. Vokabularabbildung ist das jetzt verfolgte Vorgehen dokumentenorientiert und damit in der Lage, kontextbezogene Zuordnungen vorzunehmen. Der Artikel stellt neben der Systemarchitektur auch erste experimentelle Ergebnisse vor, die im Vergleich zu titelbasierten Vorhersagen bereits deutliche Verbesserungen aufzeigen.
- Content
- Beitrag in einem Themenschwerpunkt 'Computerlinguistik und Bibliotheken'. Vgl.: http://0277.ch/ojs/index.php/cdrs_0277/article/view/156/354.
-
Automatische Indexierung zwischen Forschung und Anwendung (1986)
0.01
0.009998825 = product of:
0.0399953 = sum of:
0.0399953 = weight(_text_:und in 953) [ClassicSimilarity], result of:
0.0399953 = score(doc=953,freq=8.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.34282678 = fieldWeight in 953, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0546875 = fieldNorm(doc=953)
0.25 = coord(1/4)
- Abstract
- Die automatische Indexierung von Dokumenten für das Information Retrieval, d. h. die automatische Charakterisierung von Dokumentinhalten mittels Deskriptoren (Schlagwörtern) ist bereits seit über 25 Jahren ein Gebiet theoretischer und experimenteller Forschung. Dagegen wurde erst im Oktober 1985 mit der Anwendung der automatischen Indexierung in der Inputproduktion für ein großes Retrievalsystem begonnen. Es handelt sich um die Indexierung englischer Referatetexte für die Physik-Datenbasis des Informationszentrums Energie, Physik, Mathematik GmbH in Karlsruhe. In dem vorliegenden Buch beschreiben Mitarbeiter der Technischen Hochschule Darmstadt ihre Forschungs- und Entwicklungsarbeiten, die zu dieser Pilotanwendung geführt haben.
- Footnote
- Rez. in: Zeitschrift für Bibliothekswesen und Bibliographie 35(1988) S.508-510 (W. Gödert)
-
Lustig, G.: ¬Das Projekt WAI : Wörterbuchentwicklung für automatisches Indexing (1982)
0.01
0.009998825 = product of:
0.0399953 = sum of:
0.0399953 = weight(_text_:und in 33) [ClassicSimilarity], result of:
0.0399953 = score(doc=33,freq=2.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.34282678 = fieldWeight in 33, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.109375 = fieldNorm(doc=33)
0.25 = coord(1/4)
- Source
- Deutscher Dokumentartag 1981, Mainz, 5.-8.10.1981: Kleincomputer in Information und Dokumentation. Bearb.: H. Strohl-Goebel
-
Fuhr, N.; Niewelt, B.: ¬Ein Retrievaltest mit automatisch indexierten Dokumenten (1984)
0.01
0.009998825 = product of:
0.0399953 = sum of:
0.0399953 = weight(_text_:und in 262) [ClassicSimilarity], result of:
0.0399953 = score(doc=262,freq=2.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.34282678 = fieldWeight in 262, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.109375 = fieldNorm(doc=262)
0.25 = coord(1/4)
- Source
- Deutscher Dokumentartag 1983, Göttingen, 3.-7.10.1983: Fachinformation und Bildschirmtext. Bearb.: H. Strohl-Goebel
-
Schulz, G.F.: Probleme der automatischen Indexierung mit Nominalgruppen (1982)
0.01
0.009998825 = product of:
0.0399953 = sum of:
0.0399953 = weight(_text_:und in 434) [ClassicSimilarity], result of:
0.0399953 = score(doc=434,freq=2.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.34282678 = fieldWeight in 434, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.109375 = fieldNorm(doc=434)
0.25 = coord(1/4)
- Source
- Deutscher Dokumentartag 1981, Mainz, 5.-8.10.1981: Kleincomputer in Information und Dokumentation. Bearb.: H. Strohl-Goebel
-
Schwarz, C.: Komplexe Nominalgruppen als Indexierungseinheiten am Beispiel des Projekte CONDOR (1982)
0.01
0.009998825 = product of:
0.0399953 = sum of:
0.0399953 = weight(_text_:und in 435) [ClassicSimilarity], result of:
0.0399953 = score(doc=435,freq=2.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.34282678 = fieldWeight in 435, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.109375 = fieldNorm(doc=435)
0.25 = coord(1/4)
- Source
- Deutscher Dokumentartag 1981, Mainz, 5.-8.10.1981: Kleincomputer in Information und Dokumentation. Bearb.: H. Strohl-Goebel
-
Lustig, G.: Weiterentwicklung der automatischen Indexierung im Projekt AIR (1984)
0.01
0.009998825 = product of:
0.0399953 = sum of:
0.0399953 = weight(_text_:und in 458) [ClassicSimilarity], result of:
0.0399953 = score(doc=458,freq=2.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.34282678 = fieldWeight in 458, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.109375 = fieldNorm(doc=458)
0.25 = coord(1/4)
- Source
- Deutscher Dokumentartag 1983, Göttingen, 3.-7.10.1983: Fachinformation und Bildschirmtext. Bearb.: H. Strohl-Goebel
-
Lepsky, K.: Maschinelles Indexieren zur Verbesserung der sachlichen Suche im OPAC : DFG-Projekt an der Universitäts- und Landesbibliothek Düsseldorf (1994)
0.01
0.009998825 = product of:
0.0399953 = sum of:
0.0399953 = weight(_text_:und in 2882) [ClassicSimilarity], result of:
0.0399953 = score(doc=2882,freq=2.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.34282678 = fieldWeight in 2882, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.109375 = fieldNorm(doc=2882)
0.25 = coord(1/4)
-
Tzeras, K.: Zur Aufwandsabschätzung bei der Entwicklung eines Indexierungswörterbuches (1991)
0.01
0.009998825 = product of:
0.0399953 = sum of:
0.0399953 = weight(_text_:und in 792) [ClassicSimilarity], result of:
0.0399953 = score(doc=792,freq=8.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.34282678 = fieldWeight in 792, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0546875 = fieldNorm(doc=792)
0.25 = coord(1/4)
- Abstract
- Für die automatische Indexierung mit einem vorgegebenen Deskriptorensystem wird ein Wörterbuch benötigt, das möglichst viele Fachausdrücke des Anwendungsgebietes durch Relationen mit Deskriptoren verbindet. Werden die in einem solchen Indexierungswörterbuch erfaßten Relationen aus der Verarbeitung von Texten gewonnen, so ergibt sich eine Beziehung zwischen der Anzahl der Texte und der Größe und Leistungsfähigkeit des Wörterbuches. Die beschreibung derartiger Beziehungen ist besonders vor Beginn der Entwicklung eines automatischen Indexierungssystems von großem Interesse. H. Hüther hat sich in mehreren Arbeiten mit diesem Problem beschäftigt und verschiedene Schätzverfahren theoretische hergeleitet. Für eines der von ihm vorgeschlagenen Schätzverfahren zur Abschätzung der Größe eines Indexierungswörterbuches in Abhängigkeit von der Anzahl der zugrundeliegenden Texte werden im vorliegenden beitrag die Leistungsfähigkeit und die Anwendbarkeit untersucht
-
Pfeifer, U.: Entwicklung linear-iterativer und logistischer Indexierungsfunktionen (1991)
0.01
0.009998825 = product of:
0.0399953 = sum of:
0.0399953 = weight(_text_:und in 794) [ClassicSimilarity], result of:
0.0399953 = score(doc=794,freq=2.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.34282678 = fieldWeight in 794, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.109375 = fieldNorm(doc=794)
0.25 = coord(1/4)
-
Schröther, C.: Automatische Indexierung, Kategorisierung und inhaltliche Erschließung von Textnachrichten (2003)
0.01
0.009998825 = product of:
0.0399953 = sum of:
0.0399953 = weight(_text_:und in 521) [ClassicSimilarity], result of:
0.0399953 = score(doc=521,freq=2.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.34282678 = fieldWeight in 521, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.109375 = fieldNorm(doc=521)
0.25 = coord(1/4)
-
Yusuff, A.: Automatisches Indexing and Abstracting : Grundlagen und Beispiele (2002)
0.01
0.009998825 = product of:
0.0399953 = sum of:
0.0399953 = weight(_text_:und in 1577) [ClassicSimilarity], result of:
0.0399953 = score(doc=1577,freq=2.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.34282678 = fieldWeight in 1577, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.109375 = fieldNorm(doc=1577)
0.25 = coord(1/4)
-
Sachse, E.; Liebig, M.; Gödert, W.: Automatische Indexierung unter Einbeziehung semantischer Relationen : Ergebnisse des Retrievaltests zum MILOS II-Projekt (1998)
0.01
0.009998825 = product of:
0.0399953 = sum of:
0.0399953 = weight(_text_:und in 3577) [ClassicSimilarity], result of:
0.0399953 = score(doc=3577,freq=8.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.34282678 = fieldWeight in 3577, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0546875 = fieldNorm(doc=3577)
0.25 = coord(1/4)
- Abstract
- Im Rahmen von MILOS II wurde das erste MILOS-Projekt zur automatischen Indexierung von Titeldaten um eine semantischer Komponente erweitert, indem Thesaurusrelationen der Schlagwortnormdatei eingebunden wurden. Der abschließend zur Evaluierung durchgeführte Retrievaltest und seine Ergebnisse stehen im Mittelpunkt dieses Texts. Zusätzlich wird ein Überblick über bereits durchgeführte Retrievaltests (vorwiegend des anglo-amerikanischen Raums) gegeben und es wird erläutert, welche grundlegenden Fragestellungen bei der praktischen Durchführung eines Retrievaltests zu beachten sind
- Imprint
- Köln : FH Köln, Fachbereich Bibliotheks- und Informationswesen
- Series
- Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd.14
-
Schulz, K.U.; Brunner, L.: Vollautomatische thematische Verschlagwortung großer Textkollektionen mittels semantischer Netze (2017)
0.01
0.009998825 = product of:
0.0399953 = sum of:
0.0399953 = weight(_text_:und in 3493) [ClassicSimilarity], result of:
0.0399953 = score(doc=3493,freq=8.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.34282678 = fieldWeight in 3493, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0546875 = fieldNorm(doc=3493)
0.25 = coord(1/4)
- Source
- Theorie, Semantik und Organisation von Wissen: Proceedings der 13. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und dem 13. Internationalen Symposium der Informationswissenschaft der Higher Education Association for Information Science (HI) Potsdam (19.-20.03.2013): 'Theory, Information and Organization of Knowledge' / Proceedings der 14. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und Natural Language & Information Systems (NLDB) Passau (16.06.2015): 'Lexical Resources for Knowledge Organization' / Proceedings des Workshops der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) auf der SEMANTICS Leipzig (1.09.2014): 'Knowledge Organization and Semantic Web' / Proceedings des Workshops der Polnischen und Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) Cottbus (29.-30.09.2011): 'Economics of Knowledge Production and Organization'. Hrsg. von W. Babik, H.P. Ohly u. K. Weber