-
Haas, M.: Methoden der künstlichen Intelligenz in betriebswirtschaftlichen Anwendungen (2006)
0.01
0.008803714 = product of:
0.035214856 = sum of:
0.035214856 = weight(_text_:und in 4499) [ClassicSimilarity], result of:
0.035214856 = score(doc=4499,freq=4.0), product of:
0.1271084 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.057349887 = queryNorm
0.27704588 = fieldWeight in 4499, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0625 = fieldNorm(doc=4499)
0.25 = coord(1/4)
- Abstract
- Mit dieser Diplomarbeit soll vor allem ein Überblick über den derzeitigen Stand der Technik der Methoden der Semantischen Netze, der Fuzzy-Logik sowie der regelbasierten Wissensrepräsentation und -verarbeitung gegeben werden. Anhand praktischer Anwendungen wird dargestellt, in welchen Bereichen diese Techniken eingesetzt werden und welcher Nutzen sich hieraus ergibt.
-
Bauckhage, C.: Moderne Textanalyse : neues Wissen für intelligente Lösungen (2016)
0.01
0.008803714 = product of:
0.035214856 = sum of:
0.035214856 = weight(_text_:und in 2568) [ClassicSimilarity], result of:
0.035214856 = score(doc=2568,freq=4.0), product of:
0.1271084 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.057349887 = queryNorm
0.27704588 = fieldWeight in 2568, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0625 = fieldNorm(doc=2568)
0.25 = coord(1/4)
- Abstract
- Im Zuge der immer größeren Verfügbarkeit von Daten (Big Data) und rasanter Fortschritte im Daten-basierten maschinellen Lernen haben wir in den letzten Jahren Durchbrüche in der künstlichen Intelligenz erlebt. Dieser Vortrag beleuchtet diese Entwicklungen insbesondere im Hinblick auf die automatische Analyse von Textdaten. Anhand einfacher Beispiele illustrieren wir, wie moderne Textanalyse abläuft und zeigen wiederum anhand von Beispielen, welche praktischen Anwendungsmöglichkeiten sich heutzutage in Branchen wie dem Verlagswesen, der Finanzindustrie oder dem Consulting ergeben.
-
Maculan, B.C.M. dos; Lima, G.A. de; Oliveira, E.D.: Conversion methods from thesaurus to ontologies : a review (2016)
0.01
0.008803714 = product of:
0.035214856 = sum of:
0.035214856 = weight(_text_:und in 4695) [ClassicSimilarity], result of:
0.035214856 = score(doc=4695,freq=4.0), product of:
0.1271084 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.057349887 = queryNorm
0.27704588 = fieldWeight in 4695, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0625 = fieldNorm(doc=4695)
0.25 = coord(1/4)
- Footnote
- Vgl.: https://www.researchgate.net/publication/357053013_Conversion_Methods_from_Thesaurus_to_Ontologies_A_Review und DOI: 10.5771/9783956504389-300.
- Theme
- Konzeption und Anwendung des Prinzips Thesaurus
-
Hauff-Hartig, S.: Wissensrepräsentation durch RDF: Drei angewandte Forschungsbeispiele : Bitte recht vielfältig: Wie Wissensgraphen, Disco und FaBiO Struktur in Mangas und die Humanities bringen (2021)
0.01
0.008803714 = product of:
0.035214856 = sum of:
0.035214856 = weight(_text_:und in 318) [ClassicSimilarity], result of:
0.035214856 = score(doc=318,freq=4.0), product of:
0.1271084 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.057349887 = queryNorm
0.27704588 = fieldWeight in 318, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0625 = fieldNorm(doc=318)
0.25 = coord(1/4)
-
Ehrig, M.; Studer, R.: Wissensvernetzung durch Ontologien (2006)
0.01
0.008699934 = product of:
0.034799736 = sum of:
0.034799736 = weight(_text_:und in 5901) [ClassicSimilarity], result of:
0.034799736 = score(doc=5901,freq=10.0), product of:
0.1271084 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.057349887 = queryNorm
0.27378 = fieldWeight in 5901, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0390625 = fieldNorm(doc=5901)
0.25 = coord(1/4)
- Abstract
- In der Informatik sind Ontologien formale Modelle eines Anwendungsbereiches, die die Kommunikation zwischen menschlichen und/oder maschinellen Akteuren unterstützen und damit den Austausch und das Teilen von Wissen in Unternehmen erleichtern. Ontologien zur strukturierten Darstellung von Wissen zu nutzen hat deshalb in den letzten Jahren zunehmende Verbreitung gefunden. Schon heute existieren weltweit tausende Ontologien. Um Interoperabilität zwischen darauf aufbauenden Softwareagenten oder Webservices zu ermöglichen, ist die semantische Integration der Ontologien eine zwingendnotwendige Vorraussetzung. Wie man sieh leicht verdeutlichen kann, ist die rein manuelle Erstellung der Abbildungen ab einer bestimmten Größe. Komplexität und Veränderungsrate der Ontologien nicht mehr ohne weiteres möglich. Automatische oder semiautomatische Technologien müssen den Nutzer darin unterstützen. Das Integrationsproblem beschäftigt Forschung und Industrie schon seit vielen Jahren z. B. im Bereich der Datenbankintegration. Neu ist jedoch die Möglichkeit komplexe semantische Informationen. wie sie in Ontologien vorhanden sind, einzubeziehen. Zur Ontologieintegration wird in diesem Kapitel ein sechsstufiger genereller Prozess basierend auf den semantischen Strukturen eingeführt. Erweiterungen beschäftigen sich mit der Effizienz oder der optimalen Nutzereinbindung in diesen Prozess. Außerdem werden zwei Anwendungen vorgestellt, in denen dieser Prozess erfolgreich umgesetzt wurde. In einem abschließenden Fazit werden neue aktuelle Trends angesprochen. Da die Ansätze prinzipiell auf jedes Schema übertragbar sind, das eine semantische Basis enthält, geht der Einsatzbereich dieser Forschung weit über reine Ontologieanwendungen hinaus.
-
Teutsch, K.: ¬Die Welt ist doch eine Scheibe : Google-Herausforderer eyePlorer (2009)
0.01
0.008699934 = product of:
0.034799736 = sum of:
0.034799736 = weight(_text_:und in 2678) [ClassicSimilarity], result of:
0.034799736 = score(doc=2678,freq=40.0), product of:
0.1271084 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.057349887 = queryNorm
0.27378 = fieldWeight in 2678, product of:
6.3245554 = tf(freq=40.0), with freq of:
40.0 = termFreq=40.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.01953125 = fieldNorm(doc=2678)
0.25 = coord(1/4)
- Content
- "An einem trüben Novembertag 2008 sitzen zwei Männer an einem ovalen Konferenztisch. Sie befinden sich wie die meisten Geschäftstreibenden im Strudel der Finanzmärkte. Ihr Tisch steht im einzigen mehrstöckigen Nachwendebau der Berliner Karl-Marx-Allee. Links vom Fenster leuchtet die Spitze des Fernsehturms, rechts fällt der Blick auf kilometerlange Kachelfassaden. Die Verhandlungen mit den Investoren ziehen sich seit Wochen hin. Ein rhetorisches Ringen. Der Hirnforscher fragt: "Ist Wissen mit großem 'W' und wissen mit kleinem 'w' für Sie das Gleiche?" Der Vertriebsmann sagt: "Learntainment", "Knowledge Nuggets", "Mindmapping". Am Ende liegt ein unterschriebener Vertrag auf dem Tisch - an einem Tag, an dem Daimler laut über Kurzarbeit nachdenkt. Martin Hirsch und Ralf von Grafenstein genehmigen sich einen Piccolo. In der schwersten Wirtschaftskrise der Bundesrepublik haben sie für "eyePlorer" einen potenten Investor gefunden. Er hat die Tragweite ihrer Idee verstanden, und er hat begriffen: Die Welt ist eine Scheibe.
Eine neue visuelle Ordnung Martin Hirsch ist der Enkel des Nobelpreisträgers Werner Heisenberg. Außerdem ist er Hirnforscher und beschäftigt sich seit Jahren mit der Frage: Was tut mein Kopf eigentlich, während ich hirnforsche? Ralf von Grafenstein ist Marketingexperte und spezialisiert auf Dienstleistungen im Internet. Zusammen haben sie also am 1. Dezember 2008 eine Firma in Berlin gegründet, deren Heiliger Gral besagte Scheibe ist, auf der - das ist die Idee - bald die ganze Welt, die Internetwelt zumindest, Platz finden soll. Die Scheibe heißt eyePlorer, was sich als Aufforderung an ihre Nutzer versteht. Die sollen auf einer neuartigen, eben scheibenförmigen Plattform die unermesslichen Datensätze des Internets in eine neue visuelle Ordnung bringen. Der Schlüssel dafür, da waren sich Hirsch und von Grafenstein sicher, liegt in der Hirnforschung, denn warum nicht die assoziativen Fähigkeiten des Menschen auf Suchmaschinen übertragen? Anbieter wie Google lassen von solchen Ansätzen bislang die Finger. Hier setzt man dafür auf Volltextprogramme, also sprachbegabte Systeme, die letztlich aber, genau wie die Schlagwortsuche, nur zu opak gerankten Linksammlungen führen. Weiter als auf Seite zwei des Suchergebnisses wagt sich der träge Nutzer meistens nicht vor. Weil sie niemals wahrgenommen wird, fällt eine Menge möglicherweise kostbare Information unter den Tisch.
Skelett mit Sonnenbrille Hirsch sitzt in einem grell erleuchteten Konferenzraum. In der rechten Ecke steht ein Skelett, dem jemand eine Sonnenbrille aufgeklemmt hat. In der Hand hält Hirsch ein Modellgehirn, auf dem er im Rhythmus seines Sprachflusses mit den Fingern trommelt. Obwohl im Verlauf der nächsten Stunden erschreckend verwickelte Netzdiagramme zum Einsatz kommen, hält Hirsch sich an die Suggestivkraft des Bildes. Er sagt: "Das Primärerlebnis der Maschine ist bei Google das eines Jägers. Sie pirscht sich an eine Internetseite heran." Man denkt: "Genauso fühlt es sich an: Suchbegriff eingeben, 'enter' drücken, Website schießen!", schon kommt die Komplementärmetapher geschmeidig aus dem Köcher: Im Gegensatz zum Google-Jäger, sagt Hirsch, sei der eyePlorer ein Sammler, der stöbere, organisiere und dann von allem nasche. Hier werden Informationen, auf die handelsübliche Suchmaschinen nur verweisen, kulinarisch aufbereitet und zu Schwerpunkten verknüpft. Im Gegensatz zu ihren Vorgängern ist die Maschine ansatzweise intelligent. Sie findet im Laufe einer Sitzung heraus, worum es dem Benutzer geht, versteht den Zusammenhang von Suche und Inhalt und ist deshalb in der Lage, Empfehlungen auszusprechen.
Einstein, Weizsäcker und Hitler Zu Demonstrationszwecken wird die eyePlorer-Scheibe an die Wand projiziert. Gibt man im kleinen Suchfeld in der Mitte den Namen Werner Heisenberg ein, verwandelt sich die Scheibe in einen Tortenboden. Die einzelnen Stücke entsprechen Kategorien wie "Person", "Technologie" oder "Organisation". Sie selbst sind mit bunten Knöpfen bedeckt, unter denen sich die Informationen verbergen. So kommt es, dass man beim Thema Heisenberg nicht nur auf die Kollegen Einstein, Weizsäcker und Schrödinger trifft, sondern auch auf Adolf Hitler. Ein Klick auf den entsprechenden Button stellt unter anderem heraus: Heisenberg kam 1933 unter Beschuss der SS, weil er sich nicht vor den Karren einer antisemitischen Physikbewegung spannen ließ. Nach diesem Prinzip spült die frei assoziierende Maschine vollautomatisch immer wieder neue Fakten an, um die der Nutzer zwar nicht gebeten hat, die ihn bei seiner Recherche aber möglicherweise unterstützen und die er später - die Maschine ist noch ausbaubedürftig - auch modellieren darf. Aber will man das, sich von einer Maschine beraten lassen? "Google ist wie ein Zoo", sekundiert Ralf von Grafenstein. "In einem Gehege steht eine Giraffe, im anderen ein Raubtier, aber die sind klar getrennt voneinander durch Gitter und Wege. Es gibt keine Möglichkeit, sie zusammen anzuschauen. Da kommen wir ins Spiel. Wir können Äpfel mit Birnen vergleichen!" Die Welt ist eine Scheibe oder die Scheibe eben eine Welt, auf der vieles mit vielem zusammenhängt und manches auch mit nichts. Der Vorteil dieser Maschine ist, dass sie in Zukunft Sinn stiften könnte, wo andere nur spröde auf Quellen verweisen. "Google ist ja ein unheimlich heterogenes Erlebnis mit ständigen Wartezeiten und Mausklicks dazwischen. Das kostet mich viel zu viel Metagedankenkraft", sagt Hirsch. "Wir wollten eine Maschine mit einer ästhetisch ansprechenden Umgebung bauen, aus der ich mich kaum wegbewege, denn sie liefert mir Informationen in meinen Gedanken hinein."
Wenn die Maschine denkt Zur Hybris des Projekts passt, dass der eyePlorer ursprünglich HAL heißen sollte - wie der außer Rand und Band geratene Bordcomputer aus Kubricks "2001: Odyssee im Weltraum". Wenn man die Buchstaben aber jeweils um eine Alphabetposition nach rechts verrückt, ergibt sich IBM. Was passiert mit unserem Wissen, wenn die Maschine selbst anfängt zu denken? Ralf von Grafenstein macht ein ernstes Gesicht. "Es ist nicht unser Ansinnen, sie alleinzulassen. Es geht bei uns ja nicht nur darum, zu finden, sondern auch mitzumachen. Die Community ist wichtig. Der Dialog ist beiderseitig." Der Lotse soll in Form einer wachsamen Gemeinschaft also an Bord bleiben. Begünstigt wird diese Annahme auch durch die aufkommenden Anfasstechnologien, mit denen das iPhone derzeit so erfolgreich ist: "Allein zehn Prozent der menschlichen Gehirnleistung gehen auf den Pinzettengriff zurück." Martin Hirsch wundert sich, dass diese Erkenntnis von der IT-Branche erst jetzt berücksichtigt wird. Auf berührungssensiblen Bildschirmen sollen die Nutzer mit wenigen Handgriffen bald spielerisch Inhalte schaffen und dem System zur Verfügung stellen. So wird aus der Suchmaschine ein "Sparringspartner" und aus einem Informationsknopf ein "Knowledge Nugget". Wie auch immer man die Erkenntniszutaten des Internetgroßmarkts serviert: Wissen als Zeitwort ist ein länglicher Prozess. Im Moment sei die Maschine noch auf dem Stand eines Zweijährigen, sagen ihre Schöpfer. Sozialisiert werden soll sie demnächst im Internet, ihre Erziehung erfolgt dann durch die Nutzer. Als er Martin Hirsch mit seiner Scheibe zum ersten Mal gesehen habe, dachte Ralf von Grafenstein: "Das ist überfällig! Das wird kommen! Das muss raus!" Jetzt ist es da, klein, unschuldig und unscheinbar. Man findet es bei Google."
-
Dietiker, S.: Cognitive Map einer Bibliothek : eine Überprüfung der Methodentauglichkeit im Bereich Bibliothekswissenschaft - am Beispiel der Kantonsbibliothek Graubünden (2016)
0.01
0.008699934 = product of:
0.034799736 = sum of:
0.034799736 = weight(_text_:und in 4570) [ClassicSimilarity], result of:
0.034799736 = score(doc=4570,freq=10.0), product of:
0.1271084 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.057349887 = queryNorm
0.27378 = fieldWeight in 4570, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0390625 = fieldNorm(doc=4570)
0.25 = coord(1/4)
- Abstract
- Cognitive Maps sind mentale Karten, welche jeder Mensch besitzt. Es handelt sich dabei um eine Reflexion der jeweiligen Umwelt. Cognitive Mapping ist eine Methode, welche diese mentale Karte sichtbar macht. Aufgrund dieser Visualisierung können Erkenntnisse darüber gewonnen werden, was Menschen an einem Ort oder in einem Raum tun und wahrnehmen. Die Methode hat verschiede Anwendungstechniken, welche sich in sechs Kategorien teilen: Aufgabenlösung, Elemente orten, Sketch Map erstellen, Zonen und Gebiete einzeichnen, Weg- und Ortsbeschreibung sowie Kognitive Befragung. Anhand dieser lassen sich Untersuchungen beliebig kombinieren. Die Anwendung von Cognitive Mapping sowie eine einfache Befragung in der Kantonsbibliothek Graubünden hat ergeben, dass die Methode für Bibliotheken sinnvoll ist. Allerdings sollte bei zukünftigen Anwendungen die Punkte Gesamtaufwand, Untersuchungsaufbau, Teilnehmer-Zusammensetzung und Auswertungs-Aufwand angepasst werden.
- Content
- "Das Thema 'Cognitive Map einer Bibliothek' hat mich von Beginn an interessiert. Methoden anwenden, um den Bedürfnissen der Nutzer zu entsprechen, ist für Bibliotheken eine Möglichkeit sich auch in Zukunft als Wissensplatz zu positionieren. Das Spannende an dieser Arbeit war, sich zunächst in den vielen Anwendungsmöglichkeiten der Methode zurechtzufinden, einige davon auszuprobieren und schlussendlich herauszufinden, ob die Methode als sinnvoll für Bibliotheken bezeichnet werden kann."
-
Stollberg, M.: Ontologiebasierte Wissensmodellierung : Verwendung als semantischer Grundbaustein des Semantic Web (2002)
0.01
0.008612495 = product of:
0.03444998 = sum of:
0.03444998 = weight(_text_:und in 4495) [ClassicSimilarity], result of:
0.03444998 = score(doc=4495,freq=20.0), product of:
0.1271084 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.057349887 = queryNorm
0.27102837 = fieldWeight in 4495, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.02734375 = fieldNorm(doc=4495)
0.25 = coord(1/4)
- Abstract
- In Kapitel A werden die Grundlagen von Ontologien als Verfahren der Wissensmodellierung erarbeitet. Dazu wird zunächst die definitorische Erfassung von Ontologien erläutert. Zur Erlangung eines fundierten Verständnisses von Wissensmodellierung und der Besonderheiten ontologiebasierter Verfahren ist die Eingliederung dieser in den relevanten wissenschaftlichen Kontext erforderlich. Die in diesem Zusammenhang betrachtete Art der Wissensmodellierung dient vornehmlich als konzeptionelle Grundlage für die Erstellung wissensverarbeitender Computersysteme. Die Entwicklung derartiger Systeme ist das Hauptanliegen der Künstlichen Intelligenz, weshalb eine Positionierung ontologiebasierter Verfahren in derselben vorgenommen wird. Dabei sind vor allem jene Ansätze interessant, auf denen ontologiebasierte Verfahren aufbauen. Zunächst werden daher die grundlegenden theoretischen Aspekte der Wissensrepräsentation erläutert und anschließend daran die Bedeutung von Ontologien im Knowledge Engineering aufgezeigt, um den Verwendungskontext derartiger Verfahren der Wissensmodellierung zu verdeutlichen. Aufbauend darauf werden die spezifischen Eigenschaften ontologiebasierter Verfahren der Wissensmodellierung erörtert, wodurch ein grundlegendes Verständnis dieser Methodik erreicht werden soll.
Der in Kapitel B behandelte Schwerpunkt ist die Ontologie-Entwicklung. Nach der Erfassung der grundlegenden Charakteristika ontologiebasierter Wissensmodellierung stehen hier die Anforderungen bei der Erstellung einer Ontologie im Vordergrund. Dazu werden die wesentlichen diesbezüglichen Errungenschaften des sogenannten Ontology Engineering erörtert. Es werden zunächst methodologische Ansätze für den Entwicklungsprozess von Ontologien sowie für die einzelnen Aufgabengebiete entwickelter Techniken und Verfahren vorgestellt. Anschließend daran werden Design-Kriterien und ein Ansatz zur Meta-Modellierung besprochen, welche der Qualitätssicherung einer Ontologie dienen sollen. Diese Betrachtungen sollen eine Übersicht über den Erkenntnisstand des Ontology Engineering geben, womit ein wesentlicher Aspekt zur Nutzung ontologiebasierter Verfahren der Wissensmodellierung im Semantic Web abgedeckt wird. Als letzter Aspekt zur Erfassung der Charakteristika ontologiebasierter Wissensmodellierung wird in Kapitel C die Fragestellung bearbeitet, wie Ontologien in Informationssystemen eingesetzt werden können. Dazu werden zunächst die Verwendungsmöglichkeiten von Ontologien identifiziert. Dann werden Anwendungsgebiete von Ontologien vorgestellt, welche zum einen Beispiele für die aufgefundenen Einsatzmöglichkeiten darstellen und zum anderen im Hinblick auf die Untersuchung der Verwendung von Ontologien im Semantic Web grundlegende Aspekte desselben erörtern sollen. Im Anschluss daran werden die wesentlichen softwaretechnischen Herausforderungen besprochen, die sich durch die Verwendung von Ontologien in Informationssystemen ergeben. Damit wird die Erarbeitung der wesentlichen Charakteristika ontologiebasierter Verfahren der Wissensmodellierung als erstem Teil dieser Arbeit abgeschlossen.
Basierend auf diesen Abhandlungen wird in Kapitel D die Verwendung von Ontologien im Semantic Web behandelt. Dabei ist das Semantic Web nicht als computergestützte Lösung für ein konkretes Anwendungsgebiet zu verstehen, sondern - ähnlich wie existente Web-Technologien - als eine informationstechnische Infrastruktur zur Bereitstellung und Verknüpfung von Applikationen für verschiedene Anwendungsgebiete. Die technologischen Lösungen zur Umsetzung des Semantic Web befinden sich noch in der Entwicklungsphase. Daher werden zunächst die grundlegenden Ideen der Vision des Semantic Web genauer erläutert und das antizipierte Architekturmodell zur Realisierung derselben vorgestellt, wobei insbesondere die darin angestrebte Rolle von Ontologien herausgearbeitet wird. Anschließend daran wird die formale Darstellung von Ontologien durch web-kompatible Sprachen erörtert, wodurch die Verwendung von Ontologien im Semantic Web ermöglicht werden soll. In diesem Zusammenhang sollen ferner die Beweggründe für die Verwendung von Ontologien als bedeutungsdefinierende Konstrukte im Semantic Web verdeutlicht sowie die auftretenden Herausforderungen hinsichtlich der Handhabung von Ontologien aufgezeigt werden. Dazu werden als dritter Aspekt des Kapitels entsprechende Lösungsansätze des Ontologie-Managements diskutiert. Abschließend wird auf die Implikationen für konkrete Anwendungen der Semantic Web - Technologien eingegangen, die aus der Verwendung von Ontologien im Semantic Web resultieren. Zum Abschluss der Ausführungen werden die Ergebnisse der Untersuchung zusammengefasst. Dabei soll auch eine kritische Betrachtung bezüglich der Notwendigkeit semantischer Web-Technologien sowie der Realisierbarkeit der Vision des Semantic Web vorgenommen werden.
- Content
- Magisterarbeit am Institut für Publizistik und Kommunikationswissenschaft, Arbeitsbereich Informationswissenschaft, Fachbereich Philosophie und Sozialwissenschaften, Freie Universität Berlin
- Imprint
- Berlin : Institut für Publizistik und Kommunikationswissenschaft
-
Semantic Media Wiki : Autoren sollen Wiki-Inhalte erschließen (2006)
0.01
0.00817053 = product of:
0.03268212 = sum of:
0.03268212 = weight(_text_:und in 6027) [ClassicSimilarity], result of:
0.03268212 = score(doc=6027,freq=18.0), product of:
0.1271084 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.057349887 = queryNorm
0.25712007 = fieldWeight in 6027, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.02734375 = fieldNorm(doc=6027)
0.25 = coord(1/4)
- Content
- "Mit einer semantischen Erweiterung der Software MediaWiki ist es dem Forschungsteam Wissensmanagement des Instituts für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) der Universität Karlsruhe (TH) gelungen, das Interesse der internationalen Fachwelt auf sich zu ziehen. Die jungen Forscher Denny Vrandecic und Markus Krötzsch aus dem Team von Professor Dr. Rudi Studer machen die Inhalte von Websites, die mit MediaWiki geschrieben sind, für Maschinen besser auswertbar. Ihr Konzept zur besseren Erschließung der Inhalte geht allerdings nur auf, wenn die Wiki-Autoren aktiv mitarbeiten. Die Karlsruher Forscher setzen auf eine Kombination aus sozialer und technischer Lösung: Sie hoffen, dass sich auf der Basis ihrer Wiki-PlugIn-Software "Semantic MediaWiki" eine Art kollektive Indexierung der Wiki-Artikel durch die Autoren entwickelt - und ernten für diese Idee viel Beifall. Semantic MediaWiki wird bereits auf mehreren Websites mit begrenztem Datenvolumen erfolgreich eingesetzt, unter anderen zur Erschließung der Bibel-Inhalte (URLs siehe Kasten). Nun testen die Karlsruher Forscher, ob ihr Programm auch den gigantischen Volumenanforderungen der freien Web-Enzyklopädie Wikipedia gewachsen ist. Die Wikimedia Foundation Inc., Betreiber von Wikipedia, stellt ihnen für den Test rund 50 Gigabyte Inhalt der englischen Wikipedia-Ausgabe zur Verfügung und hat Interesse an einer Zusammenarbeit signalisiert. Semantic MediaWiki steht als Open Source Software (PHP) auf der Website Sourceforge zur Verfügung. Semantic MediaWiki ist ein relativ einfach zu bedienendes Werkzeug, welches auf leistungsstarken semantischen Wissensmanagement-Technologien aufbaut. Die Autoren können mit dem Werkzeug die Querverweise (Links), die sie in ihrem Text als Weiterleitung zu Hintergrundinformationen angeben, bei der Eingabe als Link eines bestimmten Typs kennzeichnen (typed links) und Zahlenangaben und Fakten im Text als Attribute (attributes) markieren. Bei dem Eintrag zu "Ägypten" steht dann zum Bespiel der typisierte Link "[[ist Land von::Afrika]]" / "[[is country of::africa]]", ein Attribut könnte "[[Bevölkerung:=76,000,000]]" / "[[population:=76,000,000]]" sein. Die von den Autoren erzeugten, typisierten Links werden in einer Datenbank als Dreier-Bezugsgruppen (Triple) abgelegt; die gekennzeichneten Attribute als feststehende Werte gespeichert. Die Autoren können die Relationen zur Definition der Beziehungen zwischen den verlinkten Begriffen frei wählen, z.B. "ist ...von' / "is...of", "hat..." /"has ...". Eingeführte Relationen stehen als "bisher genutzte Relationen" den anderen Schreibern für deren Textindexierung zur Verfügung.
Aus den so festgelegten Beziehungen zwischen den verlinkten Begriffen sollen Computer automatisch sinnvolle Antworten auf komplexere Anfragen generieren können; z.B. eine Liste erzeugen, in der alle Länder von Afrika aufgeführt sind. Die Ländernamen führen als Link zurück zu dem Eintrag, in dem sie stehen - dem Artikel zum Land, für das man sich interessiert. Aus informationswissenschaftlicher Sicht ist das Informationsergebnis, das die neue Technologie produziert, relativ simpel. Aus sozialwissenschaftlicher Sicht steckt darin aber ein riesiges Potential zur Verbesserung der Bereitstellung von enzyklopädischer Information und Wissen für Menschen auf der ganzen Welt. Spannend ist auch die durch Semantic MediaWiki gegebene Möglichkeit der automatischen Zusammenführung von Informationen, die in den verschiedenen Wiki-Einträgen verteilt sind, bei einer hohen Konsistenz der Ergebnisse. Durch die feststehenden Beziehungen zwischen den Links enthält die automatisch erzeugte Liste nach Angaben der Karlsruher Forscher immer die gleichen Daten, egal, von welcher Seite aus man sie abruft. Die Suchmaschine holt sich die Bevölkerungszahl von Ägypten immer vom festgelegten Ägypten-Eintrag, so dass keine unterschiedlichen Zahlen in der Wiki-Landschaft kursieren können. Ein mit Semantic MediaWiki erstellter Testeintrag zu Deutschland kann unter http://ontoworld.org/index.php/Germany eingesehen werden. Die Faktenbox im unteren Teil des Eintrags zeigt an, was der "Eintrag" der Suchmaschine an Wissen über Deutschland anbieten kann. Diese Ergebnisse werden auch in dem Datenbeschreibungsstandard RDF angeboten. Mehr als das, was in der Faktenbox steht, kann der Eintrag nicht an die Suchmaschine abgeben."
- Source
- Information - Wissenschaft und Praxis. 57(2006) H.6/7, S.372
-
Semenova, E.: Ontologie als Begriffssystem : Theoretische Überlegungen und ihre praktische Umsetzung bei der Entwicklung einer Ontologie der Wissenschaftsdisziplinen (2010)
0.01
0.008086728 = product of:
0.03234691 = sum of:
0.03234691 = weight(_text_:und in 4095) [ClassicSimilarity], result of:
0.03234691 = score(doc=4095,freq=6.0), product of:
0.1271084 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.057349887 = queryNorm
0.2544829 = fieldWeight in 4095, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.046875 = fieldNorm(doc=4095)
0.25 = coord(1/4)
- Abstract
- Das Konzept des Semantic Web befindet sich gegenwärtig auf dem Weg von der Vision zur Realisierung und ist "noch gestaltbar", ebenso wie eine seiner Grundkonzeptionen, die Ontologie. Trotz der stetig wachsenden Anzahl der Forschungsarbeiten werden Ontologien primär aus der Sicht semantischer Technologien untersucht, Probleme der Ontologie als Begriffssystem werden in der Ontologieforschung nur partiell angetastet - für die praktische Arbeit erweist sich dieses als bedeutender Mangel. In diesem Bericht wird die Notwendigkeit, eine Ontologie aus der Sicht der Dokumentationssprache zu erforschen, als Fragestellung formuliert, außerdem werden einige schon erarbeitete theoretische Ansätze skizzenhaft dargestellt. Als Beispiel aus der Praxis wird das Material des von der DFG geförderten und am Hermann von Helmholtz-Zentrum für Kulturtechnik der Humboldt Universität zu Berlin durchgeführten Projektes "Entwicklung einer Ontologie der Wissenschaftsdisziplinen" einbezogen.
-
Braun, S.; Schmidt, A.; Walter, A.; Zacharias, V.: Von Tags zu semantischen Beziehungen : kollaborative Ontologiereifung (2008)
0.01
0.008086728 = product of:
0.03234691 = sum of:
0.03234691 = weight(_text_:und in 2896) [ClassicSimilarity], result of:
0.03234691 = score(doc=2896,freq=6.0), product of:
0.1271084 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.057349887 = queryNorm
0.2544829 = fieldWeight in 2896, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.046875 = fieldNorm(doc=2896)
0.25 = coord(1/4)
- Abstract
- Die Popularität von Tagging-Ansätzen hat gezeigt, dass dieses Ordnungsprinzip für Nutzer insbesondere auf kollaborativen Plattformen deutlich zugänglicher ist als strukturierte und kontrollierte Vokabulare. Allerdings stoßen Tagging-Ansätze oft an ihre Grenzen, wo sie keine ausreichende semantische Präzision ausbilden können. Umgekehrt können ontologiebasierte Ansätze zwar die semantische Präzision erreichen, werden jedoch (besonders aufgrund der schwerfälligen Pflegeprozesse) von den Nutzern kaum akzeptiert. Wir schlagen eine Verbindung beider Welten vor, die auf einer neuen Sichtweise auf die Entstehung von Ontologien fußt: die Ontologiereifung. Anhand zweier Werkzeuge aus dem Bereich des Social Semantic Bookmarking und der semantischen Bildsuche zeigen wir, wie Anwendungen aussehen können, die eine solche Ontologiereifung (in die jeweiligen Nutzungsprozesse integriert) ermöglichen und fördern.
-
Forscher erschließen Inhalte von Wiki-Webseiten (2006)
0.01
0.0077814576 = product of:
0.03112583 = sum of:
0.03112583 = weight(_text_:und in 55) [ClassicSimilarity], result of:
0.03112583 = score(doc=55,freq=8.0), product of:
0.1271084 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.057349887 = queryNorm
0.24487628 = fieldWeight in 55, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0390625 = fieldNorm(doc=55)
0.25 = coord(1/4)
- Abstract
- Mit einer Erweiterung der Software MediaWiki macht das Forschungsteam Wissensmanagement des Instituts für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) der Universität Karlsruhe die Inhalte von Websites, die mit MediaWiki geschrieben sind, für Maschinen besser auswertbar.
- Content
- Das Konzept zur besseren Erschließung der Inhalte geht allerdings nur auf, wenn die WikiAutoren aktiv mitarbeiten. Die Karlsruher Forscher setzen auf eine Kombination aus sozialer und technischer Lösung: Sie hoffen, dass sich auf der Basis ihrer Software »Semantic MediaWiki« eine Art kollektive Indexierung der Wiki-Artikel durch die Autoren entwickelt. »Semantic MediaWiki« wird bereits auf mehreren Websites mit begrenztem Datenvolumen erfolgreich eingesetzt, unter anderen zur Erschließung der Bibel-Inhalte. Nun testen die Karlsruher Forscher, ob ihr Programm auch dem gewaltigen Volumen von Wikipedia gewachsen ist. Die Wikimedia Foundation Inc., Betreiber von Wikipedia, stellt ihnen für den Test rund 50 Gigabyte Inhalt der englischen Wikipedia-Ausgabe zur Verfügung und hat Interesse an einer Zusammenarbeit signalisiert. »Semantic MediaWiki« ist ein einfach zu bedienendes Werkzeug, das auf leistungsstarken semantischen Wissensmanagement-Technologien aufbaut. Die Autoren können mit dem Werkzeug die Querverweise, die sie in ihrem Text als Weiterleitung zu Hintergrundinformationen angeben, typisieren, also kurz erläutern, sowie Zahlenangaben und Fakten im Text als Attribute kennzeichnen. Bei dem Eintrag zu »Ägypten« steht dann zum Beispiel der typisierte Link »ist Land in Afrika«, ein Attribut könnte »Bevölkerung 76000000« sein. Dabei soll jeweils die Landessprache des Eintrags verwendet werden können. Die von den Autoren erzeugten, typisierten Links werden in einer Datenbank als Bezugsgruppen abgelegt; die gekennzeichneten Attribute als feststehende Werte gespeichert. Das versetzt Computer in die Lage, automatisch sinnvolle Antworten auf komplexere Anfragen zu geben; etwa eine Liste zu erzeugen, in der alle Länder Afrikas aufgeführt sind. Die Ländernamen führen als Link zurück zu dem Eintrag, in dem sie stehen."
-
Tudhope, D.; Hodge, G.: Terminology registries (2007)
0.01
0.0077814576 = product of:
0.03112583 = sum of:
0.03112583 = weight(_text_:und in 539) [ClassicSimilarity], result of:
0.03112583 = score(doc=539,freq=2.0), product of:
0.1271084 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.057349887 = queryNorm
0.24487628 = fieldWeight in 539, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.078125 = fieldNorm(doc=539)
0.25 = coord(1/4)
- Theme
- Konzeption und Anwendung des Prinzips Thesaurus
-
Nix, M.: ¬Die praktische Einsetzbarkeit des CIDOC CRM in Informationssystemen im Bereich des Kulturerbes (2004)
0.01
0.0077814576 = product of:
0.03112583 = sum of:
0.03112583 = weight(_text_:und in 3742) [ClassicSimilarity], result of:
0.03112583 = score(doc=3742,freq=8.0), product of:
0.1271084 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.057349887 = queryNorm
0.24487628 = fieldWeight in 3742, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0390625 = fieldNorm(doc=3742)
0.25 = coord(1/4)
- Abstract
- Es steht uns eine praktisch unbegrenzte Menge an Informationen über das World Wide Web zur Verfügung. Das Problem, das daraus erwächst, ist, diese Menge zu bewältigen und an die Information zu gelangen, die im Augenblick benötigt wird. Das überwältigende Angebot zwingt sowohl professionelle Anwender als auch Laien zu suchen, ungeachtet ihrer Ansprüche an die gewünschten Informationen. Um dieses Suchen effizienter zu gestalten, gibt es einerseits die Möglichkeit, leistungsstärkere Suchmaschinen zu entwickeln. Eine andere Möglichkeit ist, Daten besser zu strukturieren, um an die darin enthaltenen Informationen zu gelangen. Hoch strukturierte Daten sind maschinell verarbeitbar, sodass ein Teil der Sucharbeit automatisiert werden kann. Das Semantic Web ist die Vision eines weiterentwickelten World Wide Web, in dem derart strukturierten Daten von so genannten Softwareagenten verarbeitet werden. Die fortschreitende inhaltliche Strukturierung von Daten wird Semantisierung genannt. Im ersten Teil der Arbeit sollen einige wichtige Methoden der inhaltlichen Strukturierung von Daten skizziert werden, um die Stellung von Ontologien innerhalb der Semantisierung zu klären. Im dritten Kapitel wird der Aufbau und die Aufgabe des CIDOC Conceptual Reference Model (CRM), einer Domain Ontologie im Bereich des Kulturerbes dargestellt. Im darauf folgenden praktischen Teil werden verschiedene Ansätze zur Verwendung des CRM diskutiert und umgesetzt. Es wird ein Vorschlag zur Implementierung des Modells in XML erarbeitet. Das ist eine Möglichkeit, die dem Datentransport dient. Außerdem wird der Entwurf einer Klassenbibliothek in Java dargelegt, auf die die Verarbeitung und Nutzung des Modells innerhalb eines Informationssystems aufbauen kann.
-
Endres-Niggemeyer, B.; Ziegert, C.: SummIt-BMT : (Summarize It in BMT) in Diagnose und Therapie, Abschlussbericht (2002)
0.01
0.0077814576 = product of:
0.03112583 = sum of:
0.03112583 = weight(_text_:und in 4497) [ClassicSimilarity], result of:
0.03112583 = score(doc=4497,freq=8.0), product of:
0.1271084 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.057349887 = queryNorm
0.24487628 = fieldWeight in 4497, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0390625 = fieldNorm(doc=4497)
0.25 = coord(1/4)
- Abstract
- SummIt-BMT (Summarize It in Bone Marrow Transplantation) - das Zielsystem des Projektes - soll Ärzten in der Knochenmarktransplantation durch kognitiv fundiertes Zusammenfassen (Endres-Niggemeyer, 1998) aus dem WWW eine schnelle Informationsaufnahme ermöglichen. Im bmbffinanzierten Teilprojekt, über das hier zu berichten ist, liegt der Schwerpunkt auf den klinischen Fragestellungen. SummIt-BMT hat als zentrale Komponente eine KMT-Ontologie. Den Systemablauf veranschaulicht Abb. 1: Benutzer geben ihren Informationsbedarf in ein strukturiertes Szenario ein. Sie ziehen dazu Begriffe aus der Ontologie heran. Aus dem Szenario werden Fragen an Suchmaschinen abgeleitet. Die Summit-BMT-Metasuchmaschine stößt Google an und sucht in Medline, der zentralen Literaturdatenbank der Medizin. Das Suchergebnis wird aufbereitet. Dabei werden Links zu Volltexten verfolgt und die Volltexte besorgt. Die beschafften Dokumente werden mit einem Schlüsselwortretrieval auf Passagen untersucht, in denen sich Suchkonzepte aus der Frage / Ontologie häufen. Diese Passagen werden zum Zusammenfassen vorgeschlagen. In ihnen werden die Aussagen syntaktisch analysiert. Die Systemagenten untersuchen sie. Lassen Aussagen sich mit einer semantischen Relation an die Frage anbinden, tragen also zur deren Beantwortung bei, werden sie in die Zusammenfassung aufgenommen, es sei denn, andere Agenten machen Hinderungsgründe geltend, z.B. Redundanz. Das Ergebnis der Zusammenfassung wird in das Frage/Antwort-Szenario integriert. Präsentiert werden Exzerpte aus den Quelldokumenten. Mit einem Link vermitteln sie einen sofortigen Rückgriff auf die Quelle. SummIt-BMT ist zum nächsten Durchgang von Informationssuche und Zusammenfassung bereit, sobald der Benutzer dies wünscht.
-
Angerer, C.: Neuronale Netze : Revolution für die Wissenschaft? (2018)
0.01
0.0077814576 = product of:
0.03112583 = sum of:
0.03112583 = weight(_text_:und in 4023) [ClassicSimilarity], result of:
0.03112583 = score(doc=4023,freq=2.0), product of:
0.1271084 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.057349887 = queryNorm
0.24487628 = fieldWeight in 4023, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.078125 = fieldNorm(doc=4023)
0.25 = coord(1/4)
- Abstract
- Ein Konzept aus den 1980er Jahren nimmt durch neue Entwicklungen in der Computer-Hardware einen kometenhaften Aufschwung. Vielschichtige, »tiefe« neuronale Netze revolutionieren nicht nur die Bilderkennung und die Datenanalyse, sondern gewinnen inzwischen auch wissenschaftliche Erkenntnisse.
-
Güldner, D.; Wich, M.; Keil, S.: Überblick über aktuelle Programme zur Erschaffung von Ontologien (2006)
0.01
0.00770325 = product of:
0.030813 = sum of:
0.030813 = weight(_text_:und in 6022) [ClassicSimilarity], result of:
0.030813 = score(doc=6022,freq=4.0), product of:
0.1271084 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.057349887 = queryNorm
0.24241515 = fieldWeight in 6022, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0546875 = fieldNorm(doc=6022)
0.25 = coord(1/4)
- Abstract
- Im Zuge des zunehmenden Einflusses des Semantic Web und der damit einhergehenden Verknüpfung von Informationen wird die Modellierung von Ontologien immer bedeutsamer. Hiermit verbunden ist natürlich auch deren Erweiterung um Instanzen, wodurch immer größere Wissensbasen entstehen. In den letzten Jahren sind sowohl aus akademischem, als auch aus industriellem Hintergrund Programme entstanden, die Ontologie-Autoren bei ihrer Arbeit unterstützen sollen. Nach einer kleinen allgemeinen Einführung in den Ablauf des Ontologiebaus soll hier ein Überblick über einige Tools gegeben werden, die aktuell zur Verfügung stehen, ohne Anspruch auf Vollständigkeit zu erheben.
- Source
- Information - Wissenschaft und Praxis. 57(2006) H.6/7, S.337-342
-
Ehlen, D.: Semantic Wiki : Konzeption eines Semantic MediaWiki für das Reallexikon zur Deutschen Kunstgeschichte (2010)
0.01
0.00770325 = product of:
0.030813 = sum of:
0.030813 = weight(_text_:und in 3689) [ClassicSimilarity], result of:
0.030813 = score(doc=3689,freq=4.0), product of:
0.1271084 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.057349887 = queryNorm
0.24241515 = fieldWeight in 3689, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0546875 = fieldNorm(doc=3689)
0.25 = coord(1/4)
- Abstract
- Wikis sind ein geeignetes Mittel zur Umsetzung von umfangreichen Wissenssammlungen wie Lexika oder Enzyklopädien. Bestes Beispiel dafür bildet die weltweit erfolgreiche freie On-line-Enzyklopadie Wikipedia. Jedoch ist es mit konventionellen Wiki-Umgebungen nicht moglich das Potential der gespeicherten Texte vollends auszuschopfen. Eine neue Möglichkeit bieten semantische Wikis, deren Inhalte mithilfe von maschinenlesbaren Annotationen semantische Bezüge erhalten. Die hier vorliegende Bachelorarbeit greift dies auf und überführt Teile des "Reallexikons zur deutschen Kunstgeschichte" in ein semantisches Wiki. Aufgrund einer Semantic MediaWiki-Installation soll uberpruft werden, inwieweit die neue Technik fur die Erschließung des Lexikons genutzt werden kann. Mit einem Beispiel-Wiki für das RdK auf beigefügter CD.
- Imprint
- Köln : Fachhochschule / Fakultät für Informations- und Kommunikationswissenschaften
-
Seidlmayer, E.: ¬An ontology of digital objects in philosophy : an approach for practical use in research (2018)
0.01
0.00770325 = product of:
0.030813 = sum of:
0.030813 = weight(_text_:und in 5496) [ClassicSimilarity], result of:
0.030813 = score(doc=5496,freq=4.0), product of:
0.1271084 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.057349887 = queryNorm
0.24241515 = fieldWeight in 5496, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0546875 = fieldNorm(doc=5496)
0.25 = coord(1/4)
- Footnote
- Master thesis Library and Information Science, Fakultät für Informations- und Kommunikationswissenschaften, Technische Hochschule Köln. Schön auch: Bei Google Scholar unter 'Eva, S.' nachgewiesen.
- Imprint
- Köln : Technische Hochschule / Fakultät für Informations- und Kommunikationswissenschaften
-
Mazzocchi, F.; Plini, P.: Refining thesaurus relational structure : implications and opportunities (2008)
0.01
0.006602786 = product of:
0.026411144 = sum of:
0.026411144 = weight(_text_:und in 5448) [ClassicSimilarity], result of:
0.026411144 = score(doc=5448,freq=4.0), product of:
0.1271084 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.057349887 = queryNorm
0.20778441 = fieldWeight in 5448, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.046875 = fieldNorm(doc=5448)
0.25 = coord(1/4)
- Source
- Kompatibilität, Medien und Ethik in der Wissensorganisation - Compatibility, Media and Ethics in Knowledge Organization: Proceedings der 10. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation Wien, 3.-5. Juli 2006 - Proceedings of the 10th Conference of the German Section of the International Society of Knowledge Organization Vienna, 3-5 July 2006. Ed.: H.P. Ohly, S. Netscher u. K. Mitgutsch
- Theme
- Konzeption und Anwendung des Prinzips Thesaurus