-
Andelfinger, U.; Wyssusek, B.; Kremberg, B.; Totzke, R.: Ontologies in knowledge management : panacea or mirage?
0.01
0.008995899 = product of:
0.035983596 = sum of:
0.035983596 = weight(_text_:und in 4393) [ClassicSimilarity], result of:
0.035983596 = score(doc=4393,freq=54.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.3181036 = fieldWeight in 4393, product of:
7.3484693 = tf(freq=54.0), with freq of:
54.0 = termFreq=54.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.01953125 = fieldNorm(doc=4393)
0.25 = coord(1/4)
- Content
- Vgl. auch Mitgliederbrief Ernst-Schröder-Zentrum, Nr.41: "Die aktuelle Entwicklung insbesondere der Internettechnologien führte in den letzten Jahren zu einem Wieder-Erwachen des Interesses von Forschern und Anwendern an (technischen) Ontologien. Typische Visionen in diesem Zusammenhang sind das ,Semantic Web' und das ,Internet der Dinge' (Web 3.0). Technische Ontologien sind formale, zeichenvermittelte symbolische Repräsentationen von lebensweltlichen Zusammenhängen, die notwendigerweise zu einem großen Teil von ihrem Kontextbezug gelöst werden und über die ursprünglichen lebensweltlichen Zusammenhänge hinaus computerverarbeitbar verfügbar werden. Häufig werden dafür XML-basierte Beschreibungssprachen eingesetzt wie z.B. der OWL-Standard. Trotz des großen Interesses sind jedoch umfangreiche und erfolgreiche Beispiele von in größerem Umfang praktisch eingesetzten (technischen) Ontologien eher die Ausnahme. Die zentrale Fragestellung unseres Beitrags ist daher, ob es eventuell grundlegendere (möglicherweise auch außertechnische) Hürden gibt auf dem Weg zu einer Verwirklichung der oft visionären Vorstellungen, wie z.B. zukünftig E-Commerce und E-Business und ,Wissensmanagement' durch technische Ontologien unterstützt werden könnten: Oder ist alles vielleicht ,nur' eine Frage der Zeit, bis wir durch ausreichend leistungsfähige Technologien für solche technischen Ontologien die Versprechungen des ,Internet der Dinge' verwirklichen können?
Als theoretischen Ausgangspunkt wählen wir in unserem Beitrag eine medienphilosophische Perspektive, die von der Fragestellung ausgeht, inwieweit menschliches Wissen, das von Subjekten explizit oder implizit gewusst wird und Sinn und Bedeutungsbezüge hat, bereits dadurch prinzipiell verändert und möglicherweise um Wesentliches reduziert wird, wenn es in technischen Ontologien - notwendigerweise symbolhaft - repräsentiert wird. Zunächst wird dazu in unserem Beitrag historisch die jahrhundertelange Tradition insbesondere der abendländischen Kulturen seit dem Mittelalter nachgezeichnet, derzufolge zunehmend die epistemische Seite von ,Wissen' in den Vordergrund gestellt wurde, die sich besonders gut symbolisch, d.h. zeichenvermittelt darstellen lässt. Demgegenüber sind wissenschaftshistorisch andere Aspekte menschlichen Wissens wie z.B. die soziale Einbettung symbolvermittelten Wissens und Anteile ,impliziten Wissens' zunehmend in den Hintergrund getreten. Auch Fragen nach Sinn und Bedeutung bzw. reflektionsorientiertem Orientierungswissen sind teilweise davon betroffen.
Zweifelsohne hat die wissenschaftshistorisch begründete Bevorzugung epistemischen Wissens in Verbindung mit der symbolischen Repräsentation (z.B. in Büchern und zunehmend auch in digitaler, computerverarbeitbarer Form) wesentlich zur Herausbildung unseres aktuellen materiellen Wohlstands und technologischen Fortschritts in den Industrieländern beigetragen. Vielleicht hat jedoch gerade dieser Siegeszug der epistemischen, symbolhaft repräsentierten Seite menschlichen Wissens auch dazu beigetragen, dass die eher verdeckten Beiträge der begleitenden sozialen Prozesse und impliziten Anteile menschlichen Wissens erst in den allerletzten Jahren wieder zunehmend Aufmerksamkeit erhalten. Nur vor dieser wissenschaftshistorischen Kulisse kann schließlich auch erklärt werden, dass in vielen Organisationen das Schlagwort vom ,Wissens-management' oft verkürzend so verstanden wurde, von (technischen) Wissensrepräsentationssystemen zu erhoffen, dass sie als Technologie bereits unmittelbar zum gegenseitigen Wissensaustausch und Wissenstransfer für die Menschen beitragen würden, was in der Praxis dann jedoch oft nicht so wie erhofft eingetreten ist.
Zusätzlich zu diesen Überlegungen treten sprachphilosophische Grundsatzüberlegungen: Jeder semantische Definitionsversuch einer technischen Ontologie muss durch Verwendung von Metasprachen erfolgen - letztlich kommt man hier wahrscheinlich nicht ohne die Verwendung natürlicher Sprache aus. Sehr schnell wird man also in einen unendlichen Regress verwiesen, wenn man versucht, technische Ontologien 'vollständig' durch weitere technische Ontologien zu beschreiben. Im Fortgang der Argumentation wird dann aufgezeigt, dass eine wesentliche Herausforderung bei technischen Ontologien also darin liegt, angesichts der Vielschichtigkeit menschlichen Wissens die Möglichkeiten (aber auch notwendigen Begrenzungen) symbolvermittelter Wissensrepräsentationen zu verbinden mit Formen der situativen und intersubjektiven Interpretation dieser symbolhaften Repräsentationen in sozialen Prozessen und in natürlicher Sprache. Nur so kann man auch dem Problem des skizzierten 'infiniten Regresses' begegnen, wonach die Bedeutung einer (technischen) Ontologie nie vollständig wieder selbst durch (technische) Ontologien beschrieben werden kann.
In der Finanzwirtschaft mit ihren automatisierten Handelssystemen (auf Basis technischer Ontologien) wird beispielsweise inzwischen bei außergewöhnlichen Kursbewegungen der Börse der automatische Handel unterbrochen, so dass dann auf pragmatisch-natürlichsprachliche Weise nach den Gründen für die Ausschläge gesucht werden kann. Aus Sicht der technischen Ontologien wäre eine solche Unterbrechung des Computerhandels (zur Beruhigung der Märkte) nicht zwingend erforderlich, aber sie ist sehr sinnvoll aus einer außerhalb der technischen Ontologie stehenden Perspektive, die alleine nach Sinn und Bedeutung stabiler Kursverläufe zu fragen imstande ist. Der hier sich abzeichnende ,pragmatic turn' beim Einsatz technischer Ontologien ist auch in vielfältiger Weise in Trends wie z.B. Folksonomies, Sozialen Netzwerken und Open-SourceEntwicklergruppen zu erkennen. Diese Gemeinschaften zeichnen sich dadurch aus, dass sie zwar (technische) Ontologien einsetzen, diese jedoch in intensive soziale Austauschprozesse einbinden, in denen die formalen Wissensrepräsentationen mit situativer Bedeutung und Sinn versehen und angereichert werden. Dieser Trend zu ,weicheren' Formen der Nutzung von (technischen) Ontologien scheint nach aktuellem Wissensstand auf jeden Fall in der Praxis erfolgversprechender als die anfänglichen Hoffnungen des Semantic Web oder vollständiger (technischer) Ontologien - ganz abgesehen vom laufenden Pflegeaufwand 'vollständiger' technischer Ontologien.
In diesem Sinne könnte auch Wissensaustausch und Wissensmanagement in Organisationen auf Basis (technischer) Ontologien eine neue Bedeutung erhalten im Sinne einer gezielten Ermöglichung sozialer Austauschprozesse unter Nutzung formaler Wissensrepräsentationen statt der technologiezentrierten Sichtweise, wonach bereits das Wissensrepräsentationssystem mit Wissensaustausch gleichzusetzen wäre. Letztlich haben die in (formalen) Wissensrepräsentationssystemen dargestellten technischen Ontologien alleine nämlich keine tiefere Bedeutung und auch keinen Sinn. Beides entsteht erst durch eine entsprechende Einbettung und Interpretation dieser Repräsentationen in konkreten lebensweltlichen Zusammenhängen. Und was die Menschen in diesem Interpretations-und Rekontextualisierungsprozess dann aus den zeichenvermittelten technischen Ontologien machen, ist glücklicherweise eine Frage, die sich einer vollständigen Behandlung und Abbildung in technischen Ontologien entzieht."
-
Ricci, F.; Schneider, R.: ¬Die Verwendung von SKOS-Daten zur semantischen Suchfragenerweiterung im Kontext des individualisierbaren Informationsportals RODIN (2010)
0.01
0.0087595675 = product of:
0.03503827 = sum of:
0.03503827 = weight(_text_:und in 4261) [ClassicSimilarity], result of:
0.03503827 = score(doc=4261,freq=20.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.3097467 = fieldWeight in 4261, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.03125 = fieldNorm(doc=4261)
0.25 = coord(1/4)
- Abstract
- RODIN (ROue D'INformation) ist ein Projekt, das einen alternativen Ansatz in der Erstellung von Informationsportalen verfolgt, indem es dem Benutzer ermöglicht, selbständig oder in Zusammenarbeit mit einem Informationsspezialisten heterogene Informationsquellen, die für ihn eine Relevanz besitzen, als Aggregat miteinander zu verbinden. Das System gewährleistet eine simultane Suche in allen Komponenten des Aggregats und ermöglicht die Suchverfeinerung durch Anbindung an bibliografische und enzyklopädische Ontologien.
- Content
- "Im Projekt RODIN (Roue d'information) wird die Realisierung einer alternativen Portalidee im Rahmen der E-lib.ch-Initiative (www.e-lib.ch) angestrebt. Dahinter verbirgt sich die Idee eines personalisierbaren Informationsportals zur Aggregation heterogener Datenquellen unter Verwendung von SemanticWeb-Technologie. Das allgemeine wissenschaftliche Interesse von RODIN besteht darin, zu überprüfen, inwieweit bibliografische Ontologien als Bestandteil des SemanticWeb für die Informationssuche gewinnbringend eingesetzt werden können. Den Benutzern werden hierbei unterschiedliche Funktionalitäten zur Verfügung gestellt. So können sie zunächst aus unterschiedlichen Informationsquellen jene auswählen, die für ihre Recherche von Relevanz sind und diese in Form von Widgets auf der Startseite des Informationsportals zusammenstellen. Konkret handelt es sich hierbei um Informationsquellen, die im Kontext von E-lib.ch bereitgestellt werden (bspw. Swissbib.ch, Rero-Doc) sowie um allgemeine Webressourcen (etwa Delicious oder Google-Books). Anschließend besteht die Möglichkeit, simultan über alle spezifizierten Quellen eine parallele Suche anzustoßen und - nach Beendigung dieser Metasuche - die Ergebnisse zu verfeinern.
Der Ausgangspunkt für die Suchverfeinerung ist ein Ergebnis aus der Treffermenge, für welches ein Ontologie-Mapping durchgeführt wird, d.h. dass ausgehend von den Daten und Metadaten des Suchergebnisses der semantische Kontext für dieses Dokument innerhalb einer Ontologie ermittelt wird. Bei diesen Ontologien handelt es sich um in SKOS-Daten überführte Thesauri und Taxonomien, die aus einem bibliothekswissenschaftlichen Umfeld stammen. Durch Ermittlung des ontologischen Kontexts stehen eine Reihe von Termen in Form von Synonymen, Hypernymen und Hyponymen zur Verfügung, die es dem Benutzer ermöglichen, seine Ergebnismenge gezielt einzuschränken, zu verallgemeinern oder auf ähnliche Begriffe auszuweiten. Nach der Bestimmung des weiteren Suchkontexts wird dann in allen vom Benutzer bereits ausgewählten Widgets eine neue Suche angestoßen und das zur Suchverfeinerung ausgewählte Dokument in seiner semantischen Ausrichtung zu den übrigen Informationsquellen kontextualisiert."
- Series
- Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis ; Bd. 14) (DGI-Konferenz ; 1
- Source
- Semantic web & linked data: Elemente zukünftiger Informationsinfrastrukturen ; 1. DGI-Konferenz ; 62. Jahrestagung der DGI ; Frankfurt am Main, 7. - 9. Oktober 2010 ; Proceedings / Deutsche Gesellschaft für Informationswissenschaft und Informationspraxis. Hrsg.: M. Ockenfeld
-
Beierle, C.; Kern-Isberner, G.: Methoden wissensbasierter Systeme : Grundlagen, Algorithmen, Anwendungen (2008)
0.01
0.0087595675 = product of:
0.03503827 = sum of:
0.03503827 = weight(_text_:und in 4622) [ClassicSimilarity], result of:
0.03503827 = score(doc=4622,freq=20.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.3097467 = fieldWeight in 4622, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.03125 = fieldNorm(doc=4622)
0.25 = coord(1/4)
- Abstract
- Dieses Buch präsentiert ein breites Spektrum aktueller Methoden zur Repräsentation und Verarbeitung (un)sicheren Wissens in maschinellen Systemen in didaktisch aufbereiteter Form. Neben symbolischen Ansätzen des nichtmonotonen Schließens (Default-Logik, hier konstruktiv und leicht verständlich mittels sog. Default-Bäume realisiert) werden auch ausführlich quantitative Methoden wie z.B. probabilistische Markov- und Bayes-Netze vorgestellt. Weitere Abschnitte beschäftigen sich mit Wissensdynamik (Truth Maintenance-Systeme), Aktionen und Planen, maschinellem Lernen, Data Mining und fallbasiertem Schließen.In einem vertieften Querschnitt werden zentrale alternative Ansätze einer logikbasierten Wissensmodellierung ausführlich behandelt. Detailliert beschriebene Algorithmen geben dem Praktiker nützliche Hinweise zur Anwendung der vorgestellten Ansätze an die Hand, während fundiertes Hintergrundwissen ein tieferes Verständnis für die Besonderheiten der einzelnen Methoden vermittelt . Mit einer weitgehend vollständigen Darstellung des Stoffes und zahlreichen, in den Text integrierten Aufgaben ist das Buch für ein Selbststudium konzipiert, eignet sich aber gleichermaßen für eine entsprechende Vorlesung. Im Online-Service zu diesem Buch werden u.a. ausführliche Lösungshinweise zu allen Aufgaben des Buches angeboten.Zahlreiche Beispiele mit medizinischem, biologischem, wirtschaftlichem und technischem Hintergrund illustrieren konkrete Anwendungsszenarien. Von namhaften Professoren empfohlen: State-of-the-Art bietet das Buch zu diesem klassischen Bereich der Informatik. Die wesentlichen Methoden wissensbasierter Systeme werden verständlich und anschaulich dargestellt. Repräsentation und Verarbeitung sicheren und unsicheren Wissens in maschinellen Systemen stehen dabei im Mittelpunkt. In der vierten, verbesserten Auflage wurde die Anzahl der motivierenden Selbsttestaufgaben mit aktuellem Praxisbezug nochmals erweitert. Ein Online-Service mit ausführlichen Musterlösungen erleichtert das Lernen.
-
Moustafid, Y. El: Semantic Web Techniken für E-Learning (2003)
0.01
0.008565808 = product of:
0.03426323 = sum of:
0.03426323 = weight(_text_:und in 585) [ClassicSimilarity], result of:
0.03426323 = score(doc=585,freq=34.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.3028952 = fieldWeight in 585, product of:
5.8309517 = tf(freq=34.0), with freq of:
34.0 = termFreq=34.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0234375 = fieldNorm(doc=585)
0.25 = coord(1/4)
- Abstract
- Die vorliegende Arbeit versucht, das Thema "Topic Maps" von verschiedenen Perspektiven zu betrachten. "Topic Maps" sind geordnete Wissensnetze. Sie stellen ein Hilfsmittel dar, um sich in der immer größer werdenden Informationsvielfalt zurechtzufinden und beim Navigieren trotz einer möglichen Informationsüberflutung die Übersicht zu behalten. Wie ein Stichwortverzeichnis in einem guten Fachbuch, helfen sie, die genau gesuchte Information zu finden. Die Tatsache, dass elektronische Informationen in größerem Umfang als die Seiten eines Buches vorliegen und auf heterogenen Plattformen gespeichert sind, zieht die Konsequenz mit sich, dass Topic Maps nicht nur aus einer Liste alphabetisch sortierter Stichworte bestehen. Vielmehr werden mit Hilfe von Topic Maps logische Konzepte entworfen, die Wissensnetze semantisch modellieren. In Zusammenhang mit Topic Maps spricht Tim Berner-Lee von der dritten Revolution des Internets. Die XTM-Arbeitsgruppe wirbt sogar mit dem Slogan "Das GPS des Web". So wie eine Landkarte eine schematische Sicht auf eine reale Landschaft ermöglicht und bestimmte Merkmale der Landschaft (z.B. Städte, Straßen, Flüsse) markiert, sind Topic Map in der Lage wichtige Merkmale eines Informationsbestandes festzuhalten und in Bezug zueinander zu setzen. So wie ein GPS-Empfänger die eigene Position auf der Karte feststellt, kann eine Topic Map die Orientierung in einer virtuellen Welt vernetzter Dokumente herstellen. Das klingt etwas exotisch, hat jedoch durchaus praktische und sehr weit gefächerte Anwendungen.
In dieser Arbeit wurde zuerst der Übergang von Suchmaschinen zu einem semantischen Web beschrieben. Im zweiten Kapitel wurden die Topic Maps ausführlicher behandelt. Angefangen bei der Geschichte von Topic Maps, über die Entwurfsziele bis hin zu einem XTM-Tutorial . In diesem Tutorial wurden verschiedene Beispiele durchgeführt und die Lineare Topic Map von Ontopia vorgestellt. Abschließend wurde anhand eines Beispiels eine mögliche Realisierung von Topic Maps mit HTML. Das dritte Kapitel wurde den TopicMaps-Tools und Anfragesprachen gewidmet. Es wurden kommerzielle sowie freiverfügbare Tools vorgestellt und miteinander verglichen. Danach wurden die beiden Anfragesprachen Tolog und TMQL eingeführt. Im vierten Kapitel wurden die beiden Einsatzgebiete von Topic Maps behandelt. Das sind zum einen die Webkataloge und die Suchmaschinen. Zum anderen ist es möglich, auch im Rahmen vom E-Learning von dem Konzept der Topic Maps zu profitieren. In diesem Zusammenhang wurde erst der Omnigator von Ontopia vorgestellt. Dann wurde das im Laufe dieser Arbeit entwickelte Topic Maps Tool E-Learning -Tracker ausgeführt und erklärt.
Im fünften Kapitel wurden die neuen Suchmaschinen, die ausschließlich auf dem Konzept der Topic Maps basieren und diese Technik auch tatsächlich verwenden, angesprochen und mit Beispielanfragen erläutert. In dieser Diplomarbeit wurden wegen dem großen Einsatzpotential von Topic Maps, viele Gebiete angesprochen, angefangen bei den Webkatalogen über Suchmaschinen bis hin zum E-Learning. Mit XML Topic Maps gibt man den Beziehungen zwischen den verschiedenen Topics die Chance sich auszuzeichnen. Damit erreicht die Suche eine neue, bis dahin unmögliche Qualität. Mit einer Topic Map lassen sich beispielsweise die klassischen Navigationselemente technischer Dokumentation (Inhalt, Index, Glossar etc.) in einheitlicher Weise beschreiben; eine andere Topic Map könnte die inhaltliche Vernetzung von Artikeln in einem Lexikon ausdrücken (z.B. Person A wurde geboren in Stadt B, B liegt in Land C, Oper D wurde komponiert von A, Person E war Zeitgenosse von A) und für "siehe auch"-Verweise sorgen (andere Werke dieses Komponisten, andere Städte in diesem Land etc.). Es klingt wie die Lösung aller Suchprobleme. Allerdings nur in der Theorie. Denn Tools, die in der Lage sind, das Wissen oder die Riesendaten in Topicmaps automatisch zu generieren, sind noch Mangelware, was die Ausbreitung von Topic Maps hemmt. Der Aufbau solcher Netze erfordert sehr viel Zeit und sehr viel "Handarbeit" - und damit auch viel Geld, was viele Firmen davon abhält Topic Maps zu benutzen.
Trotz alledem bleibt diese Technik keine graue Theorie. Denn obwohl es spürbare Schwierigkeiten auf dem Weg zur Popularität gibt, wird sie eines Tages das Web beherrschen. Microsoft hat sogar versucht, einige Leute und Entwickler von Topic Maps abzuwerben, was ihr missglückt ist. Dies ist als ein Hinweis zu verstehen, dass diese Technik Interesse bei einigen Herrschern in der Informatikindustrie.
-
Öttl, S.; Streiff, D.; Stettler, N.; Studer, M.: Aufbau einer Testumgebung zur Ermittlung signifikanter Parameter bei der Ontologieabfrage (2010)
0.01
0.008481415 = product of:
0.03392566 = sum of:
0.03392566 = weight(_text_:und in 4257) [ClassicSimilarity], result of:
0.03392566 = score(doc=4257,freq=12.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.29991096 = fieldWeight in 4257, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0390625 = fieldNorm(doc=4257)
0.25 = coord(1/4)
- Abstract
- Der Einsatz von semantischen Technologien ist mittlerweile ein etabliertes Mittel zur Optimierung von Information-Retrieval-Systemen. Obwohl der Einsatz von Ontologien für verschiedene Anwendungsbereiche wie beispielsweise zur Query-Expansion (Bhogal et al. 2007), zur Strukturierung von Benutzeroberflächen bzw. zur Dialoggestaltung (z. B. Garcia & Sicilia 2003; Liu et al. 2005; Lopez et al. 2006; Paulheim 2009; Paulheim & Probst 2010), in Recommendersystemen (z. B. Taehee et al. 2006; Cantador et al. 2008; Middleton et al. 2001; Middleton et al. 2009) usw. rege erforscht wird, gibt es noch kaum Bestrebungen, die einzelnen Abfragemethodiken für Ontologien systematisch zu untersuchen. Bei der Abfrage von Ontologien geht es in erster Linie darum, Zusammenhänge zwischen Begriffen zu ermitteln, indem hierarchische (Classes und Individuals), semantische (Object Properties) und ergänzende (Datatype Properties) Beziehungen abgefragt oder logische Verknüpfungen abgeleitet werden. Hierbei werden sogenannte Reasoner für die Ableitungen und als Abfragesprache SPARQL (seltener auch XPath) eingesetzt. Ein weiterer, weniger oft eingesetzter, vielversprechender Ansatz findet sich bei Hoser et al. (2006) und Weng & Chang (2008), die Techniken der Sozialen Netzwerkanalyse zur Auswertung von Ontologien miteinsetzen (Semantic Network Analysis). Um die Abfrage von Ontologien sowie Kombinationen der unterschiedlichen Abfragemöglichkeiten systematisch untersuchen zu können, wurde am SII eine entsprechende Testumgebung entwickelt, die in diesem Beitrag genauer vorgestellt werden soll.
- Series
- Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis ; Bd. 14) (DGI-Konferenz ; 1
- Source
- Semantic web & linked data: Elemente zukünftiger Informationsinfrastrukturen ; 1. DGI-Konferenz ; 62. Jahrestagung der DGI ; Frankfurt am Main, 7. - 9. Oktober 2010 ; Proceedings / Deutsche Gesellschaft für Informationswissenschaft und Informationspraxis. Hrsg.: M. Ockenfeld
-
Harbig, D.; Schneider, R.: Ontology Learning im Rahmen von MyShelf (2006)
0.01
0.008396172 = product of:
0.033584688 = sum of:
0.033584688 = weight(_text_:und in 5781) [ClassicSimilarity], result of:
0.033584688 = score(doc=5781,freq=6.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.2968967 = fieldWeight in 5781, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0546875 = fieldNorm(doc=5781)
0.25 = coord(1/4)
- Source
- Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
-
Kienreich, W.; Strohmaier, M.: Wissensmodellierung - Basis für die Anwendung semantischer Technologien (2006)
0.01
0.008396172 = product of:
0.033584688 = sum of:
0.033584688 = weight(_text_:und in 5804) [ClassicSimilarity], result of:
0.033584688 = score(doc=5804,freq=6.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.2968967 = fieldWeight in 5804, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0546875 = fieldNorm(doc=5804)
0.25 = coord(1/4)
- Abstract
- Der Transfer und die Nutzung von Wissen stellen ein zentrales Thema hei der Anwendung semantischer Technologien dar. In diesem Zusammenhang befasst sich das Gebiet der Wissensmodellierung mit der Explizierung von Wissen in formale, sowohl von Menschen als auch von Maschinen interpretierbare, Form. Ziel dieses Beitrags ist es aufzuzeigen. wie Methoden der Wissensmodellierung die Grundlage für die Gestaltung von Anwendungen auf Basis semantischer Technologien bilden. Der Beitrag liefert eine Definition eines Wissensbegriffs, erklärt eine Reihe von Formen der abstrakten Wissensrepräsentation und führt ein Kategorisierungsschema für aktuelle Ansätze zur Modellierung ein. Anschließend wird ein Überblick über agenten- und prozessorientierte Modellierungsansätze gegeben. die sowohl auf die Abbildung der realen Welt als auch auf die Abbildung von Software eingehen.
-
Voß, J.: Vom Social Tagging zum Semantic Tagging (2008)
0.01
0.008396172 = product of:
0.033584688 = sum of:
0.033584688 = weight(_text_:und in 2884) [ClassicSimilarity], result of:
0.033584688 = score(doc=2884,freq=6.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.2968967 = fieldWeight in 2884, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0546875 = fieldNorm(doc=2884)
0.25 = coord(1/4)
- Abstract
- Social Tagging als freie Verschlagwortung durch Nutzer im Web wird immer häufiger mit der Idee des Semantic Web in Zusammenhang gebracht. Wie beide Konzepte in der Praxis konkret zusammenkommen sollen, bleibt jedoch meist unklar. Dieser Artikel soll hier Aufklärung leisten, indem die Kombination von Social Tagging und Semantic Web in Form von Semantic Tagging mit dem Simple Knowledge Organisation System dargestellt und auf die konkreten Möglichkeiten, Vorteile und offenen Fragen der Semantischen Indexierung eingegangen wird.
-
Dröge, E.: Leitfaden für das Verbinden von Ontologien (2010)
0.01
0.008396172 = product of:
0.033584688 = sum of:
0.033584688 = weight(_text_:und in 3507) [ClassicSimilarity], result of:
0.033584688 = score(doc=3507,freq=6.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.2968967 = fieldWeight in 3507, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0546875 = fieldNorm(doc=3507)
0.25 = coord(1/4)
- Abstract
- In Tim Berners Lees Vorstellung von einem Semantic Web wird das zur Zeit existierende Web um maschinenlesbare Metadaten, die in Form von Ontologien repräsentiert werden, erweitert und so mit semantischen Zusätzen versehen. Wie auch das WWW ist das Semantic Web dezentral aufgebaut, also werden Ontologien von unterschiedlichen Gruppen von Menschen zu den unterschiedlichsten Themengebieten erstellt. Um daraus ein Netz aus Informationen zu schaffen, müssen diese miteinander verbunden werden. Das geschieht über semantische oder syntaktische Matchingverfahren, denen ein Merging oder ein Mapping der Ontologien folgt. In dieser Arbeit wird genauer auf die einzelnen Methoden und die Zukunft des Semantic Webs eingegangen.
- Source
- Information - Wissenschaft und Praxis. 61(2010) H.2, S.143-147
-
Smolnik, S.; Nastansky, L.: K-Discovery : Identifikation von verteilten Wissensstrukturen in einer prozessorientierten Groupware-Umgebung (2004)
0.01
0.008310055 = product of:
0.03324022 = sum of:
0.03324022 = weight(_text_:und in 620) [ClassicSimilarity], result of:
0.03324022 = score(doc=620,freq=8.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.29385152 = fieldWeight in 620, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.046875 = fieldNorm(doc=620)
0.25 = coord(1/4)
- Abstract
- Verschiedene Szenarien in Groupware-basierten Umgebungen verdeutlichen die Probleme, Wissensstrukturen im Allgemeinen und organisationale Wissensstrukturen im Speziellen zu identifizieren. Durch den Einsatz von Topic Maps, definiert im ISOStandard "ISO/IEC 13250 Topic Maps", in Groupware-basierten organisationalen Wissensbasen wird es möglich, die Lücke zwischen Wissen und Information zu schließen. In diesem Beitrag werden die Ziele des Forschungsprojektes K-Discovery - der Einsatz von Topic Maps in Groupware-basierten Umgebungen - vorgestellt. Aufbauend auf diesen Zielen wird ein Architekturmodell sowie zwei Implementationsansätze präsentiert, in dem durch den Einsatz von Topic Maps in einer prozessorientierten GroupwareUmgebung Wissensstrukturen generiert werden. Der Beitrag schließt mit einigen abschließenden Ausführungen.
- Source
- Wissensorganisation und Edutainment: Wissen im Spannungsfeld von Gesellschaft, Gestaltung und Industrie. Proceedings der 7. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Berlin, 21.-23.3.2001. Hrsg.: C. Lehner, H.P. Ohly u. G. Rahmstorf
-
Dirsch-Weigand, A.; Schmidt, I.: ConWeaver : Automatisierte Wissensnetze für die semantische Suche (2006)
0.01
0.008310055 = product of:
0.03324022 = sum of:
0.03324022 = weight(_text_:und in 6026) [ClassicSimilarity], result of:
0.03324022 = score(doc=6026,freq=8.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.29385152 = fieldWeight in 6026, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.046875 = fieldNorm(doc=6026)
0.25 = coord(1/4)
- Abstract
- Google ist zum Inbegriff einer Suchmaschine geworden. Doch ist in Fachkreisen klar, dass Volltexsuchtmaschinen wie Google auch deutliche Schwächen aufweisen und deshalb für die effiziente Suche in Fachportalen, Intranets und Enterprise-Content-Management-Systemen oft nicht ausreichen. Weil Volltextsuchmaschinen nur mit dem genauen Wortlaut suchen, finden sie einerseits Informationen nicht, die zwar dem Inhalt, nicht aber den genauen Formulierungen der Suchanfrage entsprechen. Bezeichnungsalternativen, sprachlichen Varianten sowie fremdsprachliche Benennungen werden nicht als bedeutungsgleich erkannt. Andererseits entstehen unpräzise Suchergebnisse, weil gleich lautende Bezeichnungen unterschiedlicher Bedeutung nicht unterschieden werden. Diese Probleme geht die semantische Suchmaschine ConWeaver an, die das Fraunhofer Institut Integrierte Informations- und Publikationssysteme (Fraunhofer IPSI) in Darmstadt entwickelt hat. An Stelle eines Volltextindexes setzt sie ein Wissensnetz als Suchindex ein. Im Unterschied zu den meisten anderen ontologiebasierten Softwareprodukten baut die Software ConWeaver dieses Wissensnetz automatisiert auf.
- Source
- Information - Wissenschaft und Praxis. 57(2006) H.6/7, S.367-371
-
Voß, J.: ¬Das Simple Knowledge Organisation System (SKOS) als Kodierungs- und Austauschformat der DDC für Anwendungen im Semantischen Web (2007)
0.01
0.008310055 = product of:
0.03324022 = sum of:
0.03324022 = weight(_text_:und in 243) [ClassicSimilarity], result of:
0.03324022 = score(doc=243,freq=2.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.29385152 = fieldWeight in 243, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.09375 = fieldNorm(doc=243)
0.25 = coord(1/4)
-
Bierbach, P.: Wissensrepräsentation - Gegenstände und Begriffe : Bedingungen des Antinomieproblems bei Frege und Chancen des Begriffssystems bei Lambert (2001)
0.01
0.008310055 = product of:
0.03324022 = sum of:
0.03324022 = weight(_text_:und in 4498) [ClassicSimilarity], result of:
0.03324022 = score(doc=4498,freq=18.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.29385152 = fieldWeight in 4498, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.03125 = fieldNorm(doc=4498)
0.25 = coord(1/4)
- Abstract
- Die auf Basis vernetzter Computer realisierbare Möglichkeit einer universalen Enzyklopädie führt aufgrund der dabei technisch notwendigen Reduktion auf nur eine Sorte Repräsentanten zu Systemen, bei denen entweder nur Gegenstände repräsentiert werden, die auch Begriffe vertreten, oder nur Begriffe, die auch Gegenstände vertreten. In der Dissertation werden als Beispiele solcher Repräsentationssysteme die logischen Systeme von Gottlob Frege und Johann Heinrich Lambert untersucht. Freges System, basierend auf der Annahme der Objektivität von Bedeutungen, war durch die Nachweisbarkeit einer Antinomie gescheitert, weshalb von Philosophen im 20. Jahrhundert die Existenz einer objektiven Bedeutung von Ausdrücken und die Übersetzbarkeit der Gedanken aus den natürlichen Sprachen in eine formale Sprache in Frage gestellt wurde. In der Dissertation wird nachgewiesen, daß diese Konsequenz voreilig war und daß die Antinomie auch bei Annahme der Objektivität von Wissen erst durch zwei Zusatzforderungen in Freges Logik ausgelöst wird: die eineindeutige Zuordnung eines Gegenstands zu jedem Begriff sowie die scharfen Begrenzung der Begriffe, die zur Abgeschlossenheit des Systems zwingt. Als Alternative wird das Begriffssystem Lamberts diskutiert, bei dem jeder Gegenstand durch einen Begriff und gleichwertig durch Gesamtheiten von Begriffen vertreten wird und Begriffe durch Gesamtheiten von Begriffen ersetzbar sind. Beide die Antinomie auslösenden Bedingungen sind hier nicht vorhanden, zugleich ist die fortschreitende Entwicklung von Wissen repräsentierbar. Durch die mengentheoretische Rekonstruktion des Begriffssystems Lamberts in der Dissertation wird dessen praktische Nutzbarkeit gezeigt. Resultat der Dissertation ist der Nachweis, daß es Repräsentationssysteme gibt, die nicht auf die für die Prüfung der Verbindlichkeit der Einträge in die Enzyklopädie notwendige Annahme der Verobjektivierbarkeit von Wissen verzichten müssen, weil ihnen nicht jene die Antinomie auslösenden Voraussetzungen zugrunde liegen.
- Imprint
- Halle-Wittenberg : Fachbereich Geschichte, Philosophie und Sozialwissenschaften, Fachbereich Geschichte, Philosophie und Sozialwissenschaften
-
Weller, K.: Knowledge representation in the Social Semantic Web (2010)
0.01
0.008038723 = product of:
0.03215489 = sum of:
0.03215489 = weight(_text_:und in 4515) [ClassicSimilarity], result of:
0.03215489 = score(doc=4515,freq=22.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.28425696 = fieldWeight in 4515, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.02734375 = fieldNorm(doc=4515)
0.25 = coord(1/4)
- Footnote
- Rez. in: iwp 62(2011) H.4, S.205-206 (C. Carstens): "Welche Arten der Wissensrepräsentation existieren im Web, wie ausgeprägt sind semantische Strukturen in diesem Kontext, und wie können soziale Aktivitäten im Sinne des Web 2.0 zur Strukturierung von Wissen im Web beitragen? Diesen Fragen widmet sich Wellers Buch mit dem Titel Knowledge Representation in the Social Semantic Web. Der Begriff Social Semantic Web spielt einerseits auf die semantische Strukturierung von Daten im Sinne des Semantic Web an und deutet andererseits auf die zunehmend kollaborative Inhaltserstellung im Social Web hin. Weller greift die Entwicklungen in diesen beiden Bereichen auf und beleuchtet die Möglichkeiten und Herausforderungen, die aus der Kombination der Aktivitäten im Semantic Web und im Social Web entstehen. Der Fokus des Buches liegt dabei primär auf den konzeptuellen Herausforderungen, die sich in diesem Kontext ergeben. So strebt die originäre Vision des Semantic Web die Annotation aller Webinhalte mit ausdrucksstarken, hochformalisierten Ontologien an. Im Social Web hingegen werden große Mengen an Daten von Nutzern erstellt, die häufig mithilfe von unkontrollierten Tags in Folksonomies annotiert werden. Weller sieht in derartigen kollaborativ erstellten Inhalten und Annotationen großes Potenzial für die semantische Indexierung, eine wichtige Voraussetzung für das Retrieval im Web. Das Hauptinteresse des Buches besteht daher darin, eine Brücke zwischen den Wissensrepräsentations-Methoden im Social Web und im Semantic Web zu schlagen. Um dieser Fragestellung nachzugehen, gliedert sich das Buch in drei Teile. . . .
Insgesamt besticht das Buch insbesondere durch seine breite Sichtweise, die Aktualität und die Fülle an Referenzen. Es ist somit sowohl als Überblickswerk geeignet, das umfassend über aktuelle Entwicklungen und Trends der Wissensrepräsentation im Semantic und Social Web informiert, als auch als Lektüre für Experten, für die es vor allem als kontextualisierte und sehr aktuelle Sammlung von Referenzen eine wertvolle Ressource darstellt." Weitere Rez. in: Journal of Documentation. 67(2011), no.5, S.896-899 (P. Rafferty)
-
Hanke, P.; Mandl, T.; Womser-Hacker, C.: ¬Ein "Virtuelles Bibliotheksregal" für die Informationswissenschaft als Anwendungsfall semantischer Heterogenität (2002)
0.01
0.007834795 = product of:
0.03133918 = sum of:
0.03133918 = weight(_text_:und in 4858) [ClassicSimilarity], result of:
0.03133918 = score(doc=4858,freq=4.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.27704588 = fieldWeight in 4858, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0625 = fieldNorm(doc=4858)
0.25 = coord(1/4)
- Source
- Information und Mobilität: Optimierung und Vermeidung von Mobilität durch Information. Proceedings des 8. Internationalen Symposiums für Informationswissenschaft (ISI 2002), 7.-10.10.2002, Regensburg. Hrsg.: Rainer Hammwöhner, Christian Wolff, Christa Womser-Hacker
-
Panyr, J.: Thesauri, Semantische Netze, Frames, Topic Maps, Taxonomien, Ontologien - begriffliche Verwirrung oder konzeptionelle Vielfalt? (2006)
0.01
0.007834795 = product of:
0.03133918 = sum of:
0.03133918 = weight(_text_:und in 6058) [ClassicSimilarity], result of:
0.03133918 = score(doc=6058,freq=16.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.27704588 = fieldWeight in 6058, product of:
4.0 = tf(freq=16.0), with freq of:
16.0 = termFreq=16.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.03125 = fieldNorm(doc=6058)
0.25 = coord(1/4)
- Abstract
- Mit der Verbreitung des Internets und insbesondere mit der Einführung des Begriffes Semantic Web wurde eine Reihe von neuen Begriffen (Termini) für nicht immer neue Entwicklungen eingeführt, ohne dass die bisherige Begriffsbildung bzw. die schon angewandten Lösungen in benachbarten Fachgebieten hinreichend berücksichtigt wurden. Dabei wird manchmal der Eindruck erweckt, dass die populären Anwendungszweige der Informatik (oder auch der Informationswissenschaft) hauptsächlich durch wirksame Schlagworte gesteuert werden. Im deutschsprachigen Raum kommt auch noch die oftmals (vermeintlich) werbewirksame Verwendung der nicht übersetzten englischen Ausdrücke im Original oder als eingedeutschter Termini. Letzteres führt dabei nicht selten zur semantischen Verschiebungen der Bedeutung der ursprünglichen Begriffe. So z.B. wird das englische Wort concept (entspricht dem deutschen Wort Begriff) mit allen seinen Ableitungen (wie z.B. conceptualization - Verbegrifflichung, conceptual - begrifflich) in der eingedeutschten unübersetzten Form fälschlich verwendet, ohne dass diese Wortschöpfungen dabei näher erläutert werden. Es wird dadurch der Eindruck erweckt, dass etwas inhaltlich Neues eingeführt wird. Häufig werden diese Begriffe auch nebeneinander verwendet, wie z.B. in der Definition von Ontologie in der Internet-Enzyklopädie Wikipedia " ... System von Begriffen und/oder Konzepten und Relationen zwischen diesen Begriffen". In den zahlreichen Studien über die Ontologie wird auf die Möglichkeit ähnlicher Verwendung von Thesauri nicht eingegangen, sie existieren im Kontext der Veröffentlichung überhaupt nicht (vgl. z.B. die Studie von Smith (2003), die jedoch mit Bezug zu Philosophie gerade zu überfrachtet wird). In der folgenden Arbeit werden verwandte Repräsentationsarten, wie z.B. Thesaurus, semantisches Netz, Frames, Themenkarten (Topic Maps) und Ontologie definiert. Die Gemeinsamkeiten dieser Repräsentationsformen werden dabei im Vordergrund stehen. Die in der Literatur häufig betonten Unterschiede sind manchmal aus der Unkenntnis der theoretischen Basis dieser Ansätze abzuleiten. Eine Koexistenz jeweiliger Repräsentation ist vonnöten. Im Vordergrund des Aufsatzes steht die mögliche Wechselwirkung zwischen Ontologien und Thesauri.
- Source
- Information und Sprache: Beiträge zu Informationswissenschaft, Computerlinguistik, Bibliothekswesen und verwandten Fächern. Festschrift für Harald H. Zimmermann. Herausgegeben von Ilse Harms, Heinz-Dirk Luckhardt und Hans W. Giessen
-
Mainz, I.; Weller, K.; Paulsen, I.; Mainz, D.; Kohl, J.; Haeseler, A. von: Ontoverse : collaborative ontology engineering for the life sciences (2008)
0.01
0.007834795 = product of:
0.03133918 = sum of:
0.03133918 = weight(_text_:und in 1594) [ClassicSimilarity], result of:
0.03133918 = score(doc=1594,freq=4.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.27704588 = fieldWeight in 1594, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0625 = fieldNorm(doc=1594)
0.25 = coord(1/4)
- Abstract
- Ontologien werden als eine neue Methode zur detaillierten und formalisierten Wissensrepräsentation vorgestellt, dabei liegt der Schwerpunkt auf dem Einsatz von Ontologien in den Lebenswissenschaften. Wir zeigen, dass für ausgereifte wissenschaftliche Ontologien Ansätze zur gemeinschaftlichen Erarbeitung notwendig sind. Das Ontoverse Ontologie-Wiki wird vorgestellt; es ist ein Hilfsmittel, das alle Phasen des gemeinschaftlichen Ontologieaufbaus unterstützt.
- Source
- Information - Wissenschaft und Praxis. 59(2008) H.2, S.91-99
-
Wachsmann, L.: Entwurf und Implementierung eines Modells zur Visualisierung von OWL-Properties als Protégé-PlugIn mit Layoutalgorithmen aus Graphviz (2008)
0.01
0.007834795 = product of:
0.03133918 = sum of:
0.03133918 = weight(_text_:und in 4173) [ClassicSimilarity], result of:
0.03133918 = score(doc=4173,freq=4.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.27704588 = fieldWeight in 4173, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0625 = fieldNorm(doc=4173)
0.25 = coord(1/4)
- Abstract
- Diese Diplomarbeit beschäftigt sich mit der Erstellung eines PlugIns für den Ontologie-Editor Protégé. Das PlugIn visualisiert Objekt-Properties als Verknüpfungen zwischen zwei OWL-Klassen. Als Ausgangspunkt für die Entwicklung dient das PlugIn OWLViz, das Vererbungshierarchien von OWL-Klassen als Graphen darstellt. Die Platzierung der Knoten und Kanten des Graphen wird von Algorithmen der Programmbibliothek Graphviz vorgenommen.
-
Schubert, C.; Kinkeldey, C.; Reich, H.: Handbuch Datenbankanwendung zur Wissensrepräsentation im Verbundprojekt DeCOVER (2006)
0.01
0.007834795 = product of:
0.03133918 = sum of:
0.03133918 = weight(_text_:und in 4256) [ClassicSimilarity], result of:
0.03133918 = score(doc=4256,freq=4.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.27704588 = fieldWeight in 4256, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0625 = fieldNorm(doc=4256)
0.25 = coord(1/4)
- Abstract
- Die Datenbank basierte Objektartenbeschreibung dient zur eigenschaftsbasierten Aufnahme aller Objektarten der Kataloge BNTK, CLC; GMES M 2.1, ATKIS und des DeCOVER Vorschlags. Das Ziel der Datenbankanwendung besteht in der 'manuellen' Beziehungsauswertung und Darstellung der gesamten Objektarten bezogen auf die erstellte Wissensrepräsentation. Anhand einer hierarchisch strukturierten Wissensrepräsentation lassen sich mit Ontologien Überführungen von Objektarten verwirklichen, die im Sinne der semantischen Interoperabilität als Zielstellung in dem Verbundprojekt DeCOVER besteht.
-
Haas, M.: Methoden der künstlichen Intelligenz in betriebswirtschaftlichen Anwendungen (2006)
0.01
0.007834795 = product of:
0.03133918 = sum of:
0.03133918 = weight(_text_:und in 4499) [ClassicSimilarity], result of:
0.03133918 = score(doc=4499,freq=4.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.27704588 = fieldWeight in 4499, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0625 = fieldNorm(doc=4499)
0.25 = coord(1/4)
- Abstract
- Mit dieser Diplomarbeit soll vor allem ein Überblick über den derzeitigen Stand der Technik der Methoden der Semantischen Netze, der Fuzzy-Logik sowie der regelbasierten Wissensrepräsentation und -verarbeitung gegeben werden. Anhand praktischer Anwendungen wird dargestellt, in welchen Bereichen diese Techniken eingesetzt werden und welcher Nutzen sich hieraus ergibt.