-
Wettler, M.; Rapp, R.; Ferber, R.: Freie Assoziationen und Kontiguitäten von Wörtern in Texten (1993)
0.01
0.012450332 = product of:
0.049801327 = sum of:
0.049801327 = weight(_text_:und in 2140) [ClassicSimilarity], result of:
0.049801327 = score(doc=2140,freq=2.0), product of:
0.1271084 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.057349887 = queryNorm
0.39180204 = fieldWeight in 2140, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.125 = fieldNorm(doc=2140)
0.25 = coord(1/4)
-
Ferber, R.: Information Retrieval : Data Mining-Verfahren für Textsammlungen und das Web (2003)
0.01
0.011672186 = product of:
0.046688743 = sum of:
0.046688743 = weight(_text_:und in 1848) [ClassicSimilarity], result of:
0.046688743 = score(doc=1848,freq=72.0), product of:
0.1271084 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.057349887 = queryNorm
0.3673144 = fieldWeight in 1848, product of:
8.485281 = tf(freq=72.0), with freq of:
72.0 = termFreq=72.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.01953125 = fieldNorm(doc=1848)
0.25 = coord(1/4)
- Abstract
- Die inhaltliche Suche nach Textdokumenten - das Information Retrieval -spielte sich bis vor einigen Jahren vornehmlich in Bibliotheken und Archiven ab. Durch das WWW sind zunehmend auch Privatpersonen und Firmen mit dieser Aufgabe konfrontiert. Dieses Buch vermittelt die grundlegenden Modelle und Methoden des Information Retrieval, beschreibt an Beispielen aktuelle Entwicklungen - insbesondere im Bereich der Websuche - und' stellt sie in einen theoretischen Zusammenhang. Einführend werden klassische Ansätze wie hierarchische Klassifikationen, boolesche Suche, das Vektorraummodell und Bewertungsmethoden für Suchverfahren erläutert. Es folgt eine Einführung in Methoden des Data Mining, die zur Unterstützung der Suche dienen können. Anschließend werden unterschiedliche Retrieval-Modelle und konkrete Systeme vorgestellt. In einem eigenen Schwerpunkt widmet sich das Buch dem WWW und behandelt aus der Perspektive des Information Retrieval die Web-Auszeichnungssprachen XML und HTML, Metadatensysteme wie Dublin Core sowie die Beschreibungssprache RDF. Schließlich werden die Rahmenbedingungen der Web-Suche und verschiedene Verfahren wie der PageRank-Algorithmus von Google und die ODP-Klassifikation beschrieben. Das Buch richtet sich an Studierende und Praktiker, die sich die Grundlagen des modernen Information Retrieval aneignen wollen.
- Footnote
- Rez. in nfd - Information 54(2003) H.6, S.380-381 (M. Hauer): "Wer unter Amazon.de nach aktueller Fachliteratur zum Thema Information Retrieval sucht, kommt mit gutem Grund auf Reginald Ferber. Er kommt von der mathematischen Modellierung zum Information Retrieval und hat im Rahmen seiner Forschung und Lehre das Feld breit ausgeleuchtet. Sein Buch bezeichnet sich als Einführungswerk für Informatiker, Informationswissenschaftler, Bibliothekare, Dokumentare und Studierende. Gewiss, es ist ein Einführungswerk, weil es darum bemüht ist, das Feld komplett auszuleuchten. Vergleicht man dieses gegen die rund 38o Titel zum Feld Information Retrieval aus dem Springer Verlag dem großen Nachbarn in Heidelberg, so trifft diese Einschätzung zu, denn dort werden primär einzelne Ansätze beleuchtet. Sehr systematisch erarbeitet Ferber die grundlegenden Modelle und Methoden des Information Retrieval, Data Mining und deren Umfeld. Dennoch ist es in weiten Teilen ohne einige Semester Mathematik und ohne gute Informatik-Grundlagen nicht verständlich. Ferber überzeugt schon im ersten von vier Kapiteln über "Grundlagen und klassische IR-Methoden" mit einer guten Kenntnis der Retrieval-Praxis und Problematik. Einführend grenzt er Fakten- und Information Retrieval, Hypertext, Expertensysteme, Management-Informationssysteme, Data Mining, Kategorisierung, assoziative Regeln und Wissensgewinnung ab. Im Kapitel Grundlagen definiert er Information Retrieval letztlich in Übereinstimmung mit der Gesellschaft für Informatik, die eine Fachgruppe dazu unterhält. Vagheit, Unschärfe und Unsicherheit prägen letztlich die Aufgabe des Information Retrieval als eine Gruppe von Verfahren mit dem Ziel des Austauschs von Wissen zwischen Menschen. Im Dialog zwischen Informatik und Kognitionswissenschaften sieht er noch viele offene Fragen. Einfach gesagt: Wenn jemand bei Google ein Suchwort eintippt, woher soll der Rechner dann wissen, welche Antwort für diesen Menschen in dieser Situation gerade die beste ist? Auf rund 70 Seiten erarbeitet er alle wesentlichen Retrieval-Ansätze bis zum Vektorraum-Modell und TREC, dem jährlichen wissenschaftlichen Wettkampf der Systeme. Es geht um boolesche Techniken und ihre Schwächen, um Klassifikationsund Thesauruskonzepte, linguistische Verfahren, Gewichtungsverfahren, Relevance Feedback, Vektorraum und die Messverfahren für Retrievalqualität. Auf den nächsten 70 Seiten führt er die Grundlagen der statistischen Verfahren ein, die heute als Data-Mining oder TextMining bezeichnet werden. Hier geht es um maschinelles Lernen, Kategorisierung, Clustering und assoziative Regeln. Spätestens hier wird der gewöhnliche Dokumentar oder Bibliothekar stöhnen was nicht gegen das Buch spricht, nur gegen deren traditionelle Ausbildung. Deutlich wird dabei, dass mit mathematischen Verfahren die klassischen Verfahren im Ergebnis erreicht werden sollen: Kategorisierung (wenige Hauptschlagworte), Clustering (Klassen) oder eben thesaurusähnliche Termpaarbildungen. Das Ziel ist weitgehend gleich doch die Zielerreichung grundlegend verschieden. Genau diese mathematischen Verfahren werden im dritten Kapitel weiter vertieft. Insbesondere die korpusbasierten Verfahren sind hier wichtig, wie kann man in einer ganzen großen Menge sinnvolle Termpaare oder gar Termnetze finden, also Kookurrenzen, Begriffe, die signifikant häufig gemeinsam vorkommen. Solche Verfahren sind auch im multilingualen Retrieval interessant, um automatisch sinnvolle Übersetzungen zu finden, indem Texte, die in mehreren Sprachen vorliegen jeweils auf Paare untersucht werden. Solche Netze können teils mit Lehrer trainiert, nachträglich korrigiert oder ohne Aufsicht entstehen. Ferber zeigt sachlich neutral die Verfahren auf, eine klare Entscheidung des Autors für das eine oder andere Verfahren ist nicht zu erkennen. Diese Position ist durch die TRECErgebnisse begründet, denn bislang konnte sich noch keines der Verfahren weit vom Durchschnitt entfernen. Und stets hängt die Eignung auch stark am Textkorpus und Einsatzzweck.
Das vierte Kapitel widmet sich Information Retrieval aus der Perspektive des Internets. Bei aller raffinierten Retrieval Technik mit Linguistik oder Statistik spielt Faktenretrieval aufgrund von strukturierten Dokumenten unverändert und eher zunehmend eine Rolle. Er führt zunächst in SGML und XML ein, Sprachen zur Markierung von Dokumentinhalten. Anwendungen davon sind Metadaten-Ansätze wie Dublin Core oder RDF. Aufgrund seiner langen Erfahrung zweifelt er aber an der flächendeckenden Durchsetzung solcher Strukturierungsansätze, was deren Nutzen aber prinzipiell nicht schmälert. Ein Unterkapitel Topic Maps wäre noch sinnvoll gewesen. Dieses Kapitel ist sinnvoll, um ein besseres Verständnis all der herumschwirrenden Namen und Ansätze zu erhalten, die alle wieder einmal an alten Problemen arbeiten. Denkbar wäre noch ein Kapitel zum Bild-, Musik- oder Video-Retrieval (also Objekte ohne Text) gewesen, doch mit über 300 Seiten ist das Buch schon dick genug. Das Buch erfüllt für die Zielgruppen das Ziel der Einführung gut und vermittelt ein umfassendes Verständnis - doch angesichts von so viel Mathematik bleibt ein klarer Rest von Vagheit, Unschärfe und Unsicherheit wohl bei den meisten Lesern. Nur wer selbst solche Systeme baut, wird die Algorithmen implementieren und auf seine Weise diskutieren können.
-
Ferber, R.: Vorhersage der Suchwortwahl von professionellen Rechercheuren in Literaturdatenbanken durch assoziative Netze (1992)
0.01
0.009337749 = product of:
0.037350997 = sum of:
0.037350997 = weight(_text_:und in 8833) [ClassicSimilarity], result of:
0.037350997 = score(doc=8833,freq=2.0), product of:
0.1271084 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.057349887 = queryNorm
0.29385152 = fieldWeight in 8833, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.09375 = fieldNorm(doc=8833)
0.25 = coord(1/4)
- Source
- Mensch und Maschine: Informationelle Schnittstellen der Kommunikation. Proc. des 3. Int. Symposiums für Informationswissenschaft (ISI'92), 5.-7.11.1992 in Saarbrücken. Hrsg.: H.H. Zimmermann, H.-D. Luckhardt u. A. Schulz
-
Ferber, R.: Dokumentsuche und Dokumenterschließung (1999)
0.01
0.009337749 = product of:
0.037350997 = sum of:
0.037350997 = weight(_text_:und in 4145) [ClassicSimilarity], result of:
0.037350997 = score(doc=4145,freq=2.0), product of:
0.1271084 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.057349887 = queryNorm
0.29385152 = fieldWeight in 4145, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.09375 = fieldNorm(doc=4145)
0.25 = coord(1/4)
-
Koschinsky, G.; Ferber, R.: Kommunikationswege beim E-Learning : eine empirische Untersuchung an der Hochschule Darmstadt (2007)
0.01
0.0077814576 = product of:
0.03112583 = sum of:
0.03112583 = weight(_text_:und in 1319) [ClassicSimilarity], result of:
0.03112583 = score(doc=1319,freq=8.0), product of:
0.1271084 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.057349887 = queryNorm
0.24487628 = fieldWeight in 1319, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0390625 = fieldNorm(doc=1319)
0.25 = coord(1/4)
- Abstract
- Mit dem Stichwort E-Learning wird ein breites Spektrum von Lehr- und Lernformen bezeichnet, die in der einen oder anderen Weise durch Rechner unterstützt werden. In vielen dieser Formen spielt der Austausch zwischen den Beteiligten eine wichtige Rolle. Daher werden E-Learning-Umgebungen häufig mit Kommunikationskomponenten wie Chats oder Foren versehen. Neben diesen Kommunikationswegen steht den Studierenden im Allgemeinen noch eine Vielzahl anderer Kommunikationsmittel zur Verfügung. In einer Befragung an der Hochschule Darmstadt (ehemals Fachhochschule) wurde untersucht, welche Kommunikationswege von den Teilnehmern und Teilnehmerinnen eines E-Learning-Kurses genutzt und bevorzugt werden. Ausgangspunkt war dabei die Beobachtung, dass die von der Lernplattform angebotenen Kommunikationsmittel im Vergleich mit anderen Kommunikationswegen nur wenig genutzt wurden. Die Ergebnisse zeigen, dass alle zehn untersuchten Kommunikationswege (vom persönlichen Gespräch über EMail oder Voice-over-IP bis zu den Kommunikationsmitteln der Lernumgebung) für den Austausch zur Online-Lehrveranstaltung genutzt wurden. Die Intensität der Nutzung variierte allerdings stark: So gaben über 90 Prozent der Befragten an, sich durch direkte Gespräche oder E-Mails ausgetauscht zu haben, wogegen nur ca. zehn Prozent die Kommunikationsmittel der E-Learning-Plattform verwendeten. Der Hauptanteil der Kommunikation fand also nicht über die von der Lernplattform angebotenen Werkzeuge statt. Die Studierenden bevorzugten die Kommunikationswege, die sie auch sonst im Alltag benutzen.
- Source
- Information - Wissenschaft und Praxis. 58(2007) H.1, S.7-14