-
Notess, G.R.: Teaching Web search skills : techniques and strategies of top trainers (2006)
0.01
0.009965061 = product of:
0.039860245 = sum of:
0.039860245 = weight(_text_:und in 1201) [ClassicSimilarity], result of:
0.039860245 = score(doc=1201,freq=42.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.33688194 = fieldWeight in 1201, product of:
6.4807405 = tf(freq=42.0), with freq of:
42.0 = termFreq=42.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=1201)
0.25 = coord(1/4)
- Footnote
- Rez. in: Online-Mitteilungen 2007, H.89, S.17-18 (M. Katzmayr): "Eine der Herausforderungen, der sich Web-Trainerinnen regelmäßig ausgesetzt sehen, besteht in der Kurzlebigkeit der Recherchetools und ihrer ständig wechselnden Funktionalitäten. Wer spricht heute noch von den Suchmaschinen AltaVista oder Lycos? (Hoffentlich) niemand mehr. Diese Dynamik in der Internetbranche wirkt allerdings auf viele potentielle Vortragende abschreckend, scheint es doch ein unzumutbarer Aufwand zu sein, sich laufend über neue Entwicklungen zu informieren. Wer darunter leidet oder zum ersten Mal eine Webschulung vorbereitet, sollte einen Blick in das vorliegende Buch werfen. Dessen Autor, Greg. R. Notess ist im Bereich des praktischen Web Information Retrieval kein Unbekannter: der Auskunftsbibliothekar an der Montana State University hat sich als Betreiber der Website Search Engine Showdown (http://www.search engineshowdown.com), vielgereister Vortragender, erfahrener Didaktiker und regelmäßiger Autor der Zeitschrift Online einen exzellenten Ruf in der Internet-Gemeinde erworben. Nun liegen seine Kenntnisse zur Vermittlung der Webrecherche auch als Monographie vor, die sich an Leiterinnen von Webschulungen richtet. Zum einen finden sich darin eine Vielzahl an didaktischen und organisatorischen Hinweisen zur Planung und Durchführung von Webschulungen. So werden z.B. die verschiedenen Typen von Kursteilnehmerinnen beschrieben und welchen Problemen sich Anfängerinnen in der Webrecherche in der Regel gegenübersehen. Es werden die verschiedenen Arten von Schulungen (Frontalvorträge, Schulungen mit Übungsmöglichkeiten und Online-Tutorials) mit ihren jeweiligen Vor- und Nachteilen sowie idealtypischen Einsatzmöglichkeiten dargestellt, weiters werden Hinweise zu Zielsetzungen und Länge von Kursen gegeben.
Die anderen Kapitel verweisen auf den Inhalt von Webschulungen. Neben der wichtigen Diskussion von terminologischen Fragen - die Fähigkeit zur Differenzierung von Suchmaschine, Metasuchmaschine und Verzeichnis ist immerhin unverzichtbare Grundlage der-Internetkompetenz - wird auf allgemeine Suchfunktionen wie Phrasensuche, Suchoperatoren, Feldsuche etc. eingegangen. Zwei Kapitel befassen sich mit den möglichen Themenschwerpunkten von Webschulungen: als besonders wesentlich werden von Notess unter anderem die Ausformulierung der Fragestellung, der Hinweis auf die Vielfalt der zur Verfügung stehenden Recherchewerkzeuge, die differenzierte Verwendung von Suchmaschinen und Verzeichnissen und die Bewertung der im Web aufgefundenen Information genannt. Durch diese Auswahl wird (im Buch leider nur implizit) verdeutlicht, dass hier ein wesentlicher Schlüssel zur Bewältigung der eingangs erwähnten Problemstellung liegt: durch eine Konzentration auf diese "zukunftssicheren" Themen - sie unterliegen keinen kurzfristigen Änderungen - ist auch die Vorbereitung von Webkursen und die Aktualisierung der Lehrunterlagen ein überschaubarer Aufwand. Eine Strategie, der übrigens auch das vorliegende Buch folgt: es beschränkt sich auf allgemeine Konzepte und Herangehensweisen und vermeidet eine allzu detailreiche Darstellung der gegenwärtig gerade angesagten Tools und Web-Plattformen. Dezidiert aktuell will nur das Kapitel zur Auflistung und kurzen Beschreibung der derzeit wichtigsten Universalsuchmaschinen sein; es ist zum Zeitpunkt des Schreibens dieser Rezension bereits veraltet. Der sehr umfangreiche Anhang enthält neben einem Verzeichnis relevanter Internetquellen eine hilfreiche Fundgrube an Musterbeispielen von Lehrunterlagen zu verschiedensten Webthemen. Ein knappes Literaturverzeichnis und ein sorgfältig gearbeitetes Register beschließen den Band. Fazit: Jene, die vor oder am Beginn ihrer Schulungstätigkeit stehen, sollten diesen durchwegs gelungenen Band unbedingt zu Rate ziehen, und selbst erfahrene Vortragende können sicher das eine oder andere Detail zur Verbesserung ihrer Unterrichtsgestaltung darin finden. Da ein lebendiger und leicht verständlicher Stil gewählt wurde, ist es auch Leserlnnen mit nicht-englischer Muttersprache möglich, das Buch zügig durchzulesen, wobei aufgrund der eingestreuten Anekdoten die Lektüre recht kurzweilig ausfällt. Schließlich ist auch dem Verlag Information Today zu gratulieren: vom Inhaltsverzeichnis über Gliederung und Schriftbild bis hin zum Register ist dieses Buch ein Musterbeispiel guter und zugleich preiswerter verlegerischer Arbeit."
-
Booth, P.F.: Indexing : the manual of good practice (2001)
0.01
0.009938663 = product of:
0.03975465 = sum of:
0.03975465 = weight(_text_:und in 2968) [ClassicSimilarity], result of:
0.03975465 = score(doc=2968,freq=94.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.33598953 = fieldWeight in 2968, product of:
9.69536 = tf(freq=94.0), with freq of:
94.0 = termFreq=94.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.015625 = fieldNorm(doc=2968)
0.25 = coord(1/4)
- Footnote
- Rez. in: nfd - Information Wissenschaft und Praxis 54(2003) H.7, S.440-442 (R. Fugmann): "Das Buch beginnt mit dem Kapitel "Myths about Indexing" und mit der Nennung von weit verbreiteten Irrtümern über das Indexieren, und zwar vorrangig über das Registermachen. Mit einem einzigen Satz ist die Problematik treffend skizziert, welcher das Buch gewidmet ist: "With the development of electronic documents, it has become possible to store very large amounts of information; but storage is not of much use without the capability to retrieve, to convert, transfer and reuse the information". Kritisiert wird die weit verbreitet anzutreffende Ansicht, das Indexieren sei lediglich eine Sache vom "picking out words from the text or naming objects in images and using those words as index headings". Eine solche Arbeitsweise führt jedoch nicht zu Registern, sondern zu Konkordanzen (d.h. zu alphabetischen Fundstellenlisten für Textwörter) und"... is entirely dependent an the words themselves and is not concerned with the ideas behind them". Das Sammeln von Information ist einfach. Aber die (Wieder-) Auffindbarkeit herzustellen muss gelernt werden, wenn mehr ermöglicht werden soll als lediglich das Wiederfinden von Texten, die man in allen Einzelheiten noch genau in Erinnerung behalten hat (known-item searches, questions of recall), die Details der sprachlichen Ausdrucksweise für die gesuchten Begriffe eingeschlossen. Die Verfasserin beschreibt aus ihrer großen praktischen Erfahrung, welche Schritte hierzu auf der gedanklichen und technischen Ebene unternommen werden müssen. Zu den erstgenannten Schritten rechnet die Abtrennung von Details, welche nicht im Index vertreten sein sollten ("unsought terms"), weil sie mit Sicherheit kein Suchziel darstellen werden und als "false friends" zur Überflutung des Suchenden mit Nebensächlichkeiten führen würden, eine Entscheidung, welche nur mit guter Sachkenntnis gefällt werden kann. All Dasjenige hingegen, was in Gegenwart und Zukunft (!) ein sinnvolles Suchziel darstellen könnte und "sufficiently informative" ist, verdient ein Schlagwort im Register. Man lernt auch durch lehrreiche Beispiele, wodurch ein Textwort unbrauchbar für das Register wird, wenn es dort als (schlechtes) Schlagwort erscheint, herausgelöst aus dem interpretierenden Zusammenhang, in welchen es im Text eingebettet gewesen ist. Auch muss die Vieldeutigkeit bereinigt werden, die fast jedem natursprachigen Wort anhaftet. Sonst wird der Suchende beim Nachschlagen allzu oft in die Irre geführt, und zwar um so öfter, je größer ein diesbezüglich unbereinigter Speicher bereits geworden ist.
Der Zugang zum Informationsspeicher ist auch von verwandten Begriffen her zu gewährleisten, denn der Suchende lässt sich gern mit seiner Fragestellung zu allgemeineren und vor allem zu spezifischeren Begriffen leiten. Verweisungen der Art "siehe auch" dienen diesem Zweck. Der Zugang ist auch von unterschiedlichen, aber bedeutungsgleichen Ausdrücken mithilfe einer Verweisung von der Art "siehe" zu gewährleisten, denn ein Fragesteller könnte sich mit einem von diesen Synonymen auf die Suche begeben haben und würde dann nicht fündig werden. Auch wird Vieles, wofür ein Suchender sein Schlagwort parat hat, in einem Text nur in wortreicher Umschreibung und paraphrasiert angetroffen ("Terms that may not appear in the text but are likely to be sought by index users"), d.h. praktisch unauffindbar in einer derartig mannigfaltigen Ausdrucksweise. All dies sollte lexikalisch ausgedrückt werden, und zwar in geläufiger Terminologie, denn in dieser Form erfolgt auch die Fragestellung. Hier wird die Grenze zwischen "concept indexing" gegenüber dem bloßen "word indexing" gezogen, welch letzteres sich mit der Präsentation von nicht interpretierten Textwörtern begnügt. Nicht nur ist eine solche Grenze weit verbreitet unbekannt, ihre Existenz wird zuweilen sogar bestritten, obwohl doch ein Wort meistens viele Begriffe ausdrückt und obwohl ein Begriff meistens durch viele verschiedene Wörter und Sätze ausgedrückt wird. Ein Autor kann und muss sich in seinen Texten oft mit Andeutungen begnügen, weil ein Leser oder Zuhörer das Gemeinte schon aus dem Zusammenhang erkennen kann und nicht mit übergroßer Deutlichkeit (spoon feeding) belästigt sein will, was als Unterstellung von Unkenntnis empfunden würde. Für das Retrieval hingegen muss das Gemeinte explizit ausgedrückt werden. In diesem Buch wird deutlich gemacht, was alles an außertextlichem und Hintergrund-Wissen für ein gutes Indexierungsergebnis aufgeboten werden muss, dies auf der Grundlage von sachverständiger und sorgfältiger Interpretation ("The indexer must understand the meaning of a text"). All dies lässt gutes Indexieren nicht nur als professionelle Dienstleistung erscheinen, sondern auch als Kunst. Als Grundlage für all diese Schritte wird ein Thesaurus empfohlen, mit einem gut strukturierten Netzwerk von verwandtschaftlichen Beziehungen und angepasst an den jeweiligen Buchtext. Aber nur selten wird man auf bereits andernorts vorhandene Thesauri zurückgreifen können. Hier wäre ein Hinweis auf einschlägige Literatur zur Thesaurus-Konstruktion nützlich gewesen.
Es wird auch die Frage erörtert, wer wegen seines Naturells lieber Abstand vom Indexieren nehmen sollte. Diese Ausführungen sind ebenso nützlich wie die konkrete Indexierungsanleitung. Es könnte manch einem erspart bleiben, sich einer Arbeit zuzuwenden, mit der er überfordert wäre. Hier klärt sich auch die oft gestellte Frage, wer ein Register erstellen soll, der Autor oder ein professioneller Indexer: Der Autor ist dieser Aufgabe gewachsen, sofern er das Indexieren gelernt hat, und zwar mehr als lediglich das Entnehmen von Textwörtern (oder ihrer morphologischen Varianten) und deren programmierte Weiterverarbeitung. Auch darf der Autor beim Indexieren nicht nur die eigene Terminologie im Kopf haben. Der professionelle Indexer ist dieser Aufgabe erst recht gewachsen, wenn er sich auf dem Sachgebiet der Texte gut auskennt. Manch ein Buchautor, der glaubt (oder sich einreden lässt), dass er zum Indexieren nur den Markierstift und die Kenntnis vom Alphabet braucht, müsste sich hier den Spiegel vorhalten, oder auch ein Verleger, der in solchen oder ähnlichen Primitivvarianten eine billige und vollwertige Alternative erblickt. Ein Buch dieser Art lädt zu einem Seitenblick auf die Situation der professionellen Indexierung hierzulande ein. Weder ist hier eine Indexierungs-Profession etabliert, noch scheint sie bei Verlegern und Autoren wenigstens so weit bekannt zu sein, dass sich eine solche Profession entwickeln könnte. Das Ergebnis sind Buchregister voller Anfängerfehler, zum Beispiel überfüllt mit unsinnigen Schlagwörtern (Beispiele hierzu sind in diesem Buch aufgeführt) oder mit Schlagwörtern in unvorhersehbaren und dadurch wertlosen Formulierungen, und dies selbst im informationswissenschaftlichen Lehrbuch oder in der Enzyklopädie. Viele Schlagwörter für wichtige Themen fehlen oftmals gänzlich. Das Nachschlagen gestaltet sich dann zur ungeliebten Mühe und Glücksache. Das Ergebnis sind demzufolge hierzulande Bücher meistens weit unter demjenigen Wert, den sie hätten, wenn sie durch ein gutes Register erschlossen wären.
Die interpretationslos zusammengestellten "Register" sind auch daran zu erkennen, dass ihnen die informativen, mit viel Sprachgefühl und Sachkenntnis formulierten Untereinträge fehlen, für deren Gestaltung im Buch zahlreiche Ratschläge gegeben werden. Das Resümee von Booth lautet: Wenn ein Indexierungsprogramm brauchbare Ergebnisse erbringen soll, dann kann es nicht vollautomatisch sein. Neben diesen Ausführungen zum gedanklichen Teil der Indexierungsarbeit bietet das Buch auch eine Fülle von Ratschlägen zum rein technischen Teil, speziell zur Orthographie und Typographie des Registers. Vieles, was für den anglo-amerikanischen Sprachraum gilt, könnte direkt für deutschsprachige Register übernommen werden. Dies betrifft z.B. die Singular/PluralFrage bei den Schlagwörtern, die Übersichtlichkeit der Registergestaltung, die Verwendung verschiedener Schriftarten, usw. Ratschläge für die praktische Arbeit werden reichlich gegeben, z.B. wie man sich verhält, wenn der Platz für das Register nachträglich eingeschränkt wird oder wenn zusätzlich Platz zur Verfügung gestellt wird. Man erfährt, wo man sich seine Ausbildung holt (und zwar eine, die über die naive Entnahme von Textwörtern und deren programmierte Weiterverarbeitung hinausgeht), wie man Arbeitsverträge abschließt und Kontakte knüpft, z.B. mit künftigen Auftraggebern oder auch mit Fachkollegen zum Erfahrungsaustausch, wie man sich einen gesunden Arbeitsplatz einrichtet und seine Arbeitszeit einteilen sollte, welche Gesellschaften zum Indexierungsproblem es weltweit gibt und welche Fachzeitschriften man sich halten sollte, um auf dem Laufenden zu bleiben. Es werden auch die Registerprobleme bei einer Neuauflage erörtert. Das Buch möchte eine Anleitung nicht nur zum Buchindexieren geben, sondern auch zum Indexieren von Datenbanken für Zeitschriften. Diesen Anspruch erfüllt das Buch jedoch weniger gut, denn auf die dort akuten Probleme wird nicht genügend eingegangen, wie z.B. auf die Problematik der Präkombinationen und einer retrievaltauglichen Syntax, auf das Problem des schleichenden Verlusts an Vokabularübersichtlichkeit, einer ausreichend hohen (anfänglich stets übertrieben erscheinenden) Indexierungsspezifität und des ständigen Kampfs mit den Controllern und Unternehmensberatern, welche glauben, vorrangig bei der Indexierung Kosten einsparen zu können, weil sie den Nutzen einer guten Indexierung nicht messen können, deswegen nicht zu würdigen wissen (und damit letztlich Fortbestand und Zukunft eines ganzen Dokumentationsunternehmens gefährden). Es ist wohltuend zu lesen, dass Perfektion beim Indexieren aus der Sicht späterer Nutzer "kaum" zu erreichen ist (was im angloamerikanischen Sprachgebrauch so viel bedeutet wie "überhaupt nicht").
Zwar ist das Register zu diesem Buch ein Vorbild, und dem Verlag sei gedankt, dass dem Register neun Prozent vom Buchumfang zugestanden worden sind. Aber auch hier vermisst man noch immer Schlagwörter wie z.B. "Interpretation" oder "Cutter's Rule" (für die Notwendigkeit, die jeweils besttreffenden Schlagwörter aus dem Indexsprachenwortschatz beim Indexieren zu benutzen), alles Themen, die im Buch abgehandelt sind. Wohltuend ist auch die undogmatische Art, in welcher verschiedene formale Indexierungsvarianten als zulässige Alternativen nebeneinander gestellt werden. Unkonventionell ist es beispielsweise im Register zu diesem Buch, dass ein Schlagwort dort auch schon dann durch Untereinträge aufgegliedert wird, wenn es weniger als fünf bis sechs Fundstellenangaben hat. Wohltuend auch die Unvoreingenommenheit, in welcher die Stärken von nicht interpretierter Volltextverarbeitung dort hervorgehoben werden, wo sie zum Zug kommen können, wie z.B. bei simplen Erinnerungs- und Namenrecherchen. Ein wenig ins Auge springender Ratschlag an jeden, der beruflichen oder privaten Schriftwechsel führt oder Fachliteratur liest, verdient hervorgehoben zu werden. Es ist ratsam, frühzeitig mit einer wenigstens rudimentären Indexierung seines Schrifttums zu beginnen, nicht erst dann, wenn einem seine private Sammlung über den Kopf gewachsen ist und wenn sich die Suchfehlschläge häufen und an den Nerven zu zehren beginnen. Die Erinnerung an den Wortlaut der gesuchten Dokumente, worauf man sich anfänglich noch stützen kann, ist nämlich bald verblasst und steht dann nicht mehr als Suchhilfe zur Verfügung. Allerdings wird man für den Eigenbedarf keine derartig ausführliche Einführung in die Theorie und Praxis des Indexierens benötigen, wie sie in diesem Buch geboten wird. Hierfür gibt es andernorts gute Kurzfassungen. Wer dieses Buch als Indexierungsneuling gelesen hat, wird die Indexierungsarbeit und ein Buchregister fortan mit anderen Augen ansehen, nämlich als einen wesentlichen Teil eines Buchs, besonders wenn es sich um ein Nachschlagewerk handelt. Schon eine kurze Einblicknahme in das Buch könnte das Management, einen Verleger oder einen Buchautor davor warnen, all denjenigen Glauben zu schenken, welche behaupten, den Indexer durch ihr vollautomatisches Computerprogramm ersetzen zu können. Das Indexieren umfasst das Übersetzen als einen Teilschritt, nämlich das Übersetzen der Essenz eines Textes oder eines Bildes in eine Indexsprache mit ihrem geregelten Wortschatz. Was man in der Praxis von vollautomatischen Übersetzungen her kennt, selbst von den bisher am weitesten entwickelten Programmen, sollte hier zur Warnung dienen."
-
New directions in cognitive information retrieval (2005)
0.01
0.009925438 = product of:
0.039701752 = sum of:
0.039701752 = weight(_text_:und in 1338) [ClassicSimilarity], result of:
0.039701752 = score(doc=1338,freq=60.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.33554244 = fieldWeight in 1338, product of:
7.745967 = tf(freq=60.0), with freq of:
60.0 = termFreq=60.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=1338)
0.25 = coord(1/4)
- Classification
- ST 270 [Informatik # Monographien # Software und -entwicklung # Datenbanken, Datenbanksysteme, Data base management, Informationssysteme]
- Footnote
- Rez. in: Mitt. VÖB 59(2006) H.3, S.95-98 (O. Oberhauser): "Dieser Sammelband der Herausgeber A. Spink & C. Cole ist kurz vor ihrem im letzten Heft der Mitteilungen der VÖB besprochenen zweiten Buch erschienen. Er wendet sich an Informationswissenschaftler, Bibliothekare, Sozialwissenschaftler sowie Informatiker mit Interesse am Themenbereich Mensch-Computer-Interaktion und präsentiert einen Einblick in die aktuelle Forschung zum kognitiv orientierten Information Retrieval. Diese Richtung, die von der Analyse der Informationsprobleme der Benutzer und deren kognitivem Verhalten bei der Benutzung von Informationssystemen ausgeht, steht in einem gewissen Kontrast zum traditionell vorherrschenden IR-Paradigma, das sich auf die Optimierung der IR-Systeme und ihrer Effizienz konzentriert. "Cognitive information retrieval" oder CIR (natürlich geht es auch hier nicht ohne ein weiteres Akronym ab) ist ein interdisziplinärer Forschungsbereich, der Aktivitäten aus Informationswissenschaft, Informatik, Humanwissenschaften, Kognitionswissenschaft, Mensch-Computer-Interaktion und anderen informationsbezogenen Gebieten inkludiert.
New Directions ist nach demselben, durchaus ansprechenden Muster "gestrickt" wie das oben erwähnte zweite Buch (tatsächlich war es ja wohl umgekehrt) Der vorliegende Band beinhaltet ebenfalls zwölf Beiträge ("Kapitel"), die in fünf Sektionen dargeboten werden, wobei es sich bei den Sektionen 1 und 5 (=Kapitel 1 und 12) um Einleitung und Zusammenschau der Herausgeber handelt. Erstere ist eine Übersicht über die Gliederung und die Beiträge des Buches, die jeweils mit Abstracts beschrieben werden. Letztere dagegen möchte ein eigenständiger Beitrag sein, der die in diesem Band angesprochenen Aspekte in einen gemeinsamen Bezugsrahmen stellt; de facto ist dies aber weniger gut gelungen als im zweiten Buch, zumal hier hauptsächlich eine Wiederholung des früher Gesagten geboten wird. Die Beiträge aus den drei verbleibenden Hauptsektionen sollen im Folgenden kurz charakterisiert werden:
CIR Concepts - Interactive information retrieval: Bringing the user to a selection state, von Charles Cole et al. (Montréal), konzentriert sich auf den kognitiven Aspekt von Benutzern bei der Interaktion mit den bzw. der Reaktion auf die vom IR-System ausgesandten Stimuli; "selection" bezieht sich dabei auf die Auswahl, die das System den Benutzern abverlangt und die zur Veränderung ihrer Wissensstrukturen beiträgt. - Cognitive overlaps along the polyrepresentation continuum, von Birger Larsen und Peter Ingwersen (Kopenhagen), beschreibt einen auf Ingwersens Principle of Polyrepresentation beruhenden methodischen Ansatz, der dem IR-System ein breiteres Bild des Benutzers bzw. der Dokumente vermittelt als dies bei herkömmlichen, lediglich anfragebasierten Systemen möglich ist. - Integrating approaches to relevance, von Ian Ruthven (Glasgow), analysiert den Relevanzbegriff und schlägt anstelle des gegenwärtig in IR-Systemverwendeten, eindimensionalen Relevanzkonzepts eine multidimensionale Sichtweise vor. - New cognitive directions, von Nigel Ford (Sheffield), führt neue Begriffe ein: Ford schlägt anstelle von information need und information behaviour die Alternativen knowledge need und knowledge behaviour vor.
CIR Processes - A multitasking framework for cognitive information retrieval, von Amanda Spink und Charles Cole (Australien/Kanada), sieht - im Gegensatz zu traditionellen Ansätzen - die simultane Bearbeitung verschiedener Aufgaben (Themen) während einer Informationssuche als den Normalfall an und analysiert das damit verbundene Benutzerverhalten. - Explanation in information seeking and retrieval, von Pertti Vakkari und Kalervo Järvelin (Tampere), plädiert anhand zweier empirischer Untersuchungen für die Verwendung des aufgabenorientierten Ansatzes ("task") in der IR-Forschung, gerade auch als Bindeglied zwischen nicht ausreichend mit einander kommunizierenden Disziplinen (Informationswissenschaft, Informatik, diverse Sozialwissenschaften). - Towards an alternative information retrieval system for children, von Jamshid Beheshti et al. (Montréal), berichtet über den Stand der IR-Forschung für Kinder und schlägt vor, eine Metapher aus dem Sozialkonstruktivismus (Lernen als soziales Verhandeln) als Gestaltungsprinzip für einschlägige IR-Systeme zu verwenden. CIR Techniques - Implicit feedback: using behavior to infer relevance, von Diane Kelly (North Carolina), setzt sich kritisch mit den Techniken zur Analyse des von Benutzern von IR-Systemen geäußerten Relevance-Feedbacks - explizit und implizit - auseinander. - Educational knowledge domain visualizations, von Peter Hook und Katy Börner (Indiana), beschreibt verschiedene Visualisierungstechniken zur Repräsentation von Wissensgebieten, die "Novizen" bei der Verwendung fachspezifischer IR-Systeme unterstützen sollen. - Learning and training to search, von Wendy Lucas und Heikki Topi (Massachusetts), analysiert, im breiteren Kontext der Information- Seeking-Forschung, Techniken zur Schulung von Benutzern von IRSystemen.
Sämtliche Beiträge sind von hohem Niveau und bieten anspruchsvolle Lektüre. Verallgemeinert formuliert, fragen sie nach der Verknüpfung zwischen dem breiteren Kontext des Warum und Wie der menschlichen Informationssuche und den technischen bzw. sonstigen Randbedingungen, die die Interaktion zwischen Benutzern und Systemen bestimmen. Natürlich liegt hier kein Hand- oder Lehrbuch vor, sodass man - fairerweise - nicht von einer systematischen Behandlung dieses Themenbereichs oder einem didaktischen Aufbau ausgehen bzw. derlei erwarten darf. Das Buch bietet jedenfalls einen guten und vielfältigen Einstieg und Einblick in dieses interessante Forschungsgebiet. Fachlich einschlägige und größere allgemeine Bibliotheken sollten es daher jedenfalls in ihren Bestand aufnehmen. Schon die Rezension des oben zitierten zweiten Buches des Herausgeber-Duos Spink-Cole enthielt einen kritischen Hinweis auf das dortige Sachregister. Der vorliegende Band erfordert noch stärkere Nerven, denn der hier als "Index" bezeichnete Seitenfüller spottet geradezu jeder Beschreibung, umso mehr, als wir uns in einem informationswissenschaftlichen Kontext befi nden. Was soll man denn tatsächlich mit Einträgen wie "information" anfangen, noch dazu, wenn dazu über 150 verschiedene Seitenzahlen angegeben werden? Ähnlich verhält es sich mit anderen allgemeinen Begriffen wie z.B. "knowledge", "model", "tasks", "use", "users" - allesamt mit einer gewaltigen Menge von Seitenzahlen versehen und damit ohne Wert! Dieses der Leserschaft wenig dienliche Register ist wohl dem Verlag anzulasten, auch wenn die Herausgeber selbst seine Urheber gewesen sein sollten. Davon abgesehen wurde wieder einmal ein solide gefertigter Band vorgelegt, der allerdings wegen seines hohen Preis eher nur institutionelle Käufer ansprechen wird."
- RVK
- ST 270 [Informatik # Monographien # Software und -entwicklung # Datenbanken, Datenbanksysteme, Data base management, Informationssysteme]
-
Scientometrics pioneer Eugene Garfield dies : Eugene Garfield, founder of the Institute for Scientific Information and The Scientist, has passed away at age 91 (2017)
0.01
0.009825682 = product of:
0.03930273 = sum of:
0.03930273 = weight(_text_:und in 4460) [ClassicSimilarity], result of:
0.03930273 = score(doc=4460,freq=30.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.33217007 = fieldWeight in 4460, product of:
5.477226 = tf(freq=30.0), with freq of:
30.0 = termFreq=30.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=4460)
0.25 = coord(1/4)
- Content
- Vgl. auch Open Password, Nr.167 vom 01.03.2017 :"Eugene Garfield, Begründer und Pionier der Zitationsindexierung und der Ziationsanalyse, ohne den die Informationswissenschaft heute anders aussähe, ist im Alter von 91 Jahren gestorben. Er hinterlässt Frau, drei Söhne, eine Tochter, eine Stieftochter, zwei Enkeltöchter und zwei Großelternkinder. Garfield machte seinen ersten Abschluss als Bachelor in Chemie an der Columbia University in New York City im Jahre 1949. 1954 sattelte er einen Abschluss in Bibliothekswissenschaft drauf. 1961 sollte er im Fach strukturelle Linguistik promovieren. Als Chemie-Student war er nach eigenen Angaben weder besonders gut noch besonders glücklich. Sein "Erweckungserlebnis" hatte er auf einer Tagung der American Chemical Society, als er entdeckte, dass sich mit der Suche nach Literatur womöglich ein Lebensunterhalt bestreiten lasse. "So I went to the Chairman of the meeting and said: "How do you get a job in this racket?" Ab 1955 war Garfield zunächst als Berater für pharmazeutische Unternehmen tätig. Dort spezialisierte er sich auf Fachinformationen, indem er Inhalte relevanter Fachzeitschriften erarbeitete. 1955 schlug er in "Science" seine bahnbrechende Idee vor, Zitationen wissenschaftlicher Veröffentlichungen systematisch zu erfassen und Zusammenhänge zwischen Zitaten deutlich zu machen. 1960 gründete Garfield das Institute für Scientific Informationen, dessen CEO er bis 1992 blieb. 1964 brachte er den Scientific Information Index heraus. Weitere Maßgrößen wie der Social Science Index (ab 1973), der Arts and Humanities Citation Index (ab 1978) und der Journal Citation Index folgten. Diese Verzeichnisse wurden in dem "Web of Science" zusammengefasst und als Datenbank elektronisch zugänglich gemacht. Damit wurde es den Forschern ermöglich, die für sie relevante Literatur "at their fingertips" zu finden und sich in ihr zurechtzufinden. Darüber hinaus wurde es mit Hilfe der Rankings von Garfields Messgrößen möglich, die relative wissenschaftliche Bedeutung wissenschaftlicher Beiträge, Autoren, wissenschaftlicher Einrichtungen, Regionen und Länder zu messen.
Garfield wandte sich im Zusammenhang mit seinen Messgrößen gegen "Bibliographic Negligence" und "Citation Amnesia", Er schrieb 2002: "There will never be a perfect solution to the problem of acknowledging intellectual debts. But a beginning can be made if journal editors will demand a signed pledge from authors that they have searched Medline, Science Citation Index, or other appropriate print and electronic databases." Er warnte aber auch vor einen unsachgemäßen Umgang mit seinen Messgößen und vor übertriebenen Erwartungen an sie in Zusammenhang mit Karriereentscheidungen über Wissenschaftler und Überlebensentscheidungen für wissenschaftliche Einrichtungen. 1982 übernahm die Thomson Corporation ISI für 210 Millionen Dollar. In der heutigen Nachfolgeorganisation Clarivate Analytics sind mehr als 4000 Mitarbeitern in über hundert Ländern beschäftigt. Garfield gründete auch eine Zeitung für Wissenschaftler, speziell für Biowissenschaftler, "The Scientist", die weiterbesteht und als kostenfreier Pushdienst bezogen werden kann. In seinen Beiträgen zur Wissenschaftspolitik kritisierte er beispielsweise die Wissenschaftsberater von Präsident Reagen 1986 als "Advocats of the administration´s science policies, rather than as objective conduits for communication between the president and the science community." Seinen Beitrag, mit dem er darum warb, die Förderung von UNESCO-Forschungsprogrammen fortzusetzen, gab er den Titel: "Let´s stand up für Global Science". Das ist auch in Trump-Zeiten ein guter Titel, da die US-Regierung den Wahrheitsbegriff, auf der Wissenschaft basiert, als bedeutungslos verwirft und sich auf Nationalismus und Abschottung statt auf internationale Kommunikation, Kooperation und gemeinsame Ausschöpfung von Interessen fokussiert."
-
Spink, A.; Jansen, B.J.: Web searching : public searching of the Web (2004)
0.01
0.009758611 = product of:
0.039034445 = sum of:
0.039034445 = weight(_text_:und in 2443) [ClassicSimilarity], result of:
0.039034445 = score(doc=2443,freq=58.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.32990265 = fieldWeight in 2443, product of:
7.615773 = tf(freq=58.0), with freq of:
58.0 = termFreq=58.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=2443)
0.25 = coord(1/4)
- Footnote
- Rez. in: Information - Wissenschaft und Praxis 56(2004) H.1, S.61-62 (D. Lewandowski): "Die Autoren des vorliegenden Bandes haben sich in den letzten Jahren durch ihre zahlreichen Veröffentlichungen zum Verhalten von Suchmaschinen-Nutzern einen guten Namen gemacht. Das nun erschienene Buch bietet eine Zusammenfassung der verstreut publizierten Aufsätze und stellt deren Ergebnisse in den Kontext eines umfassenderen Forschungsansatzes. Spink und Jansen verwenden zur Analyse des Nutzungsverhaltens query logs von Suchmaschinen. In diesen werden vom Server Informationen protokolliert, die die Anfragen an diesen Server betreffen. Daten, die aus diesen Dateien gewonnen werden können, sind unter anderem die gestellten Suchanfragen, die Adresse des Rechners, von dem aus die Anfrage gestellt wurde, sowie die aus den Trefferlisten ausgewählten Dokumente. Der klare Vorteil der Analyse von Logfiles liegt in der Möglichkeit, große Datenmengen ohne hohen personellen Aufwand erheben zu können. Die Daten einer Vielzahl anonymer Nutzer können analysiert werden; ohne dass dabei die Datenerhebung das Nutzerverhalten beeinflusst. Dies ist bei Suchmaschinen von besonderer Bedeutung, weil sie im Gegensatz zu den meisten anderen professionellen Information-Retrieval-Systemen nicht nur im beruflichen Kontext, sondern auch (und vor allem) privat genutzt werden. Das Bild des Nutzungsverhaltens wird in Umfragen und Laboruntersuchungen verfälscht, weil Nutzer ihr Anfrageverhalten falsch einschätzen oder aber die Themen ihrer Anfragen nicht nennen möchten. Hier ist vor allem an Suchanfragen, die auf medizinische oder pornographische Inhalte gerichtet sind, zu denken. Die Analyse von Logfiles ist allerdings auch mit Problemen behaftet: So sind nicht alle gewünschten Daten überhaupt in den Logfiles enthalten (es fehlen alle Informationen über den einzelnen Nutzer), es werden keine qualitativen Informationen wie etwa der Grund einer Suche erfasst und die Logfiles sind aufgrund technischer Gegebenheiten teils unvollständig. Die Autoren schließen aus den genannten Vor- und Nachteilen, dass sich Logfiles gut für die Auswertung des Nutzerverhaltens eignen, bei der Auswertung jedoch die Ergebnisse von Untersuchungen, welche andere Methoden verwenden, berücksichtigt werden sollten.
Den Autoren wurden von den kommerziellen Suchmaschinen AltaVista, Excite und All the Web größere Datenbestände zur Verfügung gestellt. Die ausgewerteten Files umfassten jeweils alle an die jeweilige Suchmaschine an einem bestimmten Tag gestellten Anfragen. Die Daten wurden zwischen 199'] und 2002 erhoben; allerdings liegen nicht von allen Jahren Daten von allen Suchmaschinen vor, so dass einige der festgestellten Unterschiede im Nutzerverhalten sich wohl auf die unterschiedlichen Nutzergruppen der einzelnen Suchmaschinen zurückführen lassen. In einem Fall werden die Nutzergruppen sogar explizit nach den Suchmaschinen getrennt, so dass das Nutzerverhalten der europäischen Nutzer der Suchmaschine All the Web mit dem Verhalten der US-amerikanischen Nutzer verglichen wird. Die Analyse der Logfiles erfolgt auf unterschiedlichen Ebenen: Es werden sowohl die eingegebenen Suchbegriffe, die kompletten Suchanfragen, die Such-Sessions und die Anzahl der angesehenen Ergebnisseiten ermittelt. Bei den Suchbegriffen ist besonders interessant, dass die Spannbreite der Informationsbedürfnisse im Lauf der Jahre deutlich zugenommen hat. Zwar werden 20 Prozent aller eingegebenen Suchbegriffe regelmäßig verwendet, zehn Prozent kamen hingegen nur ein einziges Mal vor. Die thematischen Interessen der Suchmaschinen-Nutzer haben sich im Lauf der letzten Jahre ebenfalls gewandelt. Während in den Anfangsjahren viele Anfragen aus den beiden Themenfeldern Sex und Technologie stammten, gehen diese mittlerweile zurück. Dafür nehmen Anfragen im Bereich E-Commerce zu. Weiterhin zugenommen haben nicht-englischsprachige Begriffe sowie Zahlen und Akronyme. Die Popularität von Suchbegriffen ist auch saisonabhängig und wird durch aktuelle Nachrichten beeinflusst. Auf der Ebene der Suchanfragen zeigt sich weiterhin die vielfach belegte Tatsache, dass Suchanfragen in Web-Suchmaschinen extrem kurz sind. Die durchschnittliche Suchanfrage enthält je nach Suchmaschine zwischen 2,3 und 2,9 Terme. Dies deckt sich mit anderen Untersuchungen zu diesem Thema. Die Länge der Suchanfragen ist in den letzten Jahren leicht steigend; größere Sprünge hin zu längeren Anfragen sind jedoch nicht zu erwarten. Ebenso verhält es sich mit dem Einsatz von Operatoren: Nur etwa in jeder zehnten Anfrage kommen diese vor, wobei die Phrasensuche am häufigsten verwendet wird. Dass die SuchmaschinenNutzer noch weitgehend als Anfänger angesehen werden müssen, zeigt sich auch daran, dass sie pro Suchanfrage nur drei oder vier Dokumente aus der Trefferliste tatsächlich sichten.
In Hinblick auf die Informationsbedürfnisse ergibt sich eine weitere Besonderheit dadurch, dass Suchmaschinen nicht nur für eine Anfrageform genutzt werden. Eine "Spezialität" der Suchmaschinen ist die Beantwortung von navigationsorientierten Anfragen, beispielsweise nach der Homepage eines Unternehmens. Hier wird keine Menge von Dokumenten oder Fakteninformation verlangt; vielmehr ist eine Navigationshilfe gefragt. Solche Anfragen nehmen weiter zu. Die Untersuchung der Such-Sessions bringt Ergebnisse über die Formulierung und Bearbeitung der Suchanfragen zu einem Informationsbedürfnis zutage. Die Sessions dauern weit überwiegend weniger als 15 Minuten (dies inklusive Sichtung der Dokumente!), wobei etwa fünf Dokumente angesehen werden. Die Anzahl der angesehenen Ergebnisseiten hat im Lauf der Zeit abgenommen; dies könnte darauf zurückzuführen sein, dass es den Suchmaschinen im Lauf der Zeit gelungen ist, die Suchanfragen besser zu beantworten, so dass sich brauchbare Ergebnisse öfter bereits auf der ersten Ergebnisseite finden. Insgesamt bestätigt sich auch hier das Bild vom wenig fortgeschrittenen Suchmaschinen-Nutzer, der nach Eingabe einer unspezifischen Suchanfrage schnelle und gute Ergebnisse erwartet. Der zweite Teil des Buchs widmet sich einigen der bei den Suchmaschinen-Nutzern populären Themen und analysiert das Nutzerverhalten bei solchen Suchen. Dabei werden die eingegebenen Suchbegriffe und Anfragen untersucht. Die Bereiche sind E-Commerce, medizinische Themen, Sex und Multimedia. Anfragen aus dem Bereich E-Commerce sind in der Regel länger als allgemeine Anfragen. Sie werden seltener modifiziert und pro Anfrage werden weniger Dokumente angesehen. Einige generische Ausdrücke wie "shopping" werden sehr häufig verwendet. Der Anteil der E-Commerce-Anfragen ist hoch und die Autoren sehen die Notwendigkeit, spezielle Suchfunktionen für die Suche nach Unternehmenshomepages und Produkten zu erstellen bzw. zu verbessern. Nur zwischen drei und neun Prozent der Anfragen beziehen sich auf medizinische Themen, der Anteil dieser Anfragen nimmt tendenziell ab. Auch der Anteil der Anfragen nach sexuellen Inhalten dürfte mit einem Wert zwischen drei und knapp 1'7 Prozent geringer ausfallen als allgemein angenommen.
Der relativ hohe Wert von 17 Prozent stammt allerdings aus dem Jahr 1997; seitdem ist eine deutliche Abnahme zu verzeichnen. Betont werden muss außerdem, dass Anfragen nach sexuellen Inhalten nicht mit denen nach Pornographie gleichzusetzen sind. Die Suche nach Multimedia-Inhalten hat sich von den allgemeinen Suchinterfaces der Suchmaschinen hin zu speziellen Suchmasken verschoben, die inzwischen von allen großen Suchmaschinen angeboten werden. Die wichtigste Aussage aus den untersuchten Daten lautet, dass die Suche nach Multimedia-Inhalten komplexer und vor allem interaktiver ist als die übliche Websuche. Die Anfragen sind länger und enthalten zu einem deutlich größeren Teil Operatoren. Bei der Bildersuche stellen weiterhin sexuell orientierte Anfragen den höchsten Anteil. Bei der Bilderund Video-Suche sind die Anfragen deutlich länger als bei der regulären Suche; bei der Audio-Suche sind sie dagegen kürzer. Das vorliegende Werk bietet die bisher umfassendste Analyse des Nutzerverhaltens bezüglich der Web-Suche; insbesondere wurden bisher keine umfassenden, auf längere Zeiträume angelegten Studien vorgelegt, deren Ergebnisse wie im vorliegenden Fall direkt vergleichbar sind. Die Ergebnisse sind valide und ermöglichen es Suchmaschinen-Anbietern wie auch Forschern, künftige Entwicklungen stärker als bisher am tatsächlichen Verhalten der Nutzer auszurichten. Das Buch beschränkt sich allerdings auf die US-amerikanischen Suchmaschinen und deren Nutzer und bezieht nur bei All the Web die europäischen Nutzer ein. Insbesondere die Frage, ob die europäischen oder auch deutschsprachigen Nutzer anders suchen als die amerikanischen, bleibt unbeantwortet. Hier wären weitere Forschungen zu leisten."
-
¬Der Kongreß 'In der Bildung liegt die Zukunft' legte den Grundstein für eine neue Bildungsdebatte (2000)
0.01
0.009724903 = product of:
0.03889961 = sum of:
0.03889961 = weight(_text_:und in 5765) [ClassicSimilarity], result of:
0.03889961 = score(doc=5765,freq=10.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.3287631 = fieldWeight in 5765, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=5765)
0.25 = coord(1/4)
- Abstract
- Am 25. Januar kamen fast 1.000 Teilnehmerinnen und Teilnehmer aus dem weitverzweigten Bildungsbereich zu dem Kongreß zusammen, um eine zukunftsweisende sozialdemokratische Bildungspolitik zu diskutieren, die sowohl der Chancengleichheit als auch der Leistungsförderung verpflichtet ist. schon im Vorfeld des Kongresses hatten einige führende Politikerinnen und Politiker der SPD das Bildungsmanifest 'Bildung entscheidet über unsere Zukunft. Für eine neue Bildungsinitiative' der Öffentlichkeit vorgestellt. Darin werden die bildungspolitischen Traditionen der SPD aufgegriffen und für unsere Zeit neu formuliert. Dabei stellen sie fest: Bildung ist nicht ein Thema unter vielen, sondern auf dem Wege, die soziale Frage des 21. Jahrhunderts zu werden. Bildung ist immer weniger auf eine Lebensphase, Kindheit und Jugend, zu begrenzen und wird in der Zukunft immer mehr als kontinuierliche Herausforderung die Menschen beschäftigen. Bildung wird in allen Teilen der Gesellschaft einen Ort haben. Die Bildungspolitik hat dementsprechend in dem Handeln der Bundesregierung Vorrang
-
BMBF fördert Langzeitarchivierung für digitale Daten : Deutsche Bibliothek schließt erste Testhase erfolgreich ab (2006)
0.01
0.009724903 = product of:
0.03889961 = sum of:
0.03889961 = weight(_text_:und in 5970) [ClassicSimilarity], result of:
0.03889961 = score(doc=5970,freq=10.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.3287631 = fieldWeight in 5970, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=5970)
0.25 = coord(1/4)
- Abstract
- Digital auf elektronischen Datenträgern vorliegende Informationen können derzeit nur schwer über Jahre gespeichert werden. Im Interesse von Wissenschaft und Forschung muss diese komplexe Aufgabe mit innovativer Technik bewältigt werden.
- Content
- Unter Leitung Der Deutschen Bibliothek wurde jetzt erstmals ein neues System zur digitalen Langzeitarchivierung erfolgreich getestet. Es könne problemlos in bestehende Bibliothekssysteme integriert werden, teilte das Bundesministerium für Bildung und Forschung (BMBF) am 16. Dezember 2005 in Berlin mit. Das BMBF förderte die erste Phase des so genannten »kopalSystems« (www.kopal.langzeitarchivierung.de) mit 4,2Millionen Euro. Es soll auf der CeBIT 2006 öffentlich vorgestellt werden. Dabei sollen dem Publikum die Aufgaben Land Funktionen eines Langzeitarchivs digitaler Informationen mit einem »kopal-Demonstrator« anschaulich u und greifbar vertmittelt werden. Das Projekt »kopal« (Kooperativer Aufbau eines Langzeitarchivs digitaler Informationen) widmet sich der langfristigen Bewahrung Land Bereitstellung digitaler Daten. Dabei kooperieren Die Deutsche Bibliothek, die Niedersächsische Staats- und Universitätsbibliothek Göttingen, die Gesellschaft für wissenschaftliche Datenverarbeitung Göttingen und die IBM Deutschland. Das von ihnen entwickelte System soll künftig mit standardisierten Schnittstellen kooperativ betrieben werden."
-
Dawson, J.: Logical dilemmas : the life and work of Kurt Gödel (1996)
0.01
0.009724903 = product of:
0.03889961 = sum of:
0.03889961 = weight(_text_:und in 989) [ClassicSimilarity], result of:
0.03889961 = score(doc=989,freq=10.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.3287631 = fieldWeight in 989, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=989)
0.25 = coord(1/4)
- Abstract
- Die Biographie von Dawson, einem der Mitherausgeber der Gesammelten Werke Gödels, stützt sich auf ein intensives Studium des Nachlasses und zahlreiche Interviews mit Experten und Zeitgenossen Gödels. Sie verbindet eine umfassende Darstellung des persönlichen und kulturellen Hintergrundes mit einer integrierten Geschichte der Logik im 20. Jahrhundert, einer Geschichte, in der Gödel einer der Hauptdarsteller war
- Classification
- SG 174 Mathematik / Biographien, Geschichte und Philosophie der Mathematik / Biographien / Einzelbiographien / gm - go
- RVK
- SG 174 Mathematik / Biographien, Geschichte und Philosophie der Mathematik / Biographien / Einzelbiographien / gm - go
-
Höchstötter, N.: Suchverhalten im Web : Erhebung, Analyse und Möglichkeiten (2007)
0.01
0.009724903 = product of:
0.03889961 = sum of:
0.03889961 = weight(_text_:und in 1281) [ClassicSimilarity], result of:
0.03889961 = score(doc=1281,freq=10.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.3287631 = fieldWeight in 1281, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=1281)
0.25 = coord(1/4)
- Abstract
- Suchmaschinen stellen eine wichtige Möglichkeit dar, um neue Informationen oder Webseiten im Internet zu finden. Das Online-Marketing wurde dadurch verstärkt auf das Suchmaschinen-Marketing ausgerichtet, bei dem vor allem darauf geachtet wird, dass man in Suchmaschinen gut sichtbar ist. Bei der effizienten Planung von Marketing-Aktionen ist es deshalb wichtig, nicht nur profunde Kenntnisse über die Funktionsweise von Suchmaschinen zu haben, sondern auch das Suchverhalten von Suchmaschinennutzern zu untersuchen und die Ergebnisse geeignet umzusetzen. In diesem Beitrag wird auf die Erforschung des Suchverhaltens im Web und auf die Interaktion von Menschen mit Suchmaschinen ab 1997 eingegangen. In erster Linie werden verschiedene Erhebungsmethoden erklärt und Analysen vorgestellt. Es wird auch diskutiert, wie die Ergebnisse umgesetzt werden können, um die Auffindbarkeit von Webseiten zu verbessern.
- Source
- Information - Wissenschaft und Praxis. 58(2007) H.3, S.135-140
-
Semar, W.: Leistungsvisualisierung im kollaborativen E-Learning mit Hilfe spezieller Kennzahlen (2008)
0.01
0.009724903 = product of:
0.03889961 = sum of:
0.03889961 = weight(_text_:und in 2381) [ClassicSimilarity], result of:
0.03889961 = score(doc=2381,freq=10.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.3287631 = fieldWeight in 2381, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=2381)
0.25 = coord(1/4)
- Abstract
- Der bisherige Einsatz elektronischer Kommunikationsforen in der Lehre hat gezeigt, dass die Motivation zur Teilnahme an kollaborativen Prozessen erst geweckt bzw. verstärkt werden muss. Aus diesem Grund wurde im K3-System ein Gratifikationssystem implementiert, das einerseits Anreize zur aktiven Teilnahme schafft und andererseits bestimmte Schlüsselkompetenzen (hier Informations-, Kommunikations- und Teamkompetenz) bei den Teilnehmern entwickelt und verbessert. Im kollaborativen Wissensmanagementsystem K3 wird dies im Wesentlichen dadurch erreicht, dass die Akteure direktes und indirektes Feedback über die von ihnen erbrachten Leistungen erhalten. Ein Alleinstellungsmerkmal des K3-Gratifikationssystems ist die Feedbackgestaltung mit Hilfe der Visualisierung bestimmter Leistungsmerkmale der teilnehmenden Akteure. In diesem Beitrag wird zunächst ganz allgemein beschrieben, wie das K3-Gratifikationssystem in den kollaborativen Prozess eingebunden ist. Aufbauend auf der Entwicklung spezieller Kennzahlen zur Leistungsbeschreibung der teilnehmenden Akteure wird der Schwerpunkt auf die Darstellung verschiedener Visualisierungsformen dieser Leistungskennzahlen gelegt.
- Source
- Information - Wissenschaft und Praxis. 59(2008) H.1, S.21-31
-
Brodersen, M.; Germann, N.; Schwens, U.: Informationsveranstaltung zum Thema Netzpublikationen : Gemeinsamer Workshop der Deutschen Nationalbibliothek und des Arbeitskreises Elektronisches Publizieren (AKEP) (2007)
0.01
0.009724903 = product of:
0.03889961 = sum of:
0.03889961 = weight(_text_:und in 964) [ClassicSimilarity], result of:
0.03889961 = score(doc=964,freq=10.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.3287631 = fieldWeight in 964, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=964)
0.25 = coord(1/4)
- Abstract
- Am 27. November 2007 veranstalteten die Deutsche Nationalbibliothek (DNB) und der AKEP des Verlegerausschusses des Börsenvereins des Deutschen Buchhandels eine Informationsveranstaltung und einen sich daran anschließenden Expertenworkshop zum Thema Netzpublikationen. Zunächst stand die Vermittlung von Fakten, u. a. zu Ablieferungsverfahren, rechtlichen Rahmenbedingungen und zur Pflichtablieferungsverordnung im Vordergrund. Im weiteren Verlauf des Tages wurde mit Fachleuten der Verlage, insbesondere aus dem Bereich Elektronisches Publizieren, über die Praxis innnerhalb der Verlage und die Auswirkungen der digitalen Pflichtexemplare diskutiert. Zu Veranstaltungsbeginn wurde bereits durch Matthias Ulmer (Ulmer Verlag, Verlegerausschuss im Börsenverein des Deutschen Buchhandels) deutlich, dass sich die Verlage Klarheit hinsichtlich des Ablieferungsverfahrens der elektronischen Pflichtexemplare wünschen, um diese in ihre Pläne zu E-Books im Jahr 2008 einbeziehen zu können. Das Ziel des Workshops bestand im Wesentlichen darin, einen Konsens bezüglich der gemeinsam getragenen Absprachen zu erzielen, die später einem erweiterten Kreis zugänglich gemacht werden sollen. Dies ist ein anspruchsvolles Ziel!
-
Maßun, M.: Collaborative information management in enterprises (2009)
0.01
0.009724903 = product of:
0.03889961 = sum of:
0.03889961 = weight(_text_:und in 91) [ClassicSimilarity], result of:
0.03889961 = score(doc=91,freq=10.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.3287631 = fieldWeight in 91, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=91)
0.25 = coord(1/4)
- Abstract
- Für Mitarbeiter in Unternehmen gestaltet sich der effiziente Umgang mit einer ständig wachsenden Menge elektronisch verfügbarer Informationen schwierig. Die wesentlichen Herausforderungen aus Anwendersicht sind die Fragmentierung von Informationen, die starren Strukturierungsmöglichkeiten in Datenspeichern und die Isolierung von Wissensarbeit. Das anwenderorientierte System TagIt verbindet aktuelle Ansätze aus dem Persönlichen Informationsmanagement (PIM) und Collaborative Tagging. Die Fragmentierung wid durch Unifizierung von Informationen auf Metadaten- und Zugriffsebene überwunden. Starre Strukturen werden durch freie, multiple Strukturen ersetzt
- BK
- 85.20 / Betriebliche Information und Kommunikation
- Classification
- 85.20 / Betriebliche Information und Kommunikation
-
Memmel, T.: User interface specification for interactive software systems : process-, method- and tool-support for interdisciplinary and collaborative requirements modelling and prototyping-driven user interface specification (2009)
0.01
0.009724903 = product of:
0.03889961 = sum of:
0.03889961 = weight(_text_:und in 93) [ClassicSimilarity], result of:
0.03889961 = score(doc=93,freq=10.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.3287631 = fieldWeight in 93, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=93)
0.25 = coord(1/4)
- Abstract
- User-Interface-Spezifikationsprozesse involvieren unterschiedliche Akteure mit jeweils eigenen Ausdrucksmitteln. Dadurch ergeben sich Herausforderungen bei der Umsetzung von Anforderungen in gutes UI-Design. Durch einen Mangel an interdisziplinären und kollaborativen Methoden und Werkzeugen dominieren dabei vor allem textbasierte Spezifikationsdokumente. Diese reichen jedoch mangels Interaktivität nicht aus, um innovative und kreative Prozesse zu unterstützen. In diesem Buch wird eine Spezifikationstechnik vorgestellt, mit der Benutzer-, Aufgaben- und Interaktionsmodelle mit unterschiedlich detailliertem UI-Design verbunden werden. Dadurch entsteht eine erlebbare UI-Simulation, die im Vergleich zu interaktiven UI-Prototypen zusätzlich den visuellen Drill-Down zu Artefakten der Anforderungsermittlung erlaubt. Das Resultat sind interaktive UI-Spezifikationen, mit denen eine höhere Transparenz und Nachvollziehbarkeit im Spezifikationsprozess möglich sind.
-
Rannharter, N.; Teetor, S.: Maintaining an image data base : a use case based on the Digital Research Archive for Byzantium (DIFAB) (2017)
0.01
0.009724903 = product of:
0.03889961 = sum of:
0.03889961 = weight(_text_:und in 4914) [ClassicSimilarity], result of:
0.03889961 = score(doc=4914,freq=10.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.3287631 = fieldWeight in 4914, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=4914)
0.25 = coord(1/4)
- Abstract
- Mit Metadaten versehene, digital archivierte Bilder sind aufgrund ihrer hohen Komplexität eine ständige Herausforderung für den Aufbau von Metadatenstrukturen und für das Beibehalten von adäquaten Metadatenstandards in Bilddatenbanken. Besonders bei Bildern über eine materielle Kultur zeichnet sich diese Komplexität in den diversen Ebenen ab. Zur Verdeutlichung dieser Problematik dient ein einzelnes Monument mit seiner fotographischen Dokumentation als geisteswissenschaftliches Anwendungsbeispiel aus dem Digitalen Forschungsarchiv Byzanz (DiFAB) der Universität Wien. Unter der grundsätzlichen Berücksichtigung der künftigen Anforderungen und der einfachen Navigation von Metadaten beinhaltet dieser Beitrag u. a. die Herausforderungen mit den diversen analogen und digitalen Formen der Dokumentation, der historischen Geographie, der kulturspezifischen Terminologie sowie mit der kunsthistorischen Bedeutung einer exakten und unscharfen Datierung für Forschungsarchive.
- Source
- Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 70(2017) H.2, S.208-224
-
Zurück zur Papierkopie : Artikelversand per E-Mail verstößt gegen gültige Urheberrechtsgesetze (2007)
0.01
0.009616242 = product of:
0.038464967 = sum of:
0.038464967 = weight(_text_:und in 1426) [ClassicSimilarity], result of:
0.038464967 = score(doc=1426,freq=22.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.32508966 = fieldWeight in 1426, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=1426)
0.25 = coord(1/4)
- Abstract
- Das Oberlandesgericht München hat Anfang Mai im langjährigen Rechtsstreit zwischen dem Deutschen Börsenverein und dem Dokumentenversanddienst subito sein mit Spannung erwartetes Urteil gefällt. Nach Auffassung der Münchener Richter verstößt der Service gegen das geltende Urheberrecht und darf in dieser Form nicht weitergeführt werden. Der Musterprozess hat, laut Mitteilung der Technischen Informationsbibliothek Hannover (TIB), auch Einfluss auf die Angebote anderer Dokumentlieferdienste wie Tiborder, der im Bereich von Technik und Naturwissenschaften eine führende Stellung einnimmt.
- Content
- "Der Versand von kopierten Artikeln aus wissenschaftlichen Fachzeitschriften per E-Mail verstößt gegen geltendes Recht - das ist die Kernaussage des vom Oberlandesgericht München verkündeten Urteils. Vorbehaltlich der Revision durch subito würde dieses Urteil die Forschung am Wissenschaftsstandort Deutschland maßgeblich verändern. Zwei Szenarien sind dabei denkbar. Szenario eins: subito und Anbieter von ähnlich agierenden Diensten wie Tiborder stellen den Dokumentenversand komplett auf den Postweg um. Für Kunden wären damit deutliche Komforteinbußen zur bisherigen elektronischen Lieferung verbunden. Die Wartezeit auf bestellte Fachartikel verlängert sich, zumal sich die Papierkopie nicht direkt am PC aufrufen lässt. Szenario zwei: Die Anbieter einigen sich mit den Verlagen über Lizenzen zur Nutzung von Fachartikeln auch auf dem elektronischen Wege. Dies würde eine deutliche Erhöhung der Preise für solche Dienste mit sich bringen. Uwe Rosemann, Direktor der TIB und der Universitätsbibliothek Hannover, sieht speziell im zweiten Szenario eine echte Gefahr für den Wissenschaftsstandort Deutschland: »Sollten die Verlage Lizenzen aushandeln, dann sicherlich zu Konditionen, die zwangsläufig zu großen Preissteigerungen für die Nutzer führen.« Besonders Wissenschaftler im akademischen Bereich und Studierende könnten sich solche Dienste dann nicht mehr leisten. Dass Universitäten und Hochschulen, die unter enormem Kostendruck stünden, weiterhin im bisherigen Rahmen auf solche Dokumentlieferdienste zugreifen könnten, sei unwahrscheinlich. Rosemann weiter: »Damit wird das Niveau der Literaturversorgung entscheidend gesenkt. Ein wesentliches Ziel der Lizenzverhandlung mit den Verlagen muss daher die Etablierung eines angemessen niedrigen Preises für akademische Kunden sein.«
Bereits im Juni 2004 hatten der Börsenverein des Deutschen Buchhandels und die Vereinigung internationaler Fachverlage, Stichting STM, Klage gegen das elektronische Verschicken von kopierten beziehungsweise gescannten Artikeln durch subito erhoben. Besonders Fachverlage sehen den von subito angebotenen Dienst kritisch, bieten sie doch mittlerweile selbst Einzelartikel online zum kostenpflichtigen Download an. In seiner Klageerwiderung argumentierte der Dokumentenlieferdienst damit, dass der angebotene Service im Rahmen der Urheberrechtsgesetze liege und es keine Konkurrenzsituation zwischen subito und den Verlagen gebe. Ob subito gegen das jetzt ergangene Urteil des Oberlandesgerichts München in die Revision geht, stand bei Redaktionsschluss noch nicht fest. Zum Hintergrund: Im Jahre 1999 hatte der Bundesgerichtshof der TIB in einem Grundsatzurteil den Kopienversand ausdrücklich erlaubt. Das Oberlandesgericht München und auch der gegenwärtige Regierungsentwurf zur Reform des Urheberrechts würden die vergleichbare elektronische Form des Kopienversands für das elektronische Zeitalter zunichte machen."
-
Beall, J.: Approaches to expansions : case studies from the German and Vietnamese translations (2003)
0.01
0.009588884 = product of:
0.038355537 = sum of:
0.038355537 = weight(_text_:und in 2748) [ClassicSimilarity], result of:
0.038355537 = score(doc=2748,freq=14.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.32416478 = fieldWeight in 2748, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=2748)
0.25 = coord(1/4)
- Abstract
- Die deutsche und die vietnamesische Übersetzung der DDC entstehen in einer Umgebung, die für den grenzüberschreitenden Umgang mit der DDC günstig ist. Es gibt internationale Gesamtkataloge wie OCLC WorldCat, die die Recherche und das Kopieren von Katalogdaten über Sprachgrenzen hinaus ermöglichen. Bibliothekskataloge sind im Internet verfügbar und werden weltweit benutzt. Viele Nationalbibliotheken nutzen die DDC für Nationalbibliografien, darunter auch solche wie die Nationalbibliotheken von Kanada und der Schweiz, die die DDC in mehr als einer Sprache verwenden.. In internationalen Projekten wie Renardus wird die DDC verwendet. Wenn die DDC über Sprachgrenzen hinaus brauchbar sein soll, dann muss die selbe DDC-Notation in unterschiedlichen Anwendungsbereichen und Sprachen auch dasselbe meinen. Wenn die DDC-Notation 324 in der englischen Standard Edition "The political process" heißt, dann muss damit in den arabischen, französischen, deutschen, griechischen, isländischen, italienischen, norwegischen, russischen, spanischen und vietnamesischen Ausgaben Identisches gemeint sein. Dies bedeutet nicht, dass eine wörtliche Übersetzung erforderlich ist; kulturelle Unterschiede können berücksichtigt werden. So heißt die englische Version von 959.7043 Vietnamese War, 1961-1975 und die vietnamesische Version von 959.7043 Amerikanischer Krieg, 1961-1975; die Notation 959.7043 bezieht sich dennoch auf den selben Krieg. So ist der DDC-basierte Informationsaustausch über die Sprachgrenzen über die Notation 959.7043 weiter möglich.
-
Hermes, H.-J.: AG "Bibliotheken" (AG-BIB) und AG Dezimalklassifikation (AG-DK) : Gemeinsame Tagung der AG-BIB und AG-DK (2005)
0.01
0.009588884 = product of:
0.038355537 = sum of:
0.038355537 = weight(_text_:und in 4654) [ClassicSimilarity], result of:
0.038355537 = score(doc=4654,freq=56.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.32416478 = fieldWeight in 4654, product of:
7.483315 = tf(freq=56.0), with freq of:
56.0 = termFreq=56.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=4654)
0.25 = coord(1/4)
- Abstract
- Die Arbeitsgruppe Bibliotheken (AG BIB) gestaltete wie gewohnt zwei volle Verhandlungstage - wieder gemeinsam mit der AG Dezimalklassifikationen. Organisatorisch ist zu berichten, daß die Arbeitsgemeinschaft sich nunmehr eine Struktur innerhalb der GfKl verordnet hat mit einem gewählten Vorsitzenden (Hermes). Nach wie vor geht es den Bibliothekaren aber um inhaltliche Arbeit im Sinne des bibliothekarischen Beitrags zur Festschrift der GfKI von 2001: "Neues hat Vorrang". Des weiteren sei dem nachfolgenden Tagungsbericht vorangestellt, daß die Langfassungen der Magdeburger Referate wiederum auf den Archivserver MONARCH der Technischen Universität Chemnitz aufgespielt werden. Die einzelnen Beiträge können über die Adresse MONARCH - http://archiv.tu-chemnitz.de/ erreicht werden oder über Suchmaschinen, die über die Eingabe von Autornamen und/oder Titelwörtern schnellstens zum gewünschten Ziel führen.
- Content
- "Inhaltlich hatte sich die AG BIB in den zurückliegenden Jahrestagungen überwiegend den Fragestellungen nach elementaren Sachverhalten in der Inhaltserschließung (Cottbus, Dortmund) zugewandt mit der Konzentration bspsw. auf das Controlling von bibliothekarischen Funktionen. Nach der Abarbeitung dieses Feldes war nunmehr das - kontrastierende - Bedürfnis entstanden zur globalen Betrachtung unseres Arbeitsfeldes. Gefragt war in Magdeburg vor allem die "Draufsicht" auf die Informationslandschaft. Das hierzu passende Leitreferat lieferte Prof. Dr. Jürgen KRAUSE, Leiter des Informationszentrums Sozialwissenschaften, Bonn. Sein Thema: "Informationswesen / Sacherschliessung in Deutschland. Lösungsansätze für eine WeIt der polyzentrischen Informationsversorgung". Ausgehend von einer Informationsversorgung, die in Zeiten des Web unvermeidlich polyzentrisch ist, konzentrierte Krause sich auf die in der heutigen Informationslandschaft vorhandene - und zu überwindende - Heterogenität. Seine Leitlinie: "Standardisierung von der Heterogenität her zu denken". Ein Beispiel: Mit dem genormten Schlagwort "Evaluationsforschung" aus der SWD finden sich in der Universitäts- und Stadtbibliothek 56 Treffer, in der Datenbank SOLIS dagegen 0. Die Suche in SOLIS, durchgeführt mit dem entsprechenden gültigen Schlagwort "wissenschaftliche Begleitung" hätte zu 327 Treffern geführt. Krauses Fazit: angemessenes Retrieval (zu erreichen durch Standardisierung) hilft die "offene Zange" schließen. Seine Rezepte hierzu: Crosskonkordanzen und algorithmische Metadatenermittlung. Beispiele für erste Einsätze dieser Instrumente waren VASCODA und infoconnex. Wobei weitere Forschungen zur bilateralen Vagheitsbehandlung anstehen.
Patrice LANDRY von der Schweizerischen Landesbibliothek, Bern, berichtete über "The recent history of European cooperation: from the "need" to cooperate to the will` to cooperate". Er zeichnete kurz die letzten 25 Jahre verbaler Sacherschließung in den USA und den europäischen Ländern nach, die im 21. Jahrhundert in das Projekt MACS mündete. MACS wird es beispielsweise einem englischsprachigen Benutzer gestatten, seine Suchanfrage englisch einzugeben und Erträge über international verlinkte vielsprachige Suchformulierungen zu bekommen. Nadine SCHMIDT-MÄNZ vom Institut für Entscheidungstheorie u. Unternehmensforschung, Universität Karlsruhe, berichtete über "Suchverhalten im Web: Empirische Ergebnisse". Rund 6000 Benutzer von Suchmaschinen füllten den von ihr hergestellten Online-Fragebogen aus. Einige ihrer Erkenntnisse: Als Suchmaschine wurde mit 91,3 Google benutzt. Die Monopolstellung von Google war den Suchenden nicht bewußt. Einer der Schlüsse der Referentin: Es mangelt nicht an Suchmaschinen, sondern an der "Weiterentwicklung" der Suchenden. Klaus LOTH, Zürich, führte neue Suchverfahren in der Eidgenössischen Technischen Hochschulbibliothek Zürich vor. Das vormals unter dem Akronym ETHICS geschätzte Retrievalsystem wird durch noch bessere Routinen übertroffen - mittlerweile unter der Kurzbezeichnung NEBIS - , die im wesentlichen auf Computerlinguistik basieren. Erschlossen werden Dokumente in englischer, französischer und deutscher Sprache. Kerstin ZIMMERMANN, DERI Innsbruck, stellte herkömmliche Portale vor sowie sog. "Ontologien". Diese erwachsen aus den elementaren Fragen nach "What" (topic), "Who" (person), "When" (time/event), "Where" (location) und "How" (meta). Entscheidend bei den Ontologien: Zur Erstellung ist einiger Aufwand notwendig, der aber sich in Mehrwert auszahlt. Mehr dazu unter http://sw-portal.deri.org/ontologies/swportal.html.
Aus der Truppe der Beiträger, die überwiegend dezimalklassifikatorische Beiträge lieferten, gab Magda HEINER-FREILING, Die Deutsche Bibliothek, Frankfurt, einen Sachstandsbericht zum Projekt "DDC Deutsch" und eine Vorausschau auf die zu erwartenden Dienstleistungen. Festzuhalten ist an dieser Stelle nur soviel, dass die Sachgruppen der Deutschen Nationalbibliografie seit Jahrgang 2004 auf DDC umgestellt sind; damit wurde unsere laufende Nationalbibliografie von einer hausgemachten Systematik in eine international gebräuchliche Klassifikation überführt. Dies entsprach auch der Empfehlung, die im Jahre 1998 von einer Expertenkommission des damaligen Deutschen Bibliotheksinstituts gegeben wurde, die überwiegend mit Mitgliedern der Gesellschaft für Klassifikation besetzt war. Mehr dazu findet sich unter www .ddc-deutsch.de Dr. Andreas STUMM von der Universitätsbibliothek "Georgius Agricola" der Technischen Universität Berbauakademie Freiberg (UB Freiberg) stellte GEO-LEO vor, definiert als die "Virtuelle Fachbibliothek für Geowissenschaften, Bergbau, Geographie und Thematische Karten". GEO-LEO entstand - DFG-gefördert - aus der Zusammenarbeit der geo- und montanwissenschaftlichen Sondersammelgebietsbibliotheken UB Freiberg und der Niedersächsischen Staats- und Universitätsbibliothek Göttingen. Der Nutzer von www.geo-leo.de adressiert mit seiner Suchanfrage (sozusagen unwissentlich) über Z39.50 die OPACs in Freiberg, Göttingen und diejenigen der Partnerbibliotheken GFZ in Potsdam und der ETH-Bibliothek in Zürich. Darüberhinaus werden die Aufsätze in den Online Contents des Anbieters Swets OLC (SSG Geowissenschaften) gefunden sowie über HTTP die herkömmlichen internet-Erträge aus Geo-Guide. Aufgewertet wurden die Retrievalerträge der beteiligten OPACs durch Konkordanzleistung in der Weise, daß klassifikatorische Verbindungen gelegt wurden zwischen Klassifikaten der UDC, DDC und BK sowie der sog. GOK (Göttinger Onlineklassifikation). Dagmar ROTHE, Stellvertretende Vorsitzende der AG Dezimalklassifikationen, lieferte einen Anwenderbericht betreffend ihre Bibliothek. Gegenstand war dementsprechend die Hochschulbibliothek der Hochschule für Technik, Wirtschaft und Kultur (HTWK) in Leipzig. Die entscheidende Charakteristik dieser Bibliothek ist, dass die Bestände nach der Wende durchgängig nach der UDK klassifiziert werden und nach UDK aufgestellt sind. Die gegenwärtige Schwierigkeit der Bibliothek besteht darin, dass das für Sachsen eingeführte OPAL-System Libero in der Version 5.0 anders als die Vorgängerversionen die sachliche Recherche nach DK-Notationen nicht mehr unterstützt. Insoweit schließt der Anwenderbericht mit einer "offenen Frage". Hans-Ulrich SEIFERT von der UB Trier stellte mit dem von der DFG geförderten Projekt Krünitz ein in jeder Hinsicht außergewöhnliches Digitalisierungsvorhaben vor. Es geht um die 140.000 Druckseiten der in 242 Bänden vorliegenden Oekonomisch-Technologischen Encyklopädie von Johann Georg Krünitz, die zwischen 1773 und 1858 entstand. Die Digitalisierung der 140.000 Druckseiten ist inzwischen erfolgt; als problematisch erwies sich gleichwohl, dass allein der lange Erscheinungszeitraum das seinige dazu tat, dass inhaltlich zusammengehörige Sachverhalte an vielerlei Alphabetstellen auftauchen. Hier setzen die Trierer Fachleute die DDC zur Klassifizierung aller Lemmata und Bilder ein und erreichen eine sachliche Gliederung und eine Gesamtschau, die in der Papierausgabe nicht zu erreichen war. Ein Beispiel: Das Suchwort Bier ergab 2.558 Treffer. Mehr hierzu unter www.kruenitz.uni-trier.de Damit endet die Nachlese über die beiden Verhandlungstage anläßlich der GfKl-Jahrestagung in Magdeburg. Sie soll nicht schließen ohne ein Dankeschön an die Universitätsbibliothek Magdeburg und ihre Mitarbeiter, die unsere beiden Arbeitsgruppen in ihrem architektonisch und funktional glänzend gelungenen Neubau freundlich aufgenommen und professionell bestens unterstützt haben."
-
Volltextindexierung von Online-Dissertationen (2006)
0.01
0.009588884 = product of:
0.038355537 = sum of:
0.038355537 = weight(_text_:und in 5874) [ClassicSimilarity], result of:
0.038355537 = score(doc=5874,freq=14.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.32416478 = fieldWeight in 5874, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=5874)
0.25 = coord(1/4)
- Abstract
- Die Deutsche Bibliothek hat die bei ihr gespeicherten Online-Dissertationen für die Indexierung durch Suchmaschinen freigegeben. Anbieter entsprechender Suchdienste haben damit die Möglichkeit, den gesamten Inhalt frei zugänglicher Online-Dissertationen automatisch zu erschließen und über Suchmaschinen zugänglich zu machen.
- Content
- "»Benutzer und Anbieter von Suchdiensten fragen immer häufiger Volltextsuchmöglichkeiten nach. Im Rahmen unserer Strategie, die Bestände Der Deutschen Bibliothek an vielen Stellen und in unterschiedlichen Sichten auffindbar und nutzbar zu machen, erweitern wir mit dieser neuen Option die Schnittstelle zwischen Informationssuchenden und Bibliotheksbeständen«, kommentiert Elisabeth Niggemann. Die Digitalisierung von Büchern wird derzeit international diskutiert. Mit dem Angebot der Volltextindexierung im Bereich Online-Dissertationen nutzt Die Deutsche Bibliothek die Möglichkeiten eines Segments ihrer Sammlung, das bereits in elektronischer Form vorliegt. Dabei wird sie die Volltextindexierung zunächst nicht selbst vornehmen, sondern bietet den Betreibern entsprechender Suchmaschinen die Möglichkeit, dies zu tun. Speicherort der Online-Publikationen bleibt in jedem Fall der Archivserver Der Deutschen Bibliothek. Im Bereich der Suchmaschinenbetreiber werden die aus der Indexierung gewonnenen Suchbegriffe mit einem Link auf den Volltext bei Der Deutschen Bibliothek gespeichert. Zu den ersten Systemen, die das neue Angebot nutzen werden, gehören das Forschungsportal als Projekt des Bundesministeriums für Bildung und Forschung und der Internetsuchdienst Google. Weitere Anfragen liegen der Bibliothek vor. Forschende werden in Zukunft die Volltextindexierung der Online-Dissertationen mit unterschiedlichen Zugangswegen nutzen können."
-
¬Der Alte Realkatalog der Staatsbibliothek ist online (2006)
0.01
0.009588884 = product of:
0.038355537 = sum of:
0.038355537 = weight(_text_:und in 5876) [ClassicSimilarity], result of:
0.038355537 = score(doc=5876,freq=14.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.32416478 = fieldWeight in 5876, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=5876)
0.25 = coord(1/4)
- Abstract
- Wissenschaftshistoriker schätzen den Alten Realkatalog (ARK) der Staatsbibliothek zu Berlin als beinahe unerschöpfliche Quelle der Information; aber auch für alle anderen historisch ausgerichteten wissenschaftlichen Disziplinen, die Literatur aus der Zeit von 1501 bis 1955 benötigen, ist der ARK von unschätzbarem Wert. Ab sofort steht dieses unverzichtbare Nachweisinstrument der internationalen Wissenschaft und Forschung online zur Verfügung: http://ark.staatsbibliothek-berlin.de
- Content
- "Der Alte Realkatalog erschließt rund drei Millionen Titel, den umfangreichsten historischen Druckschriftenbestand in einer deutschen Bibliothek, nach inhaltlich-sachlichen Kriterien. Die Bedeutung des ARK liegt nicht nur in seinem Umfang und seiner feinen Gliederung, sondern auch in seiner fachlichen, geographischen und sprachli chen Universalität begründet. Entstanden ist der rund 1800 Sachbände umfassende Katalog in der zweiten Hälfte des 19. Jahrhunderts; mit dem Erscheinungsjahr 1955 wurde er abgeschlossen, da die Weiterentwicklung der Wissenschaften eine modernere Klassifikation erforderte. Bis heute jedoch werden alle antiquarischen Neuerwerbungen der Staatsbibliothek aus dem Zeitraum 1501 bis 1955 über die ARK-Systematik erschlossen. Bislang konnten Titel, die zwischen 1501 und 1955 erschienen sind, nur auf konventionelle Weise in den Folio-Bänden beziehungsweise in der Mikrofiche-Ausgabe des Alten Realkataloges nach sachlichen Kriterien ermittelt werden. Nun kann dies mit vielfach erweiterten und verbesserten Recherchemöglichkeiten sukzessive auch auf elektronischem Wege erfolgen. Im Rahmen eines Erschließungsprojekts der Abteilung Historische Drucke wurden bereits vierzig Prozent der gesamten Systematik (darunter die Katalogteile Jurisprudenz, Kunst, Orientalische Sprachen und die so genannten Kriegsammlungen) elektronisch erfasst, sodass in ihr geblättert oder mit Suchbegriffen recherchiert werden kann; als Ergebnis werden sämtliche Titel der jeweiligen Systemstelle angezeigt. Insgesamt sind auf diese Weise schon weit über eine Million Bücher zu ermitteln. Dabei werden auch jene Titel angezeigt, die einst zum Bestand der Bibliothek gehörten, jedoch als Kriegsverlust einzustufen sind; so bleibt der bibliographische Nachweis der Werke erhalten und der ursprüngliche Sammlungszusammenhang weiterhin erkennbar."
-
Calishain, T.; Dornfest, R.; Adam, D.J.: Google Pocket Guide (2003)
0.01
0.009588884 = product of:
0.038355537 = sum of:
0.038355537 = weight(_text_:und in 131) [ClassicSimilarity], result of:
0.038355537 = score(doc=131,freq=14.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.32416478 = fieldWeight in 131, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=131)
0.25 = coord(1/4)
- Footnote
- Rez. in: CD Info. 2003, H.10, S.12: "Der Aufwand bei der Internet-Recherche hat sich mit guten Suchmaschinen wie Google verringert. Trotzdem verbringt der Computeranwender eine Menge Zeit mit dem Öffnen und Schließen von Webseiten, die er nie benötigt hätte. Wer die Arbeitsweise und die Möglichkeiten von Google kennt, kann die Suche besser eingrenzen und gelangt oft direkter zur gewünschten Homepage. Der Google Pocket Guide erläutert die Funktionsweise des am meisten verwendeten Suchtools, gibt Tipps zur optimalen Nutzung und liefert gleich einige konkrete Beispiele für deren Verwendung. Neben den Optionen der Erweiterten Suche widmet sich das kleine Taschenbuch auch der Syntax der Website, sodass die Befehle direkt in die Suchmaske eingegeben werden können. Auch Zusatz-Features wie die Bildersuche, der Webkatalog, die Newsgroup-Datenbank sowie der seit Kurzem auch in deutscher Sprache verfügbare News-Bereich werden behandelt. Der Google Pocket Guide erläutert kurz und bündig die wichtigsten Techniken und hilft Zeit und Aufwand zu sparen. Der brandneue Titel ist derzeit leider nur in Englisch verfügbar."