Search (1169 results, page 17 of 59)

  • × language_ss:"e"
  1. Rival, I.: Order - a theory with a view (1989) 0.01
    0.010782304 = product of:
      0.043129217 = sum of:
        0.043129217 = weight(_text_:und in 143) [ClassicSimilarity], result of:
          0.043129217 = score(doc=143,freq=6.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.33931053 = fieldWeight in 143, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=143)
      0.25 = coord(1/4)
    
    Abstract
    Ordnung hat in unserer Alltagssprache eine Fülle von Bedeutungen. Als mathematischer Begriff ist Ordnung mit einer begrenzten Bedeutung festgelegt, die als eine Abstraktion der Beziehungen 'ist enthalten in', 'ist ein Teil von' und 'ist kleiner als' verstanden werden kann. Der mathematische Ordnungsbegriff tritt in vielen Bereichen der Mathematik und ihrer Anwendungen auf. Seine aktuelle Verwendbarkeit, wie etwa im Bereich der theoretischen Informatik, machen die mathematische Ordnungstheorie zu einem attraktiven Teilgebiet der gegenwärtigen Mathematik
    Source
    Klassifikation und Ordnung. Tagungsband 12. Jahrestagung der Gesellschaft für Klassifikation, Darmstadt 17.-19.3.1988. Hrsg.: R. Wille
  2. Neunzert, H.; Rosenberger, B.: Oh Gott, Mathematik? (1997) 0.01
    0.010782304 = product of:
      0.043129217 = sum of:
        0.043129217 = weight(_text_:und in 2312) [ClassicSimilarity], result of:
          0.043129217 = score(doc=2312,freq=6.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.33931053 = fieldWeight in 2312, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2312)
      0.25 = coord(1/4)
    
    Abstract
    Mathematik ist voller neuer Ideen, ist wie das Spiel, wie die Kunst ein Bestandteil, ja vielleicht sogar ein besonders sensibler Repräsentant der Kultur und nicht zuletzt ein unersetzliches Hilfsmittel der Naturwissenschaften, der Technik und der Wirtschaft. Mathematik ist Werkzeug und Spiel, sie liefert auch oft genug einen Anreiz zu philosophieren, zur Besinnung auf rationale Reflexion
  3. Neunzert, H.; Rosenberger, B.: Schlüssel zur Mathematik (1991) 0.01
    0.010782304 = product of:
      0.043129217 = sum of:
        0.043129217 = weight(_text_:und in 2313) [ClassicSimilarity], result of:
          0.043129217 = score(doc=2313,freq=6.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.33931053 = fieldWeight in 2313, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2313)
      0.25 = coord(1/4)
    
    Abstract
    Mathematik ist voller neuer Ideen, ist wie das Spiel, wie die Kunst ein Bestandteil, ja vielleicht sogar ein besonders sensibler Repräsentant der Kultur und nicht zuletzt ein unersetzliches Hilfsmittel der Naturwissenschaften, der Technik und der Wirtschaft. Mathematik ist Werkzeug und Spiel, sie liefert auch oft genug einen Anreiz zu philosophieren, zur Besinnung auf rationale Reflexion
  4. O'Neill, E.T.: OCLC's experience identifying and using works (2004) 0.01
    0.010782304 = product of:
      0.043129217 = sum of:
        0.043129217 = weight(_text_:und in 2459) [ClassicSimilarity], result of:
          0.043129217 = score(doc=2459,freq=6.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.33931053 = fieldWeight in 2459, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2459)
      0.25 = coord(1/4)
    
    Content
    Beitrag anlässlich des FRBR-Workshops für Expertengruppenmitglieder am 8. und 9. Juli 2004 in Der Deutschen Bibliothek mit der Zielsetzung: Die Functional Requirements for Bibliographic Records (FRBR) haben seit ihrer Veröffentlichung 1998 durch die IFLA die bibliothekarische Diskussion befruchtet. Was verbirgt sich hinter den FRBR? Welche Auswirkungen hat dieses Modell, das Beziehungen zwischen Entitäten darstellt, auf Regelwerke, Normdateien, Formate, Online-Kataloge und andere Bereiche? Welche Erfahrungen sind international bereits mit den FRBR gesammelt worden? Können wir die FRBR in Deutschland und Österreich nutzbringend in die Standardisierungsarbeit einbringen?
  5. Tillett, B.: What is FRBR (Functional Requirements for Bibliographic Records)? (2004) 0.01
    0.010782304 = product of:
      0.043129217 = sum of:
        0.043129217 = weight(_text_:und in 2484) [ClassicSimilarity], result of:
          0.043129217 = score(doc=2484,freq=6.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.33931053 = fieldWeight in 2484, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2484)
      0.25 = coord(1/4)
    
    Content
    Beitrag anlässlich des FRBR-Workshops für Expertengruppenmitglieder am 8. und 9. Juli 2004 in Der Deutschen Bibliothek mit der Zielsetzung: Die Functional Requirements for Bibliographic Records (FRBR) haben seit ihrer Veröffentlichung 1998 durch die IFLA die bibliothekarische Diskussion befruchtet. Was verbirgt sich hinter den FRBR? Welche Auswirkungen hat dieses Modell, das Beziehungen zwischen Entitäten darstellt, auf Regelwerke, Normdateien, Formate, Online-Kataloge und andere Bereiche? Welche Erfahrungen sind international bereits mit den FRBR gesammelt worden? Können wir die FRBR in Deutschland und Österreich nutzbringend in die Standardisierungsarbeit einbringen?
  6. Schroeder, K.: Persistent Identifiers im Kontext der Langzeitarchivierung : EPICUR auf dem 2. Bibliothekskongress in Leipzig (2004) 0.01
    0.010782304 = product of:
      0.043129217 = sum of:
        0.043129217 = weight(_text_:und in 2787) [ClassicSimilarity], result of:
          0.043129217 = score(doc=2787,freq=24.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.33931053 = fieldWeight in 2787, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2787)
      0.25 = coord(1/4)
    
    Abstract
    Mit elektronischem Publizieren werden folgende Eigenschaften verbunden: »schnell, kostengünstig, weltweit«. Aber ist das aus Nutzersicht bzw. aus der Perspektive der Autoren ausreichend, um eine Online-Veröffentlichung dauerhaft zu nutzen und zuverlässig zu zitieren? Ein Mechanismus, mit dem netzbasierte Publikationen eindeutig gekennzeichnet werden und jederzeit auffindbar sind, wird durch flüchtige Uniform Resource Locator (URLs) nicht bereitgestellt. Eine Lösung bieten Persistent Identifiers (Pls), wie z. B. Uniform Resource Names (URN)". Damit die Anwendung eines persistenten Adressierungsschemas wie den URNs langfristig gewährleistet werden kann, muss eine Infrastruktur mit einer institutionellen Unterstützung geschaffen werden. Ein wesentlicher Aspekt in diesem Kontext ist die Langzeitarchivierung der digitalen Objekte. Die Darstellung und Erläuterung der Schnittstellen zwischen Langzeitarchivierung und Pls sowie der damit verbundenen Aktivitäten und Ergebnisse des EPICUR-Projektes war Gegenstand des Vortrages von Kathrin Schroeder auf dem diesjährigen z. Bibliothekskongress in Leipzig im Rahmen des Workshops »Technische Aspekte der Langzeitarchivierung«". Es besteht ein enger Zusammenhang zwischen den Bereichen Pls (standortunabhängige, eindeutige Bezeichner für digitale Objekte) und Langzeitarchivierung (Maßnahmen, die dazu dienen, digitale Objekte für die Nachwelt dauerhaft zu erhalten): Pls werden als stabiler Zugriffsmechanismus für digitale Objekte verwendet, die in einem Depotsystem archiviert werden. Ein Depotsystem ist ein »( ...) Archiv für digitale Objekte, in dem Menschen und Systeme als 'Organisation' mit der Aufgabenstellung zusammenwirken, Informationen zu erhalten und einer definierten Nutzerschaft verfügbar zu machen.« Dazu gehören im erweiterten Sinne auch eine Infrastruktur vor der Eingangsschnittstelle des Depotsystems, die zum Transfer digitaler Objekte von den Produzenten in das Archiv dient, und die Infrastruktur der Endnutzer-Umgebungen hinter der Auslieferungsschnittstelle des Depotsystems, in denen die digitalen Objekte benutzt werden sollen. In diesem Umfeld werden Pls in folgenden Bereichen angewendet: - Metadaten, - Datenaustauschformate, - Automatisierte Lieferungen von Objekten in ein Archivsystem, - Depotsystem und - Nutzung von Pls als stabiler Zugriffsmechanismus auf ein Objekt als wichtigster Aspekt für den Endnutzer (Wissenschaftler und Autoren). Im Folgenden werden zu den einzelnen Bereichen die Ergebnisse des EPICUR-Projektes und die Aktivitäten Der Deutschen Bibliothek diskutiert.
  7. Kuhlen, R.: Informationsethik - Die Entwicklung von Normen für den Umgang mit Wissen und Information in elektronischen Räumen (2005) 0.01
    0.010782304 = product of:
      0.043129217 = sum of:
        0.043129217 = weight(_text_:und in 3687) [ClassicSimilarity], result of:
          0.043129217 = score(doc=3687,freq=6.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.33931053 = fieldWeight in 3687, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3687)
      0.25 = coord(1/4)
    
    Source
    Bibliothekswissenschaft - quo vadis? Eine Disziplin zwischen Traditionen und Visionen: Programme - Modelle - Forschungsaufgaben / Library Science - quo vadis? A Discipline between Challenges and Opportunities: Programs - Models - Research Assignments. Mit einem Geleitwort von / With a Preface by Guy St. Clair Consulting Specialist for Knowledge Management and Learning, New York, NY und einem Vorwort von / and a Foreword by Georg Ruppelt Sprecher von / Speaker of BID - Bibliothek & Information Deutschland Bundesvereinigung Deutscher Bibliotheksund Informationsverbände e.V. Hrsg. von P. Hauke
  8. Hapke, T.: 'In-formation' - Informationskompetenz und Lernen im Zeitalter digitaler Bibliotheken (2005) 0.01
    0.010782304 = product of:
      0.043129217 = sum of:
        0.043129217 = weight(_text_:und in 3689) [ClassicSimilarity], result of:
          0.043129217 = score(doc=3689,freq=6.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.33931053 = fieldWeight in 3689, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3689)
      0.25 = coord(1/4)
    
    Source
    Bibliothekswissenschaft - quo vadis? Eine Disziplin zwischen Traditionen und Visionen: Programme - Modelle - Forschungsaufgaben / Library Science - quo vadis? A Discipline between Challenges and Opportunities: Programs - Models - Research Assignments. Mit einem Geleitwort von / With a Preface by Guy St. Clair Consulting Specialist for Knowledge Management and Learning, New York, NY und einem Vorwort von / and a Foreword by Georg Ruppelt Sprecher von / Speaker of BID - Bibliothek & Information Deutschland Bundesvereinigung Deutscher Bibliotheksund Informationsverbände e.V. Hrsg. von P. Hauke
  9. Hengel, C.; Pfeifer, B.: Kooperation der Personennamendatei (PND) mit Wikipedia (2005) 0.01
    0.010782304 = product of:
      0.043129217 = sum of:
        0.043129217 = weight(_text_:und in 4322) [ClassicSimilarity], result of:
          0.043129217 = score(doc=4322,freq=6.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.33931053 = fieldWeight in 4322, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4322)
      0.25 = coord(1/4)
    
    Abstract
    Während des diesjährigen deutschen Bibliothekartages in Düsseldorf vereinbarten Vertreter Der Deutschen Bibliothek und der Internetenzyklopädie Wikipedia eine Kooperation, die die Verlinkung von Personenartikeln in Wikipedia mit den Personensätzen der überregionalen Personennamendatei (PND) zum Ziel hat. Die Verlinkung ermöglicht den Informationssuchenden zunächst unmittelbar den komfortablen direkten Zugang zum Onlinekatalog Der Deutschen Bibliothek mit den Nachweisen der Publikationen von und über die betreffende Person. Über die PND wird die Onlineenzyklopädie Wikipedia mit dem Onlineangebot der Deutschen Nationalbibliografie und dem dahinter stehenden Literaturbestand verbunden.
  10. Bosschieter, P.: Translate the index or index the translation? (2007) 0.01
    0.010782304 = product of:
      0.043129217 = sum of:
        0.043129217 = weight(_text_:und in 736) [ClassicSimilarity], result of:
          0.043129217 = score(doc=736,freq=6.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.33931053 = fieldWeight in 736, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=736)
      0.25 = coord(1/4)
    
    Abstract
    Besser ein Register übersetzen oder die Übersetzung indexieren? Die Autorin beschreibt, wie sie einem wörtlich übersetzten Register Seitenzahlen zugewiesen hat, und erläutert die Schwierigkeiten, denen sie dabei begegnete. Aus dieser Erfahrung heraus spricht sie sich klar gegen diese Methode aus und plädiert stattdessen für eine Neuindexierung.
    Source
    Information - Wissenschaft und Praxis. 58(2007) H.8, S.391-393
  11. Rooney, P.: How I reused my own index (2007) 0.01
    0.010782304 = product of:
      0.043129217 = sum of:
        0.043129217 = weight(_text_:und in 737) [ClassicSimilarity], result of:
          0.043129217 = score(doc=737,freq=6.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.33931053 = fieldWeight in 737, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=737)
      0.25 = coord(1/4)
    
    Abstract
    Recycling eines Buchregisters Eine Index-Revision liegt dann vor, wenn das Register zu einer vorhergehenden Auflage eines Buches für die Neuauflage überarbeitet wird. Es gibt Vor- und Nachteile beim Versuch, einen Index zu überarbeiten - sowie verschiedene Erfolgsmaßstäbe. Eine detaillierte Fallstudie wir vorgestellt und die benutzte Software-Methode beschrieben.
    Source
    Information - Wissenschaft und Praxis. 58(2007) H.8, S.394-398
  12. Fayen, E.G.: Guidelines for the construction, format, and management of monolingual controlled vocabularies : a revision of ANSI/NISO Z39.19 for the 21st century (2007) 0.01
    0.010782304 = product of:
      0.043129217 = sum of:
        0.043129217 = weight(_text_:und in 744) [ClassicSimilarity], result of:
          0.043129217 = score(doc=744,freq=6.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.33931053 = fieldWeight in 744, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=744)
      0.25 = coord(1/4)
    
    Abstract
    Die National Information Standards Organization (NISO) begann im Jahre 2003 mit der Überarbeitung der Norm Z39.19. Die neue Norm erweiterte den Geltungsbereich von Dokumenten auf Inhaltsobjekte und die Abdeckung von Thesauri auf alle Arten kontrollierter Vokabulare. Sie bezieht sich zudem über das reine Papierumfeld hinaus auf geeignete Formate für elektronische Inhalte. Dieser Artikel beschreibt diese Arbeit und die daraus resultierende neue Norm.
    Source
    Information - Wissenschaft und Praxis. 58(2007) H.8, S.445-448
  13. Westmancoat, H.: Implementing OCLC Worldcat local at York St John Library (2011) 0.01
    0.010782304 = product of:
      0.043129217 = sum of:
        0.043129217 = weight(_text_:und in 195) [ClassicSimilarity], result of:
          0.043129217 = score(doc=195,freq=6.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.33931053 = fieldWeight in 195, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=195)
      0.25 = coord(1/4)
    
    Abstract
    Die York St John Universität hat als erste akademische Bibliothek des Vereinigten Königreichs WorldCat Local, das Suchmaschineninterface von OCLC, implementiert. Dieser Beitrag behandelt die technische Implementierung sowie die Usability der Suchoberfläche, betrachtet die Gründe für die Einführung von WorldCat Local und die dabei aufgetretenen Probleme. Für vertiefende Informationen werden Links zum Projekt sowie die durch das JISC finanzierte ausführliche Fallstudie zur Implementierung und Usability des Produktes angeführt.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 64(2011) H.2, S.224-228
  14. Notess, G.R.: Teaching Web search skills : techniques and strategies of top trainers (2006) 0.01
    0.0106977355 = product of:
      0.042790942 = sum of:
        0.042790942 = weight(_text_:und in 201) [ClassicSimilarity], result of:
          0.042790942 = score(doc=201,freq=42.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.3366492 = fieldWeight in 201, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=201)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: Online-Mitteilungen 2007, H.89, S.17-18 (M. Katzmayr): "Eine der Herausforderungen, der sich Web-Trainerinnen regelmäßig ausgesetzt sehen, besteht in der Kurzlebigkeit der Recherchetools und ihrer ständig wechselnden Funktionalitäten. Wer spricht heute noch von den Suchmaschinen AltaVista oder Lycos? (Hoffentlich) niemand mehr. Diese Dynamik in der Internetbranche wirkt allerdings auf viele potentielle Vortragende abschreckend, scheint es doch ein unzumutbarer Aufwand zu sein, sich laufend über neue Entwicklungen zu informieren. Wer darunter leidet oder zum ersten Mal eine Webschulung vorbereitet, sollte einen Blick in das vorliegende Buch werfen. Dessen Autor, Greg. R. Notess ist im Bereich des praktischen Web Information Retrieval kein Unbekannter: der Auskunftsbibliothekar an der Montana State University hat sich als Betreiber der Website Search Engine Showdown (http://www.search engineshowdown.com), vielgereister Vortragender, erfahrener Didaktiker und regelmäßiger Autor der Zeitschrift Online einen exzellenten Ruf in der Internet-Gemeinde erworben. Nun liegen seine Kenntnisse zur Vermittlung der Webrecherche auch als Monographie vor, die sich an Leiterinnen von Webschulungen richtet. Zum einen finden sich darin eine Vielzahl an didaktischen und organisatorischen Hinweisen zur Planung und Durchführung von Webschulungen. So werden z.B. die verschiedenen Typen von Kursteilnehmerinnen beschrieben und welchen Problemen sich Anfängerinnen in der Webrecherche in der Regel gegenübersehen. Es werden die verschiedenen Arten von Schulungen (Frontalvorträge, Schulungen mit Übungsmöglichkeiten und Online-Tutorials) mit ihren jeweiligen Vor- und Nachteilen sowie idealtypischen Einsatzmöglichkeiten dargestellt, weiters werden Hinweise zu Zielsetzungen und Länge von Kursen gegeben.
    Die anderen Kapitel verweisen auf den Inhalt von Webschulungen. Neben der wichtigen Diskussion von terminologischen Fragen - die Fähigkeit zur Differenzierung von Suchmaschine, Metasuchmaschine und Verzeichnis ist immerhin unverzichtbare Grundlage der-Internetkompetenz - wird auf allgemeine Suchfunktionen wie Phrasensuche, Suchoperatoren, Feldsuche etc. eingegangen. Zwei Kapitel befassen sich mit den möglichen Themenschwerpunkten von Webschulungen: als besonders wesentlich werden von Notess unter anderem die Ausformulierung der Fragestellung, der Hinweis auf die Vielfalt der zur Verfügung stehenden Recherchewerkzeuge, die differenzierte Verwendung von Suchmaschinen und Verzeichnissen und die Bewertung der im Web aufgefundenen Information genannt. Durch diese Auswahl wird (im Buch leider nur implizit) verdeutlicht, dass hier ein wesentlicher Schlüssel zur Bewältigung der eingangs erwähnten Problemstellung liegt: durch eine Konzentration auf diese "zukunftssicheren" Themen - sie unterliegen keinen kurzfristigen Änderungen - ist auch die Vorbereitung von Webkursen und die Aktualisierung der Lehrunterlagen ein überschaubarer Aufwand. Eine Strategie, der übrigens auch das vorliegende Buch folgt: es beschränkt sich auf allgemeine Konzepte und Herangehensweisen und vermeidet eine allzu detailreiche Darstellung der gegenwärtig gerade angesagten Tools und Web-Plattformen. Dezidiert aktuell will nur das Kapitel zur Auflistung und kurzen Beschreibung der derzeit wichtigsten Universalsuchmaschinen sein; es ist zum Zeitpunkt des Schreibens dieser Rezension bereits veraltet. Der sehr umfangreiche Anhang enthält neben einem Verzeichnis relevanter Internetquellen eine hilfreiche Fundgrube an Musterbeispielen von Lehrunterlagen zu verschiedensten Webthemen. Ein knappes Literaturverzeichnis und ein sorgfältig gearbeitetes Register beschließen den Band. Fazit: Jene, die vor oder am Beginn ihrer Schulungstätigkeit stehen, sollten diesen durchwegs gelungenen Band unbedingt zu Rate ziehen, und selbst erfahrene Vortragende können sicher das eine oder andere Detail zur Verbesserung ihrer Unterrichtsgestaltung darin finden. Da ein lebendiger und leicht verständlicher Stil gewählt wurde, ist es auch Leserlnnen mit nicht-englischer Muttersprache möglich, das Buch zügig durchzulesen, wobei aufgrund der eingestreuten Anekdoten die Lektüre recht kurzweilig ausfällt. Schließlich ist auch dem Verlag Information Today zu gratulieren: vom Inhaltsverzeichnis über Gliederung und Schriftbild bis hin zum Register ist dieses Buch ein Musterbeispiel guter und zugleich preiswerter verlegerischer Arbeit."
  15. Booth, P.F.: Indexing : the manual of good practice (2001) 0.01
    0.010669397 = product of:
      0.04267759 = sum of:
        0.04267759 = weight(_text_:und in 1968) [ClassicSimilarity], result of:
          0.04267759 = score(doc=1968,freq=94.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.33575743 = fieldWeight in 1968, product of:
              9.69536 = tf(freq=94.0), with freq of:
                94.0 = termFreq=94.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=1968)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: nfd - Information Wissenschaft und Praxis 54(2003) H.7, S.440-442 (R. Fugmann): "Das Buch beginnt mit dem Kapitel "Myths about Indexing" und mit der Nennung von weit verbreiteten Irrtümern über das Indexieren, und zwar vorrangig über das Registermachen. Mit einem einzigen Satz ist die Problematik treffend skizziert, welcher das Buch gewidmet ist: "With the development of electronic documents, it has become possible to store very large amounts of information; but storage is not of much use without the capability to retrieve, to convert, transfer and reuse the information". Kritisiert wird die weit verbreitet anzutreffende Ansicht, das Indexieren sei lediglich eine Sache vom "picking out words from the text or naming objects in images and using those words as index headings". Eine solche Arbeitsweise führt jedoch nicht zu Registern, sondern zu Konkordanzen (d.h. zu alphabetischen Fundstellenlisten für Textwörter) und"... is entirely dependent an the words themselves and is not concerned with the ideas behind them". Das Sammeln von Information ist einfach. Aber die (Wieder-) Auffindbarkeit herzustellen muss gelernt werden, wenn mehr ermöglicht werden soll als lediglich das Wiederfinden von Texten, die man in allen Einzelheiten noch genau in Erinnerung behalten hat (known-item searches, questions of recall), die Details der sprachlichen Ausdrucksweise für die gesuchten Begriffe eingeschlossen. Die Verfasserin beschreibt aus ihrer großen praktischen Erfahrung, welche Schritte hierzu auf der gedanklichen und technischen Ebene unternommen werden müssen. Zu den erstgenannten Schritten rechnet die Abtrennung von Details, welche nicht im Index vertreten sein sollten ("unsought terms"), weil sie mit Sicherheit kein Suchziel darstellen werden und als "false friends" zur Überflutung des Suchenden mit Nebensächlichkeiten führen würden, eine Entscheidung, welche nur mit guter Sachkenntnis gefällt werden kann. All Dasjenige hingegen, was in Gegenwart und Zukunft (!) ein sinnvolles Suchziel darstellen könnte und "sufficiently informative" ist, verdient ein Schlagwort im Register. Man lernt auch durch lehrreiche Beispiele, wodurch ein Textwort unbrauchbar für das Register wird, wenn es dort als (schlechtes) Schlagwort erscheint, herausgelöst aus dem interpretierenden Zusammenhang, in welchen es im Text eingebettet gewesen ist. Auch muss die Vieldeutigkeit bereinigt werden, die fast jedem natursprachigen Wort anhaftet. Sonst wird der Suchende beim Nachschlagen allzu oft in die Irre geführt, und zwar um so öfter, je größer ein diesbezüglich unbereinigter Speicher bereits geworden ist.
    Der Zugang zum Informationsspeicher ist auch von verwandten Begriffen her zu gewährleisten, denn der Suchende lässt sich gern mit seiner Fragestellung zu allgemeineren und vor allem zu spezifischeren Begriffen leiten. Verweisungen der Art "siehe auch" dienen diesem Zweck. Der Zugang ist auch von unterschiedlichen, aber bedeutungsgleichen Ausdrücken mithilfe einer Verweisung von der Art "siehe" zu gewährleisten, denn ein Fragesteller könnte sich mit einem von diesen Synonymen auf die Suche begeben haben und würde dann nicht fündig werden. Auch wird Vieles, wofür ein Suchender sein Schlagwort parat hat, in einem Text nur in wortreicher Umschreibung und paraphrasiert angetroffen ("Terms that may not appear in the text but are likely to be sought by index users"), d.h. praktisch unauffindbar in einer derartig mannigfaltigen Ausdrucksweise. All dies sollte lexikalisch ausgedrückt werden, und zwar in geläufiger Terminologie, denn in dieser Form erfolgt auch die Fragestellung. Hier wird die Grenze zwischen "concept indexing" gegenüber dem bloßen "word indexing" gezogen, welch letzteres sich mit der Präsentation von nicht interpretierten Textwörtern begnügt. Nicht nur ist eine solche Grenze weit verbreitet unbekannt, ihre Existenz wird zuweilen sogar bestritten, obwohl doch ein Wort meistens viele Begriffe ausdrückt und obwohl ein Begriff meistens durch viele verschiedene Wörter und Sätze ausgedrückt wird. Ein Autor kann und muss sich in seinen Texten oft mit Andeutungen begnügen, weil ein Leser oder Zuhörer das Gemeinte schon aus dem Zusammenhang erkennen kann und nicht mit übergroßer Deutlichkeit (spoon feeding) belästigt sein will, was als Unterstellung von Unkenntnis empfunden würde. Für das Retrieval hingegen muss das Gemeinte explizit ausgedrückt werden. In diesem Buch wird deutlich gemacht, was alles an außertextlichem und Hintergrund-Wissen für ein gutes Indexierungsergebnis aufgeboten werden muss, dies auf der Grundlage von sachverständiger und sorgfältiger Interpretation ("The indexer must understand the meaning of a text"). All dies lässt gutes Indexieren nicht nur als professionelle Dienstleistung erscheinen, sondern auch als Kunst. Als Grundlage für all diese Schritte wird ein Thesaurus empfohlen, mit einem gut strukturierten Netzwerk von verwandtschaftlichen Beziehungen und angepasst an den jeweiligen Buchtext. Aber nur selten wird man auf bereits andernorts vorhandene Thesauri zurückgreifen können. Hier wäre ein Hinweis auf einschlägige Literatur zur Thesaurus-Konstruktion nützlich gewesen.
    Es wird auch die Frage erörtert, wer wegen seines Naturells lieber Abstand vom Indexieren nehmen sollte. Diese Ausführungen sind ebenso nützlich wie die konkrete Indexierungsanleitung. Es könnte manch einem erspart bleiben, sich einer Arbeit zuzuwenden, mit der er überfordert wäre. Hier klärt sich auch die oft gestellte Frage, wer ein Register erstellen soll, der Autor oder ein professioneller Indexer: Der Autor ist dieser Aufgabe gewachsen, sofern er das Indexieren gelernt hat, und zwar mehr als lediglich das Entnehmen von Textwörtern (oder ihrer morphologischen Varianten) und deren programmierte Weiterverarbeitung. Auch darf der Autor beim Indexieren nicht nur die eigene Terminologie im Kopf haben. Der professionelle Indexer ist dieser Aufgabe erst recht gewachsen, wenn er sich auf dem Sachgebiet der Texte gut auskennt. Manch ein Buchautor, der glaubt (oder sich einreden lässt), dass er zum Indexieren nur den Markierstift und die Kenntnis vom Alphabet braucht, müsste sich hier den Spiegel vorhalten, oder auch ein Verleger, der in solchen oder ähnlichen Primitivvarianten eine billige und vollwertige Alternative erblickt. Ein Buch dieser Art lädt zu einem Seitenblick auf die Situation der professionellen Indexierung hierzulande ein. Weder ist hier eine Indexierungs-Profession etabliert, noch scheint sie bei Verlegern und Autoren wenigstens so weit bekannt zu sein, dass sich eine solche Profession entwickeln könnte. Das Ergebnis sind Buchregister voller Anfängerfehler, zum Beispiel überfüllt mit unsinnigen Schlagwörtern (Beispiele hierzu sind in diesem Buch aufgeführt) oder mit Schlagwörtern in unvorhersehbaren und dadurch wertlosen Formulierungen, und dies selbst im informationswissenschaftlichen Lehrbuch oder in der Enzyklopädie. Viele Schlagwörter für wichtige Themen fehlen oftmals gänzlich. Das Nachschlagen gestaltet sich dann zur ungeliebten Mühe und Glücksache. Das Ergebnis sind demzufolge hierzulande Bücher meistens weit unter demjenigen Wert, den sie hätten, wenn sie durch ein gutes Register erschlossen wären.
    Die interpretationslos zusammengestellten "Register" sind auch daran zu erkennen, dass ihnen die informativen, mit viel Sprachgefühl und Sachkenntnis formulierten Untereinträge fehlen, für deren Gestaltung im Buch zahlreiche Ratschläge gegeben werden. Das Resümee von Booth lautet: Wenn ein Indexierungsprogramm brauchbare Ergebnisse erbringen soll, dann kann es nicht vollautomatisch sein. Neben diesen Ausführungen zum gedanklichen Teil der Indexierungsarbeit bietet das Buch auch eine Fülle von Ratschlägen zum rein technischen Teil, speziell zur Orthographie und Typographie des Registers. Vieles, was für den anglo-amerikanischen Sprachraum gilt, könnte direkt für deutschsprachige Register übernommen werden. Dies betrifft z.B. die Singular/PluralFrage bei den Schlagwörtern, die Übersichtlichkeit der Registergestaltung, die Verwendung verschiedener Schriftarten, usw. Ratschläge für die praktische Arbeit werden reichlich gegeben, z.B. wie man sich verhält, wenn der Platz für das Register nachträglich eingeschränkt wird oder wenn zusätzlich Platz zur Verfügung gestellt wird. Man erfährt, wo man sich seine Ausbildung holt (und zwar eine, die über die naive Entnahme von Textwörtern und deren programmierte Weiterverarbeitung hinausgeht), wie man Arbeitsverträge abschließt und Kontakte knüpft, z.B. mit künftigen Auftraggebern oder auch mit Fachkollegen zum Erfahrungsaustausch, wie man sich einen gesunden Arbeitsplatz einrichtet und seine Arbeitszeit einteilen sollte, welche Gesellschaften zum Indexierungsproblem es weltweit gibt und welche Fachzeitschriften man sich halten sollte, um auf dem Laufenden zu bleiben. Es werden auch die Registerprobleme bei einer Neuauflage erörtert. Das Buch möchte eine Anleitung nicht nur zum Buchindexieren geben, sondern auch zum Indexieren von Datenbanken für Zeitschriften. Diesen Anspruch erfüllt das Buch jedoch weniger gut, denn auf die dort akuten Probleme wird nicht genügend eingegangen, wie z.B. auf die Problematik der Präkombinationen und einer retrievaltauglichen Syntax, auf das Problem des schleichenden Verlusts an Vokabularübersichtlichkeit, einer ausreichend hohen (anfänglich stets übertrieben erscheinenden) Indexierungsspezifität und des ständigen Kampfs mit den Controllern und Unternehmensberatern, welche glauben, vorrangig bei der Indexierung Kosten einsparen zu können, weil sie den Nutzen einer guten Indexierung nicht messen können, deswegen nicht zu würdigen wissen (und damit letztlich Fortbestand und Zukunft eines ganzen Dokumentationsunternehmens gefährden). Es ist wohltuend zu lesen, dass Perfektion beim Indexieren aus der Sicht späterer Nutzer "kaum" zu erreichen ist (was im angloamerikanischen Sprachgebrauch so viel bedeutet wie "überhaupt nicht").
    Zwar ist das Register zu diesem Buch ein Vorbild, und dem Verlag sei gedankt, dass dem Register neun Prozent vom Buchumfang zugestanden worden sind. Aber auch hier vermisst man noch immer Schlagwörter wie z.B. "Interpretation" oder "Cutter's Rule" (für die Notwendigkeit, die jeweils besttreffenden Schlagwörter aus dem Indexsprachenwortschatz beim Indexieren zu benutzen), alles Themen, die im Buch abgehandelt sind. Wohltuend ist auch die undogmatische Art, in welcher verschiedene formale Indexierungsvarianten als zulässige Alternativen nebeneinander gestellt werden. Unkonventionell ist es beispielsweise im Register zu diesem Buch, dass ein Schlagwort dort auch schon dann durch Untereinträge aufgegliedert wird, wenn es weniger als fünf bis sechs Fundstellenangaben hat. Wohltuend auch die Unvoreingenommenheit, in welcher die Stärken von nicht interpretierter Volltextverarbeitung dort hervorgehoben werden, wo sie zum Zug kommen können, wie z.B. bei simplen Erinnerungs- und Namenrecherchen. Ein wenig ins Auge springender Ratschlag an jeden, der beruflichen oder privaten Schriftwechsel führt oder Fachliteratur liest, verdient hervorgehoben zu werden. Es ist ratsam, frühzeitig mit einer wenigstens rudimentären Indexierung seines Schrifttums zu beginnen, nicht erst dann, wenn einem seine private Sammlung über den Kopf gewachsen ist und wenn sich die Suchfehlschläge häufen und an den Nerven zu zehren beginnen. Die Erinnerung an den Wortlaut der gesuchten Dokumente, worauf man sich anfänglich noch stützen kann, ist nämlich bald verblasst und steht dann nicht mehr als Suchhilfe zur Verfügung. Allerdings wird man für den Eigenbedarf keine derartig ausführliche Einführung in die Theorie und Praxis des Indexierens benötigen, wie sie in diesem Buch geboten wird. Hierfür gibt es andernorts gute Kurzfassungen. Wer dieses Buch als Indexierungsneuling gelesen hat, wird die Indexierungsarbeit und ein Buchregister fortan mit anderen Augen ansehen, nämlich als einen wesentlichen Teil eines Buchs, besonders wenn es sich um ein Nachschlagewerk handelt. Schon eine kurze Einblicknahme in das Buch könnte das Management, einen Verleger oder einen Buchautor davor warnen, all denjenigen Glauben zu schenken, welche behaupten, den Indexer durch ihr vollautomatisches Computerprogramm ersetzen zu können. Das Indexieren umfasst das Übersetzen als einen Teilschritt, nämlich das Übersetzen der Essenz eines Textes oder eines Bildes in eine Indexsprache mit ihrem geregelten Wortschatz. Was man in der Praxis von vollautomatischen Übersetzungen her kennt, selbst von den bisher am weitesten entwickelten Programmen, sollte hier zur Warnung dienen."
  16. New directions in cognitive information retrieval (2005) 0.01
    0.0106552 = product of:
      0.0426208 = sum of:
        0.0426208 = weight(_text_:und in 338) [ClassicSimilarity], result of:
          0.0426208 = score(doc=338,freq=60.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.33531067 = fieldWeight in 338, product of:
              7.745967 = tf(freq=60.0), with freq of:
                60.0 = termFreq=60.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=338)
      0.25 = coord(1/4)
    
    Classification
    ST 270 [Informatik # Monographien # Software und -entwicklung # Datenbanken, Datenbanksysteme, Data base management, Informationssysteme]
    Footnote
    Rez. in: Mitt. VÖB 59(2006) H.3, S.95-98 (O. Oberhauser): "Dieser Sammelband der Herausgeber A. Spink & C. Cole ist kurz vor ihrem im letzten Heft der Mitteilungen der VÖB besprochenen zweiten Buch erschienen. Er wendet sich an Informationswissenschaftler, Bibliothekare, Sozialwissenschaftler sowie Informatiker mit Interesse am Themenbereich Mensch-Computer-Interaktion und präsentiert einen Einblick in die aktuelle Forschung zum kognitiv orientierten Information Retrieval. Diese Richtung, die von der Analyse der Informationsprobleme der Benutzer und deren kognitivem Verhalten bei der Benutzung von Informationssystemen ausgeht, steht in einem gewissen Kontrast zum traditionell vorherrschenden IR-Paradigma, das sich auf die Optimierung der IR-Systeme und ihrer Effizienz konzentriert. "Cognitive information retrieval" oder CIR (natürlich geht es auch hier nicht ohne ein weiteres Akronym ab) ist ein interdisziplinärer Forschungsbereich, der Aktivitäten aus Informationswissenschaft, Informatik, Humanwissenschaften, Kognitionswissenschaft, Mensch-Computer-Interaktion und anderen informationsbezogenen Gebieten inkludiert.
    New Directions ist nach demselben, durchaus ansprechenden Muster "gestrickt" wie das oben erwähnte zweite Buch (tatsächlich war es ja wohl umgekehrt) Der vorliegende Band beinhaltet ebenfalls zwölf Beiträge ("Kapitel"), die in fünf Sektionen dargeboten werden, wobei es sich bei den Sektionen 1 und 5 (=Kapitel 1 und 12) um Einleitung und Zusammenschau der Herausgeber handelt. Erstere ist eine Übersicht über die Gliederung und die Beiträge des Buches, die jeweils mit Abstracts beschrieben werden. Letztere dagegen möchte ein eigenständiger Beitrag sein, der die in diesem Band angesprochenen Aspekte in einen gemeinsamen Bezugsrahmen stellt; de facto ist dies aber weniger gut gelungen als im zweiten Buch, zumal hier hauptsächlich eine Wiederholung des früher Gesagten geboten wird. Die Beiträge aus den drei verbleibenden Hauptsektionen sollen im Folgenden kurz charakterisiert werden:
    CIR Concepts - Interactive information retrieval: Bringing the user to a selection state, von Charles Cole et al. (Montréal), konzentriert sich auf den kognitiven Aspekt von Benutzern bei der Interaktion mit den bzw. der Reaktion auf die vom IR-System ausgesandten Stimuli; "selection" bezieht sich dabei auf die Auswahl, die das System den Benutzern abverlangt und die zur Veränderung ihrer Wissensstrukturen beiträgt. - Cognitive overlaps along the polyrepresentation continuum, von Birger Larsen und Peter Ingwersen (Kopenhagen), beschreibt einen auf Ingwersens Principle of Polyrepresentation beruhenden methodischen Ansatz, der dem IR-System ein breiteres Bild des Benutzers bzw. der Dokumente vermittelt als dies bei herkömmlichen, lediglich anfragebasierten Systemen möglich ist. - Integrating approaches to relevance, von Ian Ruthven (Glasgow), analysiert den Relevanzbegriff und schlägt anstelle des gegenwärtig in IR-Systemverwendeten, eindimensionalen Relevanzkonzepts eine multidimensionale Sichtweise vor. - New cognitive directions, von Nigel Ford (Sheffield), führt neue Begriffe ein: Ford schlägt anstelle von information need und information behaviour die Alternativen knowledge need und knowledge behaviour vor.
    CIR Processes - A multitasking framework for cognitive information retrieval, von Amanda Spink und Charles Cole (Australien/Kanada), sieht - im Gegensatz zu traditionellen Ansätzen - die simultane Bearbeitung verschiedener Aufgaben (Themen) während einer Informationssuche als den Normalfall an und analysiert das damit verbundene Benutzerverhalten. - Explanation in information seeking and retrieval, von Pertti Vakkari und Kalervo Järvelin (Tampere), plädiert anhand zweier empirischer Untersuchungen für die Verwendung des aufgabenorientierten Ansatzes ("task") in der IR-Forschung, gerade auch als Bindeglied zwischen nicht ausreichend mit einander kommunizierenden Disziplinen (Informationswissenschaft, Informatik, diverse Sozialwissenschaften). - Towards an alternative information retrieval system for children, von Jamshid Beheshti et al. (Montréal), berichtet über den Stand der IR-Forschung für Kinder und schlägt vor, eine Metapher aus dem Sozialkonstruktivismus (Lernen als soziales Verhandeln) als Gestaltungsprinzip für einschlägige IR-Systeme zu verwenden. CIR Techniques - Implicit feedback: using behavior to infer relevance, von Diane Kelly (North Carolina), setzt sich kritisch mit den Techniken zur Analyse des von Benutzern von IR-Systemen geäußerten Relevance-Feedbacks - explizit und implizit - auseinander. - Educational knowledge domain visualizations, von Peter Hook und Katy Börner (Indiana), beschreibt verschiedene Visualisierungstechniken zur Repräsentation von Wissensgebieten, die "Novizen" bei der Verwendung fachspezifischer IR-Systeme unterstützen sollen. - Learning and training to search, von Wendy Lucas und Heikki Topi (Massachusetts), analysiert, im breiteren Kontext der Information- Seeking-Forschung, Techniken zur Schulung von Benutzern von IRSystemen.
    Sämtliche Beiträge sind von hohem Niveau und bieten anspruchsvolle Lektüre. Verallgemeinert formuliert, fragen sie nach der Verknüpfung zwischen dem breiteren Kontext des Warum und Wie der menschlichen Informationssuche und den technischen bzw. sonstigen Randbedingungen, die die Interaktion zwischen Benutzern und Systemen bestimmen. Natürlich liegt hier kein Hand- oder Lehrbuch vor, sodass man - fairerweise - nicht von einer systematischen Behandlung dieses Themenbereichs oder einem didaktischen Aufbau ausgehen bzw. derlei erwarten darf. Das Buch bietet jedenfalls einen guten und vielfältigen Einstieg und Einblick in dieses interessante Forschungsgebiet. Fachlich einschlägige und größere allgemeine Bibliotheken sollten es daher jedenfalls in ihren Bestand aufnehmen. Schon die Rezension des oben zitierten zweiten Buches des Herausgeber-Duos Spink-Cole enthielt einen kritischen Hinweis auf das dortige Sachregister. Der vorliegende Band erfordert noch stärkere Nerven, denn der hier als "Index" bezeichnete Seitenfüller spottet geradezu jeder Beschreibung, umso mehr, als wir uns in einem informationswissenschaftlichen Kontext befi nden. Was soll man denn tatsächlich mit Einträgen wie "information" anfangen, noch dazu, wenn dazu über 150 verschiedene Seitenzahlen angegeben werden? Ähnlich verhält es sich mit anderen allgemeinen Begriffen wie z.B. "knowledge", "model", "tasks", "use", "users" - allesamt mit einer gewaltigen Menge von Seitenzahlen versehen und damit ohne Wert! Dieses der Leserschaft wenig dienliche Register ist wohl dem Verlag anzulasten, auch wenn die Herausgeber selbst seine Urheber gewesen sein sollten. Davon abgesehen wurde wieder einmal ein solide gefertigter Band vorgelegt, der allerdings wegen seines hohen Preis eher nur institutionelle Käufer ansprechen wird."
    RVK
    ST 270 [Informatik # Monographien # Software und -entwicklung # Datenbanken, Datenbanksysteme, Data base management, Informationssysteme]
  17. Scientometrics pioneer Eugene Garfield dies : Eugene Garfield, founder of the Institute for Scientific Information and The Scientist, has passed away at age 91 (2017) 0.01
    0.01054811 = product of:
      0.04219244 = sum of:
        0.04219244 = weight(_text_:und in 3460) [ClassicSimilarity], result of:
          0.04219244 = score(doc=3460,freq=30.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.33194062 = fieldWeight in 3460, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3460)
      0.25 = coord(1/4)
    
    Content
    Vgl. auch Open Password, Nr.167 vom 01.03.2017 :"Eugene Garfield, Begründer und Pionier der Zitationsindexierung und der Ziationsanalyse, ohne den die Informationswissenschaft heute anders aussähe, ist im Alter von 91 Jahren gestorben. Er hinterlässt Frau, drei Söhne, eine Tochter, eine Stieftochter, zwei Enkeltöchter und zwei Großelternkinder. Garfield machte seinen ersten Abschluss als Bachelor in Chemie an der Columbia University in New York City im Jahre 1949. 1954 sattelte er einen Abschluss in Bibliothekswissenschaft drauf. 1961 sollte er im Fach strukturelle Linguistik promovieren. Als Chemie-Student war er nach eigenen Angaben weder besonders gut noch besonders glücklich. Sein "Erweckungserlebnis" hatte er auf einer Tagung der American Chemical Society, als er entdeckte, dass sich mit der Suche nach Literatur womöglich ein Lebensunterhalt bestreiten lasse. "So I went to the Chairman of the meeting and said: "How do you get a job in this racket?" Ab 1955 war Garfield zunächst als Berater für pharmazeutische Unternehmen tätig. Dort spezialisierte er sich auf Fachinformationen, indem er Inhalte relevanter Fachzeitschriften erarbeitete. 1955 schlug er in "Science" seine bahnbrechende Idee vor, Zitationen wissenschaftlicher Veröffentlichungen systematisch zu erfassen und Zusammenhänge zwischen Zitaten deutlich zu machen. 1960 gründete Garfield das Institute für Scientific Informationen, dessen CEO er bis 1992 blieb. 1964 brachte er den Scientific Information Index heraus. Weitere Maßgrößen wie der Social Science Index (ab 1973), der Arts and Humanities Citation Index (ab 1978) und der Journal Citation Index folgten. Diese Verzeichnisse wurden in dem "Web of Science" zusammengefasst und als Datenbank elektronisch zugänglich gemacht. Damit wurde es den Forschern ermöglich, die für sie relevante Literatur "at their fingertips" zu finden und sich in ihr zurechtzufinden. Darüber hinaus wurde es mit Hilfe der Rankings von Garfields Messgrößen möglich, die relative wissenschaftliche Bedeutung wissenschaftlicher Beiträge, Autoren, wissenschaftlicher Einrichtungen, Regionen und Länder zu messen.
    Garfield wandte sich im Zusammenhang mit seinen Messgrößen gegen "Bibliographic Negligence" und "Citation Amnesia", Er schrieb 2002: "There will never be a perfect solution to the problem of acknowledging intellectual debts. But a beginning can be made if journal editors will demand a signed pledge from authors that they have searched Medline, Science Citation Index, or other appropriate print and electronic databases." Er warnte aber auch vor einen unsachgemäßen Umgang mit seinen Messgößen und vor übertriebenen Erwartungen an sie in Zusammenhang mit Karriereentscheidungen über Wissenschaftler und Überlebensentscheidungen für wissenschaftliche Einrichtungen. 1982 übernahm die Thomson Corporation ISI für 210 Millionen Dollar. In der heutigen Nachfolgeorganisation Clarivate Analytics sind mehr als 4000 Mitarbeitern in über hundert Ländern beschäftigt. Garfield gründete auch eine Zeitung für Wissenschaftler, speziell für Biowissenschaftler, "The Scientist", die weiterbesteht und als kostenfreier Pushdienst bezogen werden kann. In seinen Beiträgen zur Wissenschaftspolitik kritisierte er beispielsweise die Wissenschaftsberater von Präsident Reagen 1986 als "Advocats of the administration´s science policies, rather than as objective conduits for communication between the president and the science community." Seinen Beitrag, mit dem er darum warb, die Förderung von UNESCO-Forschungsprogrammen fortzusetzen, gab er den Titel: "Let´s stand up für Global Science". Das ist auch in Trump-Zeiten ein guter Titel, da die US-Regierung den Wahrheitsbegriff, auf der Wissenschaft basiert, als bedeutungslos verwirft und sich auf Nationalismus und Abschottung statt auf internationale Kommunikation, Kooperation und gemeinsame Ausschöpfung von Interessen fokussiert."
  18. Spink, A.; Jansen, B.J.: Web searching : public searching of the Web (2004) 0.01
    0.010476108 = product of:
      0.04190443 = sum of:
        0.04190443 = weight(_text_:und in 1443) [ClassicSimilarity], result of:
          0.04190443 = score(doc=1443,freq=58.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.32967478 = fieldWeight in 1443, product of:
              7.615773 = tf(freq=58.0), with freq of:
                58.0 = termFreq=58.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1443)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: Information - Wissenschaft und Praxis 56(2004) H.1, S.61-62 (D. Lewandowski): "Die Autoren des vorliegenden Bandes haben sich in den letzten Jahren durch ihre zahlreichen Veröffentlichungen zum Verhalten von Suchmaschinen-Nutzern einen guten Namen gemacht. Das nun erschienene Buch bietet eine Zusammenfassung der verstreut publizierten Aufsätze und stellt deren Ergebnisse in den Kontext eines umfassenderen Forschungsansatzes. Spink und Jansen verwenden zur Analyse des Nutzungsverhaltens query logs von Suchmaschinen. In diesen werden vom Server Informationen protokolliert, die die Anfragen an diesen Server betreffen. Daten, die aus diesen Dateien gewonnen werden können, sind unter anderem die gestellten Suchanfragen, die Adresse des Rechners, von dem aus die Anfrage gestellt wurde, sowie die aus den Trefferlisten ausgewählten Dokumente. Der klare Vorteil der Analyse von Logfiles liegt in der Möglichkeit, große Datenmengen ohne hohen personellen Aufwand erheben zu können. Die Daten einer Vielzahl anonymer Nutzer können analysiert werden; ohne dass dabei die Datenerhebung das Nutzerverhalten beeinflusst. Dies ist bei Suchmaschinen von besonderer Bedeutung, weil sie im Gegensatz zu den meisten anderen professionellen Information-Retrieval-Systemen nicht nur im beruflichen Kontext, sondern auch (und vor allem) privat genutzt werden. Das Bild des Nutzungsverhaltens wird in Umfragen und Laboruntersuchungen verfälscht, weil Nutzer ihr Anfrageverhalten falsch einschätzen oder aber die Themen ihrer Anfragen nicht nennen möchten. Hier ist vor allem an Suchanfragen, die auf medizinische oder pornographische Inhalte gerichtet sind, zu denken. Die Analyse von Logfiles ist allerdings auch mit Problemen behaftet: So sind nicht alle gewünschten Daten überhaupt in den Logfiles enthalten (es fehlen alle Informationen über den einzelnen Nutzer), es werden keine qualitativen Informationen wie etwa der Grund einer Suche erfasst und die Logfiles sind aufgrund technischer Gegebenheiten teils unvollständig. Die Autoren schließen aus den genannten Vor- und Nachteilen, dass sich Logfiles gut für die Auswertung des Nutzerverhaltens eignen, bei der Auswertung jedoch die Ergebnisse von Untersuchungen, welche andere Methoden verwenden, berücksichtigt werden sollten.
    Den Autoren wurden von den kommerziellen Suchmaschinen AltaVista, Excite und All the Web größere Datenbestände zur Verfügung gestellt. Die ausgewerteten Files umfassten jeweils alle an die jeweilige Suchmaschine an einem bestimmten Tag gestellten Anfragen. Die Daten wurden zwischen 199'] und 2002 erhoben; allerdings liegen nicht von allen Jahren Daten von allen Suchmaschinen vor, so dass einige der festgestellten Unterschiede im Nutzerverhalten sich wohl auf die unterschiedlichen Nutzergruppen der einzelnen Suchmaschinen zurückführen lassen. In einem Fall werden die Nutzergruppen sogar explizit nach den Suchmaschinen getrennt, so dass das Nutzerverhalten der europäischen Nutzer der Suchmaschine All the Web mit dem Verhalten der US-amerikanischen Nutzer verglichen wird. Die Analyse der Logfiles erfolgt auf unterschiedlichen Ebenen: Es werden sowohl die eingegebenen Suchbegriffe, die kompletten Suchanfragen, die Such-Sessions und die Anzahl der angesehenen Ergebnisseiten ermittelt. Bei den Suchbegriffen ist besonders interessant, dass die Spannbreite der Informationsbedürfnisse im Lauf der Jahre deutlich zugenommen hat. Zwar werden 20 Prozent aller eingegebenen Suchbegriffe regelmäßig verwendet, zehn Prozent kamen hingegen nur ein einziges Mal vor. Die thematischen Interessen der Suchmaschinen-Nutzer haben sich im Lauf der letzten Jahre ebenfalls gewandelt. Während in den Anfangsjahren viele Anfragen aus den beiden Themenfeldern Sex und Technologie stammten, gehen diese mittlerweile zurück. Dafür nehmen Anfragen im Bereich E-Commerce zu. Weiterhin zugenommen haben nicht-englischsprachige Begriffe sowie Zahlen und Akronyme. Die Popularität von Suchbegriffen ist auch saisonabhängig und wird durch aktuelle Nachrichten beeinflusst. Auf der Ebene der Suchanfragen zeigt sich weiterhin die vielfach belegte Tatsache, dass Suchanfragen in Web-Suchmaschinen extrem kurz sind. Die durchschnittliche Suchanfrage enthält je nach Suchmaschine zwischen 2,3 und 2,9 Terme. Dies deckt sich mit anderen Untersuchungen zu diesem Thema. Die Länge der Suchanfragen ist in den letzten Jahren leicht steigend; größere Sprünge hin zu längeren Anfragen sind jedoch nicht zu erwarten. Ebenso verhält es sich mit dem Einsatz von Operatoren: Nur etwa in jeder zehnten Anfrage kommen diese vor, wobei die Phrasensuche am häufigsten verwendet wird. Dass die SuchmaschinenNutzer noch weitgehend als Anfänger angesehen werden müssen, zeigt sich auch daran, dass sie pro Suchanfrage nur drei oder vier Dokumente aus der Trefferliste tatsächlich sichten.
    In Hinblick auf die Informationsbedürfnisse ergibt sich eine weitere Besonderheit dadurch, dass Suchmaschinen nicht nur für eine Anfrageform genutzt werden. Eine "Spezialität" der Suchmaschinen ist die Beantwortung von navigationsorientierten Anfragen, beispielsweise nach der Homepage eines Unternehmens. Hier wird keine Menge von Dokumenten oder Fakteninformation verlangt; vielmehr ist eine Navigationshilfe gefragt. Solche Anfragen nehmen weiter zu. Die Untersuchung der Such-Sessions bringt Ergebnisse über die Formulierung und Bearbeitung der Suchanfragen zu einem Informationsbedürfnis zutage. Die Sessions dauern weit überwiegend weniger als 15 Minuten (dies inklusive Sichtung der Dokumente!), wobei etwa fünf Dokumente angesehen werden. Die Anzahl der angesehenen Ergebnisseiten hat im Lauf der Zeit abgenommen; dies könnte darauf zurückzuführen sein, dass es den Suchmaschinen im Lauf der Zeit gelungen ist, die Suchanfragen besser zu beantworten, so dass sich brauchbare Ergebnisse öfter bereits auf der ersten Ergebnisseite finden. Insgesamt bestätigt sich auch hier das Bild vom wenig fortgeschrittenen Suchmaschinen-Nutzer, der nach Eingabe einer unspezifischen Suchanfrage schnelle und gute Ergebnisse erwartet. Der zweite Teil des Buchs widmet sich einigen der bei den Suchmaschinen-Nutzern populären Themen und analysiert das Nutzerverhalten bei solchen Suchen. Dabei werden die eingegebenen Suchbegriffe und Anfragen untersucht. Die Bereiche sind E-Commerce, medizinische Themen, Sex und Multimedia. Anfragen aus dem Bereich E-Commerce sind in der Regel länger als allgemeine Anfragen. Sie werden seltener modifiziert und pro Anfrage werden weniger Dokumente angesehen. Einige generische Ausdrücke wie "shopping" werden sehr häufig verwendet. Der Anteil der E-Commerce-Anfragen ist hoch und die Autoren sehen die Notwendigkeit, spezielle Suchfunktionen für die Suche nach Unternehmenshomepages und Produkten zu erstellen bzw. zu verbessern. Nur zwischen drei und neun Prozent der Anfragen beziehen sich auf medizinische Themen, der Anteil dieser Anfragen nimmt tendenziell ab. Auch der Anteil der Anfragen nach sexuellen Inhalten dürfte mit einem Wert zwischen drei und knapp 1'7 Prozent geringer ausfallen als allgemein angenommen.
    Der relativ hohe Wert von 17 Prozent stammt allerdings aus dem Jahr 1997; seitdem ist eine deutliche Abnahme zu verzeichnen. Betont werden muss außerdem, dass Anfragen nach sexuellen Inhalten nicht mit denen nach Pornographie gleichzusetzen sind. Die Suche nach Multimedia-Inhalten hat sich von den allgemeinen Suchinterfaces der Suchmaschinen hin zu speziellen Suchmasken verschoben, die inzwischen von allen großen Suchmaschinen angeboten werden. Die wichtigste Aussage aus den untersuchten Daten lautet, dass die Suche nach Multimedia-Inhalten komplexer und vor allem interaktiver ist als die übliche Websuche. Die Anfragen sind länger und enthalten zu einem deutlich größeren Teil Operatoren. Bei der Bildersuche stellen weiterhin sexuell orientierte Anfragen den höchsten Anteil. Bei der Bilderund Video-Suche sind die Anfragen deutlich länger als bei der regulären Suche; bei der Audio-Suche sind sie dagegen kürzer. Das vorliegende Werk bietet die bisher umfassendste Analyse des Nutzerverhaltens bezüglich der Web-Suche; insbesondere wurden bisher keine umfassenden, auf längere Zeiträume angelegten Studien vorgelegt, deren Ergebnisse wie im vorliegenden Fall direkt vergleichbar sind. Die Ergebnisse sind valide und ermöglichen es Suchmaschinen-Anbietern wie auch Forschern, künftige Entwicklungen stärker als bisher am tatsächlichen Verhalten der Nutzer auszurichten. Das Buch beschränkt sich allerdings auf die US-amerikanischen Suchmaschinen und deren Nutzer und bezieht nur bei All the Web die europäischen Nutzer ein. Insbesondere die Frage, ob die europäischen oder auch deutschsprachigen Nutzer anders suchen als die amerikanischen, bleibt unbeantwortet. Hier wären weitere Forschungen zu leisten."
  19. ¬Der Kongreß 'In der Bildung liegt die Zukunft' legte den Grundstein für eine neue Bildungsdebatte (2000) 0.01
    0.010439921 = product of:
      0.041759685 = sum of:
        0.041759685 = weight(_text_:und in 4765) [ClassicSimilarity], result of:
          0.041759685 = score(doc=4765,freq=10.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.328536 = fieldWeight in 4765, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4765)
      0.25 = coord(1/4)
    
    Abstract
    Am 25. Januar kamen fast 1.000 Teilnehmerinnen und Teilnehmer aus dem weitverzweigten Bildungsbereich zu dem Kongreß zusammen, um eine zukunftsweisende sozialdemokratische Bildungspolitik zu diskutieren, die sowohl der Chancengleichheit als auch der Leistungsförderung verpflichtet ist. schon im Vorfeld des Kongresses hatten einige führende Politikerinnen und Politiker der SPD das Bildungsmanifest 'Bildung entscheidet über unsere Zukunft. Für eine neue Bildungsinitiative' der Öffentlichkeit vorgestellt. Darin werden die bildungspolitischen Traditionen der SPD aufgegriffen und für unsere Zeit neu formuliert. Dabei stellen sie fest: Bildung ist nicht ein Thema unter vielen, sondern auf dem Wege, die soziale Frage des 21. Jahrhunderts zu werden. Bildung ist immer weniger auf eine Lebensphase, Kindheit und Jugend, zu begrenzen und wird in der Zukunft immer mehr als kontinuierliche Herausforderung die Menschen beschäftigen. Bildung wird in allen Teilen der Gesellschaft einen Ort haben. Die Bildungspolitik hat dementsprechend in dem Handeln der Bundesregierung Vorrang
  20. BMBF fördert Langzeitarchivierung für digitale Daten : Deutsche Bibliothek schließt erste Testhase erfolgreich ab (2006) 0.01
    0.010439921 = product of:
      0.041759685 = sum of:
        0.041759685 = weight(_text_:und in 4970) [ClassicSimilarity], result of:
          0.041759685 = score(doc=4970,freq=10.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.328536 = fieldWeight in 4970, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4970)
      0.25 = coord(1/4)
    
    Abstract
    Digital auf elektronischen Datenträgern vorliegende Informationen können derzeit nur schwer über Jahre gespeichert werden. Im Interesse von Wissenschaft und Forschung muss diese komplexe Aufgabe mit innovativer Technik bewältigt werden.
    Content
    Unter Leitung Der Deutschen Bibliothek wurde jetzt erstmals ein neues System zur digitalen Langzeitarchivierung erfolgreich getestet. Es könne problemlos in bestehende Bibliothekssysteme integriert werden, teilte das Bundesministerium für Bildung und Forschung (BMBF) am 16. Dezember 2005 in Berlin mit. Das BMBF förderte die erste Phase des so genannten »kopalSystems« (www.kopal.langzeitarchivierung.de) mit 4,2Millionen Euro. Es soll auf der CeBIT 2006 öffentlich vorgestellt werden. Dabei sollen dem Publikum die Aufgaben Land Funktionen eines Langzeitarchivs digitaler Informationen mit einem »kopal-Demonstrator« anschaulich u und greifbar vertmittelt werden. Das Projekt »kopal« (Kooperativer Aufbau eines Langzeitarchivs digitaler Informationen) widmet sich der langfristigen Bewahrung Land Bereitstellung digitaler Daten. Dabei kooperieren Die Deutsche Bibliothek, die Niedersächsische Staats- und Universitätsbibliothek Göttingen, die Gesellschaft für wissenschaftliche Datenverarbeitung Göttingen und die IBM Deutschland. Das von ihnen entwickelte System soll künftig mit standardisierten Schnittstellen kooperativ betrieben werden."

Authors

Languages

  • d 32
  • m 3
  • nl 1
  • More… Less…

Types

  • a 748
  • m 298
  • el 96
  • s 91
  • i 21
  • n 17
  • x 11
  • r 10
  • b 7
  • ? 1
  • p 1
  • v 1
  • More… Less…

Themes

Subjects

Classifications