Search (24 results, page 1 of 2)

  • × author_ss:"Mayr, P."
  1. Mayr, P.: Informationsangebote für das Wissenschaftsportal vascoda : eine Bestandsaufnahme (2006) 0.02
    0.015450547 = product of:
      0.06180219 = sum of:
        0.06180219 = weight(_text_:und in 154) [ClassicSimilarity], result of:
          0.06180219 = score(doc=154,freq=26.0), product of:
            0.11666329 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05263717 = queryNorm
            0.5297484 = fieldWeight in 154, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=154)
      0.25 = coord(1/4)
    
    Abstract
    Der Arbeitsbericht ist eine vorläufige Bestandsaufnahme der Informationsangebote der Virtuellen Fachbibliotheken und Informationsverbünde, die in das interdisziplinäre Wissenschaftsportal vascoda integriert werden sollen. Die strukturierte Beschreibung der heterogenen Informationsangebote, insbesondere Internetquellen, Fachdatenbanken/Bibliographien, SSG Online-Contents, OPACs, Volltextserver und Digitalisate konzentriert sich auf ausgewählte Aspekte, die eine Grundlage für weitere Arbeiten und Analysen im Projekt "Modellbildung und Heterogenitätsbehandlung" sind. Die Bestandsaufnahme liegt in der Version 2 vor. Neben der knappen Charakterisierung der Informationstypen und Fachinformationsanbieter wird vor allem der IST-Stand der strukturellen und semantischen Heterogenität der analysierten Bestände beschrieben. Zu diesem Zweck wurden die einzelnen Informationsangebote über deren Eingangswebseiten untersucht und zusätzlich bestehende Daten aus vorherigen Erhebungen einbezogen. Die Bestandsaufnahme der Informationsangebote und Kollektionen zeigt eine große Vielfalt an unterschiedlichen formalen und inhaltlichen Erschließungsformen. Die beobachtbare strukturelle und semantische Heterogenität zwischen den einzelnen Beständen hat weit reichende Folgen für die kontrollierte und begründete Integration und Modellierung der Dokumente. Der Bericht ist verfügbar unter http://www.gesis.orq/Publikationen/Berichte/IZ Arbeitsberichte/pdf/ab 37.pdf und kann über den IZ-Bestellservice als Broschüre angefordert werden.
  2. Mayr, P.: Google Scholar als akademische Suchmaschine (2009) 0.01
    0.013399613 = product of:
      0.053598452 = sum of:
        0.053598452 = weight(_text_:und in 3023) [ClassicSimilarity], result of:
          0.053598452 = score(doc=3023,freq=44.0), product of:
            0.11666329 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05263717 = queryNorm
            0.4594286 = fieldWeight in 3023, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3023)
      0.25 = coord(1/4)
    
    Abstract
    Neben den klassischen Informationsanbietern Bibliothek, Fachinformation und den Verlagen sind Internetsuchmaschinen inzwischen fester Bestandteil bei der Recherche nach wissenschaftlicher Information. Scirus (Elsevier, 2004) und Google Scholar sind zwei Beispiele für Suchdienste kommerzieller Suchmaschinen-Unternehmen, die eine Einschränkung auf den wissenschaftlichen Dokumentenraum anstreben und nennenswerte Dokumentzahlen in allen Disziplinen generieren. Der Vergleich der Treffermengen für beliebige Suchthemen zeigt, dass die Wahl des Suchsystems, des Dokumentenpools und der Dokumenttypen entscheidenden Einfluss auf die Relevanz und damit letztlich auch die Akzeptanz des Suchergebnisses hat. Tabelle 1 verdeutlicht die Mengenunterschiede am Beispiel der Trefferergebnisse für die Suchbegriffe "search engines" bzw. "Suchmaschinen" in der allgemeinen Internetsuchmaschine Google, der wissenschaftlichen Suchmaschine Google Scholar (GS) und der größten fachübergreifenden bibliographischen Literaturdatenbank Web of Science (WoS). Der Anteil der Dokumente, die in diesem Fall eindeutig der Wissenschaft zuzuordnen sind (siehe GS und insbesondere WoS in Tabelle 1), liegt gegenüber der allgemeinen Websuche lediglich im Promille-Bereich. Dieses Beispiel veranschaulicht, dass es ausgesprochen problematisch sein kann, fachwissenschaftliche Fragestellungen ausschließlich mit Internetsuchmaschinen zu recherchieren. Der Anteil der fachwissenschaftlich relevanten Dokumente in diesem Trefferpool ist i. d. R. sehr gering. Damit sinkt die Wahrscheinlichkeit, wissenschaftlich relevantes (z. B. einen Zeitschriftenaufsatz) auf den ersten Trefferseiten zu finden, deutlich ab.
    Die drei oben genannten Suchsysteme (Google, GS und WoS) unterscheiden sich in mehrerlei Hinsicht fundamental und eignen sich daher gut, um in die Grundthematik dieses Artikels einzuleiten. Die obigen Suchsysteme erschließen zunächst unterschiedliche Suchräume, und dies auf sehr spezifische Weise. Während Google frei zugängliche und über Hyperlink adressierbare Dokumente im Internet erfasst, gehen die beiden akademischen Suchsysteme deutlich selektiver bei der Inhaltserschließung vor. Google Scholar erfasst neben frei zugänglichen elektronischen Publikationstypen im Internet hauptsächlich wissenschaftliche Dokumente, die direkt von den akademischen Verlagen bezogen werden. Das WoS, das auf den unterschiedlichen bibliographischen Datenbanken und Zitationsindizes des ehemaligen "Institute for Scientific Information" (ISI) basiert, selektiert gegenüber den rein automatischen brute-force-Ansätzen der Internetsuchmaschine über einen qualitativen Ansatz. In den Datenbanken des WoS werden ausschließlich internationale Fachzeitschriften erfasst, die ein kontrolliertes Peer-Review durchlaufen. Insgesamt werden ca. 12.000 Zeitschriften ausgewertet und über die Datenbank verfügbar gemacht. Wie bereits erwähnt, spielt neben der Abgrenzung der Suchräume und Dokumenttypen die Zugänglichkeit und Relevanz der Dokumente eine entscheidende Bedeutung für den Benutzer. Die neueren technologischen Entwicklungen des Web Information Retrieval (IR), wie sie Google oder GS implementieren, werten insbesondere frei zugängliche Dokumente mit ihrer gesamten Text- und Linkinformation automatisch aus. Diese Verfahren sind vor allem deshalb erfolgreich, weil sie Ergebnislisten nach Relevanz gerankt darstellen, einfach und schnell zu recherchieren sind und direkt auf die Volltexte verweisen. Die qualitativen Verfahren der traditionellen Informationsanbieter (z. B. WoS) hingegen zeigen genau bei diesen Punkten (Ranking, Einfachheit und Volltextzugriff) Schwächen, überzeugen aber vor allem durch ihre Stringenz, in diesem Fall die selektive Aufnahme von qualitätsgeprüften Dokumenten in das System und die inhaltliche Erschließung der Dokumente (siehe dazu Mayr und Petras, 2008).
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 62(2009) H.2, S.19-28
  3. Mayr, P.; Tosques, F.: Webometrische Analysen mit Hilfe der Google Web APIs (2005) 0.01
    0.01224601 = product of:
      0.04898404 = sum of:
        0.04898404 = weight(_text_:und in 3189) [ClassicSimilarity], result of:
          0.04898404 = score(doc=3189,freq=12.0), product of:
            0.11666329 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05263717 = queryNorm
            0.41987535 = fieldWeight in 3189, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3189)
      0.25 = coord(1/4)
    
    Abstract
    Der Report stellt die Möglichkeiten und Einschränkungen der Google Web APIs (Google API) dar. Die Implementierung der Google API anhand einzelner informationswissenschaftlicher Untersuchungen aus der Webometrie ergibt, dass die Google API mit Einschränkungen für internetbezogene Untersuchungen eingesetzt werden können. Vergleiche der Trefferergebnisse über die beiden Google-Schnittstellen Google API und die Standard Weboberfläche Google.com (Google Web) zeigen Unterschiede bezüglich der Reichweite, der Zusammensetzung und Verfügbarkeit. Die Untersuchung basiert auf einfachen und erweiterten Suchanfragen in den Sprachen Deutsch und Englisch. Die analysierten Treffermengen der Google API bestätigen tendenziell frühere Internet-Studien.
    Source
    Information - Wissenschaft und Praxis. 56(2005) H.1, S.41-48
  4. Mayr, P.; Umstätter, W.: ¬Eine bibliometrische Zeitschriftenanalyse mit Jol Scientrometrics und NfD bzw. IWP (2008) 0.01
    0.01224601 = product of:
      0.04898404 = sum of:
        0.04898404 = weight(_text_:und in 2302) [ClassicSimilarity], result of:
          0.04898404 = score(doc=2302,freq=12.0), product of:
            0.11666329 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05263717 = queryNorm
            0.41987535 = fieldWeight in 2302, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2302)
      0.25 = coord(1/4)
    
    Abstract
    In der Studie sind 3.889 Datensätze analysiert worden, die im Zeitraum 1976-2004 in der Datenbank Library and Information Science Abstracts (LISA) im Forschungsbereich der Informetrie nachgewiesen sind und das Wachstum auf diesem Gebiet belegen. Die Studie zeigt anhand einer Bradford-Verteilung (power law) die Kernzeitschriften in diesem Feld und bestätigt auf der Basis dieses LISA-Datensatzes, dass die Gründung einer neuen Zeitschrift, "Journals of Informetrics" (JoI), 2007 etwa zur rechten Zeit erfolgte. Im Verhältnis dazu wird die Entwicklung der Zeitschrift Scientometrics betrachtet und auch die der "Nachrichten für Dokumentation" (NfD) bzw. "Information - Wissenschaft und Praxis" (IWP).
    Source
    Information - Wissenschaft und Praxis. 59(2008) H.6/7, S.353-360
  5. Mayr, P.; Walter, A.-K.: Abdeckung und Aktualität des Suchdienstes Google Scholar (2006) 0.01
    0.012120407 = product of:
      0.04848163 = sum of:
        0.04848163 = weight(_text_:und in 5131) [ClassicSimilarity], result of:
          0.04848163 = score(doc=5131,freq=16.0), product of:
            0.11666329 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05263717 = queryNorm
            0.41556883 = fieldWeight in 5131, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5131)
      0.25 = coord(1/4)
    
    Abstract
    Der Beitrag widmet sich dem neuen Google-Suchdienst Google Scholar. Die Suchmaschine, die ausschließlich wissenschaftliche Dokumente durchsuchen soll, wird mit ihren wichtigsten Funktionen beschrieben und anschließend einem empirischen Test unterzogen. Die durchgeführte Studie basiert auf drei Zeitschriftenlisten: Zeitschriften von Thomson Scientific, Open AccessZeitschriften des Verzeichnisses DOAJ und in der Fachdatenbank SOLIS ausgewertete sozialwissenschaftliche Zeitschriften. Die Abdeckung dieser Zeitschriften durch Google Scholar wurde per Abfrage der Zeitschriftentitel überprüft. Die Studie zeigt Defizite in der Abdeckung und Aktualität des Google Scholarlndex. Weiterhin macht die Studie deutlich, wer die wichtigsten Datenlieferanten für den neuen Suchdienst sind und welche wissenschaftlichen Informationsquellen im Index repräsentiert sind. Die Pluspunkte von Google Scholar liegen in seiner Einfachheit, seiner Suchgeschwindigkeit und letztendlich seiner Kostenfreiheit. Die Recherche in Fachdatenbanken kann Google Scholar trotz sichtbarer Potenziale (z. B. Zitationsanalyse) aber heute aufgrund mangelnder fachlicher Abdeckung und Transparenz nicht ersetzen.
    Source
    Information - Wissenschaft und Praxis. 57(2006) H.3, S.133-140
  6. Mayr, P.; Zapilko, B.; Sure, Y.: ¬Ein Mehr-Thesauri-Szenario auf Basis von SKOS und Crosskonkordanzen (2010) 0.01
    0.012120407 = product of:
      0.04848163 = sum of:
        0.04848163 = weight(_text_:und in 3392) [ClassicSimilarity], result of:
          0.04848163 = score(doc=3392,freq=16.0), product of:
            0.11666329 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05263717 = queryNorm
            0.41556883 = fieldWeight in 3392, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3392)
      0.25 = coord(1/4)
    
    Abstract
    Im August 2009 wurde SKOS "Simple Knowledge Organization System" als neuer Standard für web-basierte kontrollierte Vokabulare durch das W3C veröffentlicht1. SKOS dient als Datenmodell, um kontrollierte Vokabulare über das Web anzubieten sowie technisch und semantisch interoperabel zu machen. Perspektivisch kann die heterogene Landschaft der Erschließungsvokabulare über SKOS vereinheitlicht und vor allem die Inhalte der klassischen Datenbanken (Bereich Fachinformation) für Anwendungen des Semantic Web, beispielsweise als Linked Open Data2 (LOD), zugänglich und stär-ker miteinander vernetzt werden. Vokabulare im SKOS-Format können dabei eine relevante Funktion einnehmen, indem sie als standardisiertes Brückenvokabular dienen und semantische Verlinkung zwischen erschlossenen, veröffentlichten Daten herstellen. Die folgende Fallstudie skizziert ein Szenario mit drei thematisch verwandten Thesauri, die ins SKOS-Format übertragen und inhaltlich über Crosskonkordanzen aus dem Projekt KoMoHe verbunden werden. Die Mapping Properties von SKOS bieten dazu standardisierte Relationen, die denen der Crosskonkordanzen entsprechen. Die beteiligten Thesauri der Fallstudie sind a) TheSoz (Thesaurus Sozialwissenschaften, GESIS), b) STW (Standard-Thesaurus Wirtschaft, ZBW) und c) IBLK-Thesaurus (SWP).
    Footnote
    Beitrag für: 25. Oberhofer Kolloquium 2010: Recherche im Google-Zeitalter - Vollständig und präzise!?.
  7. Mayr, P.: Thesauri, Klassifikationen & Co - die Renaissance der kontrollierten Vokabulare? (2006) 0.01
    0.0113376025 = product of:
      0.04535041 = sum of:
        0.04535041 = weight(_text_:und in 28) [ClassicSimilarity], result of:
          0.04535041 = score(doc=28,freq=14.0), product of:
            0.11666329 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05263717 = queryNorm
            0.38872904 = fieldWeight in 28, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=28)
      0.25 = coord(1/4)
    
    Abstract
    Der Beitrag beschäftigt sich mit aktuellen Entwicklungen im Bereich des Terminologie Mapping zwischen kontrollierten Vokabularen. Die unterschiedlichen Typen und Ausprägungen von kontrollierten Vokabularen - Thesauri, Klassifikationen, Schlagwortnormdaten und kontrollierte Schlagwortlisten - dienen hauptsächlich der inhaltlichen Erschließung von Literatur und anderen Dokumenttypen und werden u. a. in Datenbanksystemen bei der Deskriptorensuche und zum Browsing angeboten. Die Zusammenführung der heterogenen Indexierungssprachen bei der übergreifenden Datenbankrecherche (crossdatabase retrieval) führt jedoch zu Problemen bei der semantischen Integration der zugrunde liegenden Bestände. Der Beitrag stellt in diesem Kontext den Ansatz sowie die bisherigen Ergebnisse des Projekts" Modellbildung und Heterogenitätsbehandlung" vor. Im Anschluss wird auf Bradford's Law of Scattering (BLS) sowie abgeleitete Einsatzmöglichkeiten des BLS im Projekt Bezug genommen: 1) BLS zur Untersuchung der Auswirkungen der Heterogenitätsbehandlung, 2) BLS bzw. Bradfordizing als alternativer, informationswissenschaftlich begründeter Zugangsmechanismus für Zeitschriftenartikel.
    Series
    Beiträge zur Bibliotheks- und Informationswissenschaft; 1
  8. Reichert, S.; Mayr, P.: Untersuchung von Relevanzeigenschaften in einem kontrollierten Eyetracking-Experiment (2012) 0.01
    0.0113376025 = product of:
      0.04535041 = sum of:
        0.04535041 = weight(_text_:und in 328) [ClassicSimilarity], result of:
          0.04535041 = score(doc=328,freq=14.0), product of:
            0.11666329 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05263717 = queryNorm
            0.38872904 = fieldWeight in 328, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=328)
      0.25 = coord(1/4)
    
    Abstract
    In diesem Artikel wird ein Eyetracking-Experiment beschrieben, bei dem untersucht wurde, wann und auf Basis welcher Informationen Relevanzentscheidungen bei der themenbezogenen Dokumentenbewertung fallen und welche Faktoren auf die Relevanzentscheidung einwirken. Nach einer kurzen Einführung werden relevante Studien aufgeführt, in denen Eyetracking als Untersuchungsmethode für Interaktionsverhalten mit Ergebnislisten (Information Seeking Behavior) verwendet wurde. Nutzerverhalten wird hierbei vor allem durch unterschiedliche Aufgaben-Typen, dargestellte Informationen und durch das Ranking eines Ergebnisses beeinflusst. Durch EyetrackingUntersuchungen lassen sich Nutzer außerdem in verschiedene Klassen von Bewertungs- und Lesetypen einordnen. Diese Informationen können als implizites Feedback genutzt werden, um so die Suche zu personalisieren und um die Relevanz von Suchergebnissen ohne aktives Zutun des Users zu erhöhen. In einem explorativen Eyetracking-Experiment mit 12 Studenten der Hochschule Darmstadt werden anhand der Länge der Gesamtbewertung, Anzahl der Fixationen, Anzahl der besuchten Metadatenelemente und Länge des Scanpfades zwei typische Bewertungstypen identifiziert. Das Metadatenfeld Abstract wird im Experiment zuverlässig als wichtigste Dokumenteigenschaft für die Zuordnung von Relevanz ermittelt.
    Source
    Information - Wissenschaft und Praxis. 63(2012) H.3, S.145-156
  9. Mayr, P.; Petras, V.: Crosskonkordanzen : Terminologie Mapping und deren Effektivität für das Information Retrieval 0.01
    0.011179027 = product of:
      0.04471611 = sum of:
        0.04471611 = weight(_text_:und in 1996) [ClassicSimilarity], result of:
          0.04471611 = score(doc=1996,freq=10.0), product of:
            0.11666329 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05263717 = queryNorm
            0.38329202 = fieldWeight in 1996, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1996)
      0.25 = coord(1/4)
    
    Abstract
    Das Bundesministerium für Bildung und Forschung hat eine große Initiative zur Erstellung von Crosskonkordanzen gefördert, die 2007 zu Ende geführt wurde. Die Aufgabe dieser Initiative war die Organisation, die Erstellung und das Management von Crosskonkordanzen zwischen kontrollierten Vokabularen (Thesauri, Klassifikationen, Deskriptorenlisten) in den Sozialwissenschaften und anderen Fachgebieten. 64 Crosskonkordanzen mit mehr als 500.000 Relationen wurden umgesetzt. In der Schlussphase des Projekts wurde eine umfangreiche Evaluation durchgeführt, die die Effektivität der Crosskonkordanzen in unterschiedlichen Informationssystemen testen sollte. Der Artikel berichtet über die Crosskonkordanz-Arbeit und die Evaluationsergebnisse.
  10. Mayr, P.: Bradfordizing als Re-Ranking-Ansatz in Literaturinformationssystemen (2011) 0.01
    0.01049658 = product of:
      0.04198632 = sum of:
        0.04198632 = weight(_text_:und in 4292) [ClassicSimilarity], result of:
          0.04198632 = score(doc=4292,freq=12.0), product of:
            0.11666329 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05263717 = queryNorm
            0.35989314 = fieldWeight in 4292, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4292)
      0.25 = coord(1/4)
    
    Abstract
    In diesem Artikel wird ein Re-Ranking-Ansatz für Suchsysteme vorgestellt, der die Recherche nach wissenschaftlicher Literatur messbar verbessern kann. Das nichttextorientierte Rankingverfahren Bradfordizing wird eingeführt und anschließend im empirischen Teil des Artikels bzgl. der Effektivität für typische fachbezogene Recherche-Topics evaluiert. Dem Bradford Law of Scattering (BLS), auf dem Bradfordizing basiert, liegt zugrunde, dass sich die Literatur zu einem beliebigen Fachgebiet bzw. -thema in Zonen unterschiedlicher Dokumentenkonzentration verteilt. Dem Kernbereich mit hoher Konzentration der Literatur folgen Bereiche mit mittlerer und geringer Konzentration. Bradfordizing sortiert bzw. rankt eine Dokumentmenge damit nach den sogenannten Kernzeitschriften. Der Retrievaltest mit 164 intellektuell bewerteten Fragestellungen in Fachdatenbanken aus den Bereichen Sozial- und Politikwissenschaften, Wirtschaftswissenschaften, Psychologie und Medizin zeigt, dass die Dokumente der Kernzeitschriften signifikant häufiger relevant bewertet werden als Dokumente der zweiten Dokumentzone bzw. den Peripherie-Zeitschriften. Die Implementierung von Bradfordizing und weiteren Re-Rankingverfahren liefert unmittelbare Mehrwerte für den Nutzer.
    Source
    Information - Wissenschaft und Praxis. 62(2011) H.1, S.3-10
  11. Mayr, P.: Bradfordizing mit Katalogdaten : Alternative Sicht auf Suchergebnisse und Publikationsquellen durch Re-Ranking (2010) 0.01
    0.01049658 = product of:
      0.04198632 = sum of:
        0.04198632 = weight(_text_:und in 4301) [ClassicSimilarity], result of:
          0.04198632 = score(doc=4301,freq=12.0), product of:
            0.11666329 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05263717 = queryNorm
            0.35989314 = fieldWeight in 4301, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4301)
      0.25 = coord(1/4)
    
    Abstract
    Nutzer erwarten für Literaturrecherchen in wissenschaftlichen Suchsystemen einen möglichst hohen Anteil an relevanten und qualitativen Dokumenten in den Trefferergebnissen. Insbesondere die Reihenfolge und Struktur der gelisteten Ergebnisse (Ranking) spielt, neben dem direkten Volltextzugriff auf die Dokumente, für viele Nutzer inzwischen eine entscheidende Rolle. Abgegrenzt wird Ranking oder Relevance Ranking von sogenannten Sortierungen zum Beispiel nach dem Erscheinungsjahr der Publikation, obwohl hier die Grenze zu »nach inhaltlicher Relevanz« gerankten Listen konzeptuell nicht sauber zu ziehen ist. Das Ranking von Dokumenten führt letztlich dazu, dass sich die Benutzer fokussiert mit den oberen Treffermengen eines Suchergebnisses beschäftigen. Der mittlere und untere Bereich eines Suchergebnisses wird häufig nicht mehr in Betracht gezogen. Aufgrund der Vielzahl an relevanten und verfügbaren Informationsquellen ist es daher notwendig, Kernbereiche in den Suchräumen zu identifizieren und diese anschließend dem Nutzer hervorgehoben zu präsentieren. Phillipp Mayr fasst hier die Ergebnisse seiner Dissertation zum Thema »Re-Ranking auf Basis von Bradfordizing für die verteilte Suche in Digitalen Bibliotheken« zusammen.
  12. Mayr, P.: Information Retrieval-Mehrwertdienste für Digitale Bibliotheken: : Crosskonkordanzen und Bradfordizing (2010) 0.01
    0.01049658 = product of:
      0.04198632 = sum of:
        0.04198632 = weight(_text_:und in 4910) [ClassicSimilarity], result of:
          0.04198632 = score(doc=4910,freq=12.0), product of:
            0.11666329 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05263717 = queryNorm
            0.35989314 = fieldWeight in 4910, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4910)
      0.25 = coord(1/4)
    
    Abstract
    In dieser Arbeit werden zwei Mehrwertdienste für Suchsysteme vorgestellt, die typische Probleme bei der Recherche nach wissenschaftlicher Literatur behandeln können. Die beiden Mehrwertdienste semantische Heterogenitätsbehandlung am Beispiel Crosskonkordanzen und Re-Ranking auf Basis von Bradfordizing, die in unterschiedlichen Phasen der Suche zum Einsatz kommen, werden in diesem Buch ausführlich beschrieben und evaluiert. Für die Tests wurden Fragestellungen und Daten aus zwei Evaluationsprojekten (CLEF und KoMoHe) verwendet. Die intellektuell bewerteten Dokumente stammen aus insgesamt sieben Fachdatenbanken der Fächer Sozialwissenschaften, Politikwissenschaft, Wirtschaftswissenschaften, Psychologie und Medizin. Die Ergebnisse dieser Arbeit sind in das GESIS-Projekt IRM eingeflossen.
  13. Mayr, P.: Re-Ranking auf Basis von Bradfordizing für die verteilte Suche in Digitalen Bibliotheken (2009) 0.01
    0.010300365 = product of:
      0.04120146 = sum of:
        0.04120146 = weight(_text_:und in 4302) [ClassicSimilarity], result of:
          0.04120146 = score(doc=4302,freq=26.0), product of:
            0.11666329 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05263717 = queryNorm
            0.3531656 = fieldWeight in 4302, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4302)
      0.25 = coord(1/4)
    
    Abstract
    Trotz großer Dokumentmengen für datenbankübergreifende Literaturrecherchen erwarten akademische Nutzer einen möglichst hohen Anteil an relevanten und qualitativen Dokumenten in den Trefferergebnissen. Insbesondere die Reihenfolge und Struktur der gelisteten Ergebnisse (Ranking) spielt, neben dem direkten Volltextzugriff auf die Dokumente, inzwischen eine entscheidende Rolle beim Design von Suchsystemen. Nutzer erwarten weiterhin flexible Informationssysteme, die es unter anderem zulassen, Einfluss auf das Ranking der Dokumente zu nehmen bzw. alternative Rankingverfahren zu verwenden. In dieser Arbeit werden zwei Mehrwertverfahren für Suchsysteme vorgestellt, die die typischen Probleme bei der Recherche nach wissenschaftlicher Literatur behandeln und damit die Recherchesituation messbar verbessern können. Die beiden Mehrwertdienste semantische Heterogenitätsbehandlung am Beispiel Crosskonkordanzen und Re-Ranking auf Basis von Bradfordizing, die in unterschiedlichen Phasen der Suche zum Einsatz kommen, werden hier ausführlich beschrieben und im empirischen Teil der Arbeit bzgl. der Effektivität für typische fachbezogene Recherchen evaluiert. Vorrangiges Ziel der Promotion ist es, zu untersuchen, ob das hier vorgestellte alternative Re-Rankingverfahren Bradfordizing im Anwendungsbereich bibliographischer Datenbanken zum einen operabel ist und zum anderen voraussichtlich gewinnbringend in Informationssystemen eingesetzt und dem Nutzer angeboten werden kann. Für die Tests wurden Fragestellungen und Daten aus zwei Evaluationsprojekten (CLEF und KoMoHe) verwendet. Die intellektuell bewerteten Dokumente stammen aus insgesamt sieben wissenschaftlichen Fachdatenbanken der Fächer Sozialwissenschaften, Politikwissenschaft, Wirtschaftswissenschaften, Psychologie und Medizin. Die Evaluation der Crosskonkordanzen (insgesamt 82 Fragestellungen) zeigt, dass sich die Retrievalergebnisse signifikant für alle Crosskonkordanzen verbessern; es zeigt sich zudem, dass interdisziplinäre Crosskonkordanzen den stärksten (positiven) Effekt auf die Suchergebnisse haben. Die Evaluation des Re-Ranking nach Bradfordizing (insgesamt 164 Fragestellungen) zeigt, dass die Dokumente der Kernzone (Kernzeitschriften) für die meisten Testreihen eine signifikant höhere Precision als Dokumente der Zone 2 und Zone 3 (Peripheriezeitschriften) ergeben. Sowohl für Zeitschriften als auch für Monographien kann dieser Relevanzvorteil nach Bradfordizing auf einer sehr breiten Basis von Themen und Fragestellungen an zwei unabhängigen Dokumentkorpora empirisch nachgewiesen werden.
    Imprint
    Berlin : Humboldt-Universität zu Berlin / Institut für Bibliotheks- und Informationswissenschaft
  14. Daniel, F.; Maier, C.; Mayr, P.; Wirtz, H.-C.: ¬Die Kunden dort bedienen, wo sie sind : DigiAuskunft besteht Bewährungsprobe / Seit Anfang 2006 in Betrieb (2006) 0.01
    0.009998825 = product of:
      0.0399953 = sum of:
        0.0399953 = weight(_text_:und in 5991) [ClassicSimilarity], result of:
          0.0399953 = score(doc=5991,freq=8.0), product of:
            0.11666329 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05263717 = queryNorm
            0.34282678 = fieldWeight in 5991, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5991)
      0.25 = coord(1/4)
    
    Abstract
    Informationen werden heute zunächst im Internet gesucht - auch regelmäßige Bibliotheksnutzer machen dies nicht anders. Die Bibliotheken haben sich darauf eingestellt und mit Online-Katalogen, digitalen Bibliotheken, Volltextbanken und der Endnutzer-Fernleihe virtuelle Dependancen im Netz aufgebaut. Diese Angebote werden idealerweise durch einen digitalen Auskunftsdienst ergänzt. Die Internet-Trainerin Anne Lipow sagte schon vor sechs Jahren zutreffend: »It's the librarian's job, to meet the users where they are...« Auch auf zahlreichen deutschsprachigen Bibliothekswebsites gibt es folglich heute individuelle Beratung und Informationsvermittlung in unterschiedlicher Form: als E-MailKontakt, über Webformulare und in den vergangenen Jahren auch vermehrt als Chat.
  15. Mayr, P.; Mutschke, P.; Schaer, P.; Sure, Y.: Mehrwertdienste für das Information Retrieval (2013) 0.01
    0.009998825 = product of:
      0.0399953 = sum of:
        0.0399953 = weight(_text_:und in 935) [ClassicSimilarity], result of:
          0.0399953 = score(doc=935,freq=8.0), product of:
            0.11666329 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05263717 = queryNorm
            0.34282678 = fieldWeight in 935, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=935)
      0.25 = coord(1/4)
    
    Abstract
    Ziel des Projekts ist die Entwicklung und Erprobung von metadatenbasierten Mehr-wertdiensten für Retrievalumgebungen mit mehreren Datenbanken: a) Search Term Recommender (STR) als Dienst zum automatischen Vorschlagen von Suchbegriffen aus kontrollierten Vokabularen, b) Bradfordizing als Dienst zum Re-Ranking von Ergebnismengen nach Kernzeitschriften und c) Autorenzentralität als Dienst zum Re-Ranking von. Ergebnismengen nach Zentralität der Autoren in Autorennetzwerken. Schwerpunkt des Projektes ist die prototypische mplementierung der drei Mehrwertdienste in einer integrierten Retrieval-Testumgebung und insbesondere deren quantitative und qualitative Evaluation hinsichtlich Verbesserung der Retrievalqualität bei Einsatz der Mehrwertdienste.
  16. Mayr, P.: DigiLink - Die dritte Generation der Linklisten (2005) 0.01
    0.009896271 = product of:
      0.039585084 = sum of:
        0.039585084 = weight(_text_:und in 3582) [ClassicSimilarity], result of:
          0.039585084 = score(doc=3582,freq=6.0), product of:
            0.11666329 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05263717 = queryNorm
            0.33931053 = fieldWeight in 3582, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3582)
      0.25 = coord(1/4)
    
    Abstract
    Als Linklisten "der dritten Generation" werden in diesem Artikel Systeme zur kooperativen Verwaltung von Internetlinks und Datenbankbeschreibungen bezeichnet. Mit DigiLink wird ein Vertreter dieses Typs näher vorgestellt. DigiLink ist eine Eigenentwicklung des hbz, die sich besonders durch hohe Anpassungsfähigkeit im Layout und in der Organisation der verwalteten Bestände auszeichnet. Diese Flexibilität begünstigt den Einsatz in unterschiedlichen Bibliothekstypen, derzeit (April 2005) verwalten knapp 70 Standorte die rund 1.000 Einträge. Ursprünglich als Modul der "Digitalen Bibliothek" konzipiert, wird DigiLink zunehmend auch unabhängig davon eingesetzt und direkt in den eigenen Internetauftritt integriert.
  17. Mayr, P.; Walter, A.-K.: Mapping Knowledge Organization Systems (2008) 0.01
    0.009582023 = product of:
      0.038328093 = sum of:
        0.038328093 = weight(_text_:und in 1676) [ClassicSimilarity], result of:
          0.038328093 = score(doc=1676,freq=10.0), product of:
            0.11666329 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05263717 = queryNorm
            0.328536 = fieldWeight in 1676, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1676)
      0.25 = coord(1/4)
    
    Abstract
    Die Vernetzung der Informationssysteme und Datenbanken aus dem wissenschaftlichen Fachinformationsbereich lässt bislang den Aspekt der Kompatibilität und Konkordanz zwischen kontrollierten Vokabularen (semantische Heterogenität) weitgehend unberücksichtigt. Gerade aber für den inhaltlichen Zugang sachlich heterogen erschlössener Bestände spielen für den Nutzer die semantischen Querverbindungen (Mappings /Crosskonkordanzen) zwischen den zugrunde liegenden Knowledge Organization Systems (KOS) der Datenbanken eine entscheidende Rolle. Der Beitrag stellt Einsatzmöglichkeiten und Beispiele von Crosskonkordanzen (CK) im Projekt "Kompetenznetzwerk Modellbildung und Heterogenitätsbehandlung" (KoMoHe) sowie das Netz der bis dato entstandenen Terminolögie-Überstiege vor. Die am IZ entstandenen CK sollen künftig über einen Terminolögie-Service als Web Service genutzt werden, dieser wird im Beitrag exemplarisch vorgestellt.
    Source
    Kompatibilität, Medien und Ethik in der Wissensorganisation - Compatibility, Media and Ethics in Knowledge Organization: Proceedings der 10. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation Wien, 3.-5. Juli 2006 - Proceedings of the 10th Conference of the German Section of the International Society of Knowledge Organization Vienna, 3-5 July 2006. Ed.: H.P. Ohly, S. Netscher u. K. Mitgutsch
  18. Mayr, P.; Walter, A.-K.: Zum Stand der Heterogenitätsbehandlung in vascoda : Bestandsaufnahme und Ausblick (2007) 0.01
    0.008659236 = product of:
      0.034636945 = sum of:
        0.034636945 = weight(_text_:und in 59) [ClassicSimilarity], result of:
          0.034636945 = score(doc=59,freq=6.0), product of:
            0.11666329 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05263717 = queryNorm
            0.2968967 = fieldWeight in 59, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=59)
      0.25 = coord(1/4)
    
    Abstract
    Der Beitrag stellt das Verfahren zur Erstellung von Crosskonkordanzen (CK) im Projekt "Kompetenznetzwerk Modellbildung und Heterogenitätsbehandlung" (KoMoHe)1 sowie das Netz der bis dato entstandenen Terminologie-Überstiege vor. Neben CK zwischen Indexierungssprachen innerhalb eines Anwendungsgebiets (z.B. Sozial- und Politikwissenschaften), werden Termbeispiele vorgestellt, die Fächer unterschiedlicher Fachgebiete verknüpfen. Es werden weiterhin typische Einsatzszenarien der CK innerhalb von Informationssystemen präsentiert. Die am IZ entstandenen CK sollen künftig über einen Terminologie-Service als Web Service genutzt werden. Der sog. Heterogenitätsservice, der als Term-Umschlüsselungs-Dienst fungieren soll, wird exemplarisch anhand konkreter Fragestellungen vorgeführt.
  19. Mayr, P.; Walter, A.-K.: Einsatzmöglichkeiten von Crosskonkordanzen (2007) 0.01
    0.008080271 = product of:
      0.032321084 = sum of:
        0.032321084 = weight(_text_:und in 162) [ClassicSimilarity], result of:
          0.032321084 = score(doc=162,freq=4.0), product of:
            0.11666329 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05263717 = queryNorm
            0.27704588 = fieldWeight in 162, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=162)
      0.25 = coord(1/4)
    
    Abstract
    Der Beitrag stellt Einsatzmöglichkeiten und spezifische Problembereiche von Crosskonkordanzen (CK) im Projekt "Kompetenznetzwerk Modellbildung und Heterogenitätsbehand lung" (KoMoHe) so wie das Netz der bis dato entstandenen Terminologie-Überstiege vor. Die am IZ entstandenen CK sollen künftig über einen Terminologie-Service als Web Service genutzt werden, dieser wird im Beitrag exemplarisch vorgestellt. Des Weiteren wird ein Testszenario samt Evaluationsdesign beschrieben über das der Mehrwert von Crosskonkordanzen empirisch untersucht werden kann.
  20. Mayr, P.; Mutschke, P.; Petras, V.; Schaer, P.; Sure, Y.: Applying science models for search (2010) 0.01
    0.008080271 = product of:
      0.032321084 = sum of:
        0.032321084 = weight(_text_:und in 4663) [ClassicSimilarity], result of:
          0.032321084 = score(doc=4663,freq=4.0), product of:
            0.11666329 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05263717 = queryNorm
            0.27704588 = fieldWeight in 4663, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4663)
      0.25 = coord(1/4)
    
    Source
    Information und Wissen: global, sozial und frei? Proceedings des 12. Internationalen Symposiums für Informationswissenschaft (ISI 2011) ; Hildesheim, 9. - 11. März 2011. Hrsg.: J. Griesbaum, T. Mandl u. C. Womser-Hacker