Search (126 results, page 4 of 7)

  • × theme_ss:"Informetrie"
  1. Parthey, H.: Stadien der Wissensproduktion in Forschungsinstituten nach Raten der Publikation und Zitation der in ihnen gewonnenen Ergebnisse (1996) 0.01
    0.009595626 = product of:
      0.038382504 = sum of:
        0.038382504 = weight(_text_:und in 5242) [ClassicSimilarity], result of:
          0.038382504 = score(doc=5242,freq=6.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.33931053 = fieldWeight in 5242, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5242)
      0.25 = coord(1/4)
    
    Abstract
    Ausgangspunkt unserer Überlegungen, ob es möglich ist, Stadien der Wissensproduktion nach Raten der Publikation und Zitation der in ihnen gewonnenen Ergebnisse zu erfassen, waren eine institutsbezogene Untersuchung der Zeitschriftennutzung in der Bibliothe eines außeruniversitären Forschungsinstituts durch Zitationsanalyse der Institutspublikationen, denn der Wandel in der Zeitschriftennutzung ergibt sich unter Umständen aus der Art und Weise des Erarbeitens aufeinanderfolgender Stadien der Wissensproduktion
  2. Schramm, R.: Kerninformationen mittels formaler Bewertungskritierien (1996) 0.01
    0.009595626 = product of:
      0.038382504 = sum of:
        0.038382504 = weight(_text_:und in 6258) [ClassicSimilarity], result of:
          0.038382504 = score(doc=6258,freq=6.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.33931053 = fieldWeight in 6258, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=6258)
      0.25 = coord(1/4)
    
    Abstract
    Die Ermittlung von Kerninformationen mittels informetrischer Methoden erfordert die Nutzung formaler Bewertungskriterien wie Publikationshäufigkeit, Zitierhäufigkeit und Patentfamiliengröße. Es werden die Zeitabhängigkeit, die Austauschbarkeit und die Voraussetzungen für die Anwendung der formalen Bewertungskriterien erläutert.
    Source
    Herausforderungen an die Informationswirtschaft: Informationsverdichtung, Informationsbewertung und Datenvisualisierung. Proceedings des 5. Internationalen Symposiums für Informationswissenschaft (ISI'96), Humboldt-Universität zu Berlin, 17.-19. Oktober 1996. Hrsg.: J. Krause u.a
  3. Petersen, A.; Münch, V.: STN® AnaVist(TM) holt verborgenes Wissen aus Recherche-Ergebnissen : Neue Software analysiert und visualisiert Marktaufteilung, Forschung und Patentaktivitäten (2005) 0.01
    0.009595626 = product of:
      0.038382504 = sum of:
        0.038382504 = weight(_text_:und in 3984) [ClassicSimilarity], result of:
          0.038382504 = score(doc=3984,freq=24.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.33931053 = fieldWeight in 3984, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3984)
      0.25 = coord(1/4)
    
    Abstract
    "Im 21. Jahrhundert ist die entscheidende Herausforderung an Informationsdienstleister nicht, Informationen zugänglich, sondern sie optimal nutzbar zu machen", sagt Sabine Brünger-Weilandt, Geschäftsführerin von FIZ Karlsruhe, das den Online-Dienst STN International in internationaler Kooperation betreibt. Informationsprofis, so Brünger-Weilandt weiter, bräuchten hockentwickelte Software für strategisches Informationsmanagement. Als "Antwort auf diesen Bedarf" hat STN International eine neue Software zur Analyse und Visualisierung (A&V) von Rechercheergebnissen aus STN-Datenbanken entwickelt. STN® AnaVistT(TM) wurde auf der DGI Online-Tagung Ende Mai in Frankfurt am Main und auf Benutzertreffen in Frankfurt am Main, München und Essen vorgestellt. Seit 18. Juli 2005 ist das neue A&V-Werkzeug für die öffentliche Nutzung freigegeben (www.stn-international.de).
    Die wichtigsten Funktionen von STN AnaVist sind: - Inhalte aus mehreren Datenbanken sind gleichzeitig auswertbar - Nutzer können Daten aus unterschiedlichen Ouellen suchen, analysieren und visualisieren, u.a. aus der Chemiedatenbank CAplusSM, der Patentdatenbank PCTFULL, und US-amerikanischen Volltextdatenbanken. - Einzigartige Beziehungen zwischen Datenelementen-nur STN AnaVist bietet die Möglichkeit, Beziehungen zwischen sieben unterschiedlichen Feldern aus Datenbankdokumenten - z.B., Firmen, Erfindern, Veröffentlichungsjahren und Konzepten-darzustellen. - Gruppierung und Bereinigung von Daten - vor der Analyse werden Firmen und ihre unterschiedlichen Namensvarianten von einem "Company Name Thesaurus" zusammengefasst. - Konzept-Standardisierung - Durch das CAS-Vokabular werden Fachbegriffe datenbankübergreifend standardisiert, so dass weniger Streuung auftritt. - Interaktive Präsentation der Beziehungen zwischen Daten und Diagrammenwährend der Auswertung können Daten zum besseren Erkennen der Beziehungen farblich hervorgehoben werden. - Flexible Erstellung der auszuwertenden Rechercheergebnisse - Rechercheergebnisse, die als Ausgangsdatensatz für die Analyse verwendet werden sollen, können auf zwei Arten gewonnen werden: zum einen über die in STN® AnaVist(TM) integrierte Konzept-Suchfunktion, zum anderen durch problemlose Übernahme von Suchergebnissen aus der bewährten Software STN Express® with Discover! TM Analysis Edition, Version 8.0
    Source
    Information - Wissenschaft und Praxis. 56(2005) H.5/6, S.319-322
  4. Thelwall, M.; Ruschenburg, T.: Grundlagen und Forschungsfelder der Webometrie (2006) 0.01
    0.009595626 = product of:
      0.038382504 = sum of:
        0.038382504 = weight(_text_:und in 77) [ClassicSimilarity], result of:
          0.038382504 = score(doc=77,freq=6.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.33931053 = fieldWeight in 77, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=77)
      0.25 = coord(1/4)
    
    Abstract
    Die Webometrie ist ein Teilbereich der Informationswissenschaft der zur Zeit auf die Analyse von Linkstrukturen konzentriert ist. Er ist stark von der Zitationsanalyse geprägt, wie der empirische Schwerpunkt auf der Wissenschaftsanalyse zeigt. In diesem Beitrag diskutieren wir die Nutzung linkbasierter Maße in einem breiten informetrischen Kontext und bewerten verschiedene Verfahren, auch im Hinblick auf ihr generelles Potentialfür die Sozialwissenschaften. Dabei wird auch ein allgemeiner Rahmenfür Linkanalysen mit den erforderlichen Arbeitsschritten vorgestellt. Abschließend werden vielversprechende zukünftige Anwendungsfelder der Webometrie benannt, unter besonderer Berücksichtigung der Analyse von Blogs.
    Source
    Information - Wissenschaft und Praxis. 57(2006) H.8, S.401-406
  5. Heidenkummer, P.: Wenn das Undurchschaubare zum Maß wird : Probleme und Schwankungen des Impact Factors (2013) 0.01
    0.009595626 = product of:
      0.038382504 = sum of:
        0.038382504 = weight(_text_:und in 4672) [ClassicSimilarity], result of:
          0.038382504 = score(doc=4672,freq=6.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.33931053 = fieldWeight in 4672, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4672)
      0.25 = coord(1/4)
    
    Abstract
    Der Impact Factor gilt mittlerweile als das bedeutendste Zitationsmaß und wird häufig als Entscheidungskriterium herangezogen. Dabei wird jedoch oftmals ignoriert, dass der Impact Factor als eine mit vielen Problemen behaftete Messgröße angesehen werden muss. Folgender Beitrag setzt sich mit den Kritikpunkten an diesem Indikator auseinander und untersucht, worauf große Schwankungen des Impact Factors zurückgeführt werden können.
  6. Tscherteu, G.; Langreiter, C.: Explorative Netzwerkanalyse im Living Web (2009) 0.01
    0.009595626 = product of:
      0.038382504 = sum of:
        0.038382504 = weight(_text_:und in 4870) [ClassicSimilarity], result of:
          0.038382504 = score(doc=4870,freq=6.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.33931053 = fieldWeight in 4870, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4870)
      0.25 = coord(1/4)
    
    Abstract
    Die Zahl von Netzwerkakteuren steigt ebenso beständig wie die Menge an Inhalten, die von denselbigen produziert wird. Wir stellen visuell orientierte explorative Werkzeuge vor, die bisher unsichtbare Netzwerkprozesse und Zusammenhänge aus der Vogelperspektive darstellen sollen. Anhand unseres Projekts "MemeMapper" untersuchen wir weiters, wie wir als Designer und Entwickler dazu beitragen können, dass sich Nutzer effektiver informieren und an der Produktion von Inhalten in ihrem Netzwerk beteiligen können.
  7. Dorsch, I.; Haustein, S.: Bibliometrie (2023) 0.01
    0.009595626 = product of:
      0.038382504 = sum of:
        0.038382504 = weight(_text_:und in 789) [ClassicSimilarity], result of:
          0.038382504 = score(doc=789,freq=6.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.33931053 = fieldWeight in 789, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=789)
      0.25 = coord(1/4)
    
    Abstract
    Die Bibliometrie ist eine sozialwissenschaftliche Disziplin, die historisch gesehen auf drei Entwicklungen fußt: die positivistisch-funktionalistische Philosophie, soziale Fakten objektiv untersuchen zu können; die Entwicklung von Zitationsindizes und -analyse, um Forschungsleistung zu messen; und die Entdeckung mathematischer Gesetzmäßigkeiten, die die Anwendung von Indikatoren in der Wissenschaftsevaluation ermöglichten.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  8. Scientometrics pioneer Eugene Garfield dies : Eugene Garfield, founder of the Institute for Scientific Information and The Scientist, has passed away at age 91 (2017) 0.01
    0.009387206 = product of:
      0.037548825 = sum of:
        0.037548825 = weight(_text_:und in 3460) [ClassicSimilarity], result of:
          0.037548825 = score(doc=3460,freq=30.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.33194062 = fieldWeight in 3460, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3460)
      0.25 = coord(1/4)
    
    Content
    Vgl. auch Open Password, Nr.167 vom 01.03.2017 :"Eugene Garfield, Begründer und Pionier der Zitationsindexierung und der Ziationsanalyse, ohne den die Informationswissenschaft heute anders aussähe, ist im Alter von 91 Jahren gestorben. Er hinterlässt Frau, drei Söhne, eine Tochter, eine Stieftochter, zwei Enkeltöchter und zwei Großelternkinder. Garfield machte seinen ersten Abschluss als Bachelor in Chemie an der Columbia University in New York City im Jahre 1949. 1954 sattelte er einen Abschluss in Bibliothekswissenschaft drauf. 1961 sollte er im Fach strukturelle Linguistik promovieren. Als Chemie-Student war er nach eigenen Angaben weder besonders gut noch besonders glücklich. Sein "Erweckungserlebnis" hatte er auf einer Tagung der American Chemical Society, als er entdeckte, dass sich mit der Suche nach Literatur womöglich ein Lebensunterhalt bestreiten lasse. "So I went to the Chairman of the meeting and said: "How do you get a job in this racket?" Ab 1955 war Garfield zunächst als Berater für pharmazeutische Unternehmen tätig. Dort spezialisierte er sich auf Fachinformationen, indem er Inhalte relevanter Fachzeitschriften erarbeitete. 1955 schlug er in "Science" seine bahnbrechende Idee vor, Zitationen wissenschaftlicher Veröffentlichungen systematisch zu erfassen und Zusammenhänge zwischen Zitaten deutlich zu machen. 1960 gründete Garfield das Institute für Scientific Informationen, dessen CEO er bis 1992 blieb. 1964 brachte er den Scientific Information Index heraus. Weitere Maßgrößen wie der Social Science Index (ab 1973), der Arts and Humanities Citation Index (ab 1978) und der Journal Citation Index folgten. Diese Verzeichnisse wurden in dem "Web of Science" zusammengefasst und als Datenbank elektronisch zugänglich gemacht. Damit wurde es den Forschern ermöglich, die für sie relevante Literatur "at their fingertips" zu finden und sich in ihr zurechtzufinden. Darüber hinaus wurde es mit Hilfe der Rankings von Garfields Messgrößen möglich, die relative wissenschaftliche Bedeutung wissenschaftlicher Beiträge, Autoren, wissenschaftlicher Einrichtungen, Regionen und Länder zu messen.
    Garfield wandte sich im Zusammenhang mit seinen Messgrößen gegen "Bibliographic Negligence" und "Citation Amnesia", Er schrieb 2002: "There will never be a perfect solution to the problem of acknowledging intellectual debts. But a beginning can be made if journal editors will demand a signed pledge from authors that they have searched Medline, Science Citation Index, or other appropriate print and electronic databases." Er warnte aber auch vor einen unsachgemäßen Umgang mit seinen Messgößen und vor übertriebenen Erwartungen an sie in Zusammenhang mit Karriereentscheidungen über Wissenschaftler und Überlebensentscheidungen für wissenschaftliche Einrichtungen. 1982 übernahm die Thomson Corporation ISI für 210 Millionen Dollar. In der heutigen Nachfolgeorganisation Clarivate Analytics sind mehr als 4000 Mitarbeitern in über hundert Ländern beschäftigt. Garfield gründete auch eine Zeitung für Wissenschaftler, speziell für Biowissenschaftler, "The Scientist", die weiterbesteht und als kostenfreier Pushdienst bezogen werden kann. In seinen Beiträgen zur Wissenschaftspolitik kritisierte er beispielsweise die Wissenschaftsberater von Präsident Reagen 1986 als "Advocats of the administration´s science policies, rather than as objective conduits for communication between the president and the science community." Seinen Beitrag, mit dem er darum warb, die Förderung von UNESCO-Forschungsprogrammen fortzusetzen, gab er den Titel: "Let´s stand up für Global Science". Das ist auch in Trump-Zeiten ein guter Titel, da die US-Regierung den Wahrheitsbegriff, auf der Wissenschaft basiert, als bedeutungslos verwirft und sich auf Nationalismus und Abschottung statt auf internationale Kommunikation, Kooperation und gemeinsame Ausschöpfung von Interessen fokussiert."
  9. Schlögl, C.; Gorraiz, J.; Bart, C.; Bargmann, M.: Messen und gemessen werden : Möglichkeiten und Grenzen quantitativer Forschungsevaluierungen am Beispiel eines Institutsvergleichs (2001) 0.01
    0.009290924 = product of:
      0.037163697 = sum of:
        0.037163697 = weight(_text_:und in 5958) [ClassicSimilarity], result of:
          0.037163697 = score(doc=5958,freq=10.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.328536 = fieldWeight in 5958, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5958)
      0.25 = coord(1/4)
    
    Abstract
    Es wird eine Studie vorgestellt, bei der zwei Universitätsinstitute einer quantitativen Evaluierung unterzogen wurden. Hauptziel war es, Möglichkeiten und Grenzen einer quantitativen Institutsevaluierung aufzuzeigen. Zu diesem Zweck wurde eine mehrdimensionale Institutsbewertung durchgeführt. Als Datenquellen dienten dabei die von den Instituten selbst verfassten Tätigkeitsberichte sowie mehrere bibliografische Datenbanken (Inspec, SCI, HEP). Die Untersuchung kommt zum Schluss, dass eine quantitative Institutsevaluierung nicht nur von den zugrunde liegenden Indikatoren, sondern auch von den verwendeten Datenquellen abhängt. Aus diesem Grund ist eine vereinfachte und beschleunigte quantitative Institutsevaluierung mit Hilfe von Datenbanken nur eingeschränkt möglich. Bei der Ermittlung der Produktivitätszahlen besteht das Hauptproblem in den verschiedenen Abdeckungsgraden der einzelnen Datenbanken. Darüber hinaus ist bei vielen Datenbanken nur eine eingeschränkte Recherche nach den Institutsangaben möglich
    Source
    nfd Information - Wissenschaft und Praxis. 52(2001) H.4, S.221-228
  10. Umstätter, W.: Szientometrische Verfahren (2004) 0.01
    0.009187113 = product of:
      0.03674845 = sum of:
        0.03674845 = weight(_text_:und in 2920) [ClassicSimilarity], result of:
          0.03674845 = score(doc=2920,freq=22.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.3248651 = fieldWeight in 2920, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2920)
      0.25 = coord(1/4)
    
    Abstract
    Die Szientometrie beschäftigt sich mit der Messbarkeit wissenschaftlicher Leistungen anhand bibliothekarisch nachweisbarer Publikationsergebnisse. Bei genauer Betrachtung ist es ihr Ziel, die Wissenszunahme der Wissenschaft zu messen. Die wissenschaftliche Produktion in Form von Publikationen wächst seit über dreihundert Jahren konstant mit ca. 3,5% pro Jahr. Das entspricht einerVerdopplungsrate von 20 Jahren, die zuerst dem Bibliothekar Fremont Rider 1948 bei Büchern auffiel und die 1963 von Derek J. de Solla Price auch für das Wachstum von Zeitschriften und Bibliografien bestätigt wurde. Die Konstanz dieser Evolution, unabhängig aller sich ereignenden Katastrophen, ist nur zum Teil verstanden, macht aber den unaufhaltsamen Fortschritt der Wissenschaft deutlich. Alle 20 Jahre wird so viel publiziert wie in allen Jahrhunderten davor. Eine etwa gleiche Zunahme verzeichnen die Wissenschaftler, die damit etwa gleich produktiv bleiben. Von ihnen allen sind damit ca. 87% unsere heutigen Zeitgenossen. Aus diesem Wachstum heraus können wir abschätzen, dass in 100.000 laufenden Zeitschriften heute etwa 10 Mio. Publikationen jährlich erscheinen, die von 10 Mio. Wissenschaftlern verfasst werden. Dabei definieren sich nur die als Wissenschaftler, die durchschnittlich eine Publikation jährlich verfassen. Die gesamte Produktion an Buchtiteln, die bisher erschien, dürfte bei etwa 100 Mio. liegen. Davon sind etwa 20 Mio. als wissenschaftlich einzustufen. Wenn folglich 87% aller Wissenschaftler noch heute leben, so betrug die Gesamtzahl der Wissenschaftler in der Welt bisher 11,5 Mio., die in ihrem Leben durchschnittlich 1,5 Bücher pro Kopf verfassten, und etwa das 10-20fache an Zeitschriftenbeiträgen leisteten. Ein Teil dieser Bücher sind allerdings Neuauflagen und Übersetzungen. Nach Lotka, A. J. ist die Produktivität der Wissenschaftler eine schiefe Verteilung von der Form A/n**2, wobei A die Zahl der Autoren mit nur einer Publikation ist und n die Publikationen pro Autor. Während Price in seinen "Networks of Scientific Papers" Vergleichswerte von n**2,5 bis n**3 angab, zeigten Untersuchungen am Science Citation Index (SCI), die auf die gesamte naturwissenschaftliche Literatur hochgerechnet wurden, eher einen Wert von n**1,7. Auf die Tatsache, dass eine Verdopplungsrate der Wissenschaftler von 20 Jahren und eine solche der Menschheit von etwa 50 Jahren dazu führt, dass eines Tages alle Menschen Wissenschaftler werden, hat Price bereits 1963 hingewiesen. Dieser Zustand müsste bei 10 Mio. Wissenschaftlern und 6 Mrd. Menschen in etwa 300 Jahren eintreten, ein nur scheinbar absurder Gedanke, wenn man bedenkt, dass man sich vor 300 Jahren auch kaum vorstellen konnte, dass alle Menschen Lesen, Schreiben und Rechnen lernen können, und dass wir uns ungebildete Menschen immer weniger leisten können.
    Source
    Grundlagen der praktischen Information und Dokumentation. 5., völlig neu gefaßte Ausgabe. 2 Bde. Hrsg. von R. Kuhlen, Th. Seeger u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried. Bd.1: Handbuch zur Einführung in die Informationswissenschaft und -praxis
  11. Vier bibliometrische Kennzahlen auf Grundlage von zbMATH-Daten (2017) 0.01
    0.009160974 = product of:
      0.036643896 = sum of:
        0.036643896 = weight(_text_:und in 4315) [ClassicSimilarity], result of:
          0.036643896 = score(doc=4315,freq=14.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.32394084 = fieldWeight in 4315, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4315)
      0.25 = coord(1/4)
    
    Abstract
    Die Karte stellt für die deutschen Universitäten und einige zu Vergleichszwecken ausgewählte außeruniversitäre Forschungseinrichtungen vier bibliometrische Kennzahlen auf Grundlage von zbMATH-Daten dar: Die Zahl der 2010 publizierten Arbeiten (links oben) und ihre gesamten zugehörigen Zitationen (links unten) sowie die Zahl der 2014 publizierten Arbeiten (rechts oben) und ihre gesamten zugehörigen Zitationen (rechts unten). Die Zusammenfassung auf Universitätsebene begründet sich damit, dass mathematische Arbeiten an einer Universität ggf. von Mitgliedern verschiedener Einrichtungen und/oder Fakultäten geschrieben werden. Die unterschiedliche Struktur der einzelnen Universitäten macht einen Vergleich von Einzeleinrichtungen sehr aufwändig. Zu beachten ist auch, dass die inhärente Fehlerquote sowohl bei der Zuordnung von Referenzstrings zu Arbeiten als auch von Arbeiten zu Autoren und Institutionen sich bei den Gesamtzahlen zu einer Abweichung von bis zu 20 % kumulieren kann. Die Jahre 2010 und 2014 wurden gewählt, da zum einen nach vier Jahren ein signifikanter Anteil der Zitationen relativ zum Publikationswachstum verfügbar ist (vgl. Abb. 4 auf S. 211), zum anderen für 2014 zumindest die Publikationsdaten einschließlich gedruckter Konferenzbände weitgehend vollständig erfasst sind (s. Anmerkung 2 auf Seite S. 213).
    Footnote
    Die Karte wurde nachträglich per Mail vom 19.04.2018 korrigiert und in dem Mitt DMV 2018, H.1, S.4 abgedruckt.
  12. Tavakolizadeh-Ravari, M.: Analysis of the long term dynamics in thesaurus developments and its consequences (2017) 0.01
    0.0087595675 = product of:
      0.03503827 = sum of:
        0.03503827 = weight(_text_:und in 3081) [ClassicSimilarity], result of:
          0.03503827 = score(doc=3081,freq=20.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.3097467 = fieldWeight in 3081, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3081)
      0.25 = coord(1/4)
    
    Abstract
    Die Arbeit analysiert die dynamische Entwicklung und den Gebrauch von Thesaurusbegriffen. Zusätzlich konzentriert sie sich auf die Faktoren, die die Zahl von Indexbegriffen pro Dokument oder Zeitschrift beeinflussen. Als Untersuchungsobjekt dienten der MeSH und die entsprechende Datenbank "MEDLINE". Die wichtigsten Konsequenzen sind: 1. Der MeSH-Thesaurus hat sich durch drei unterschiedliche Phasen jeweils logarithmisch entwickelt. Solch einen Thesaurus sollte folgenden Gleichung folgen: "T = 3.076,6 Ln (d) - 22.695 + 0,0039d" (T = Begriffe, Ln = natürlicher Logarithmus und d = Dokumente). Um solch einen Thesaurus zu konstruieren, muss man demnach etwa 1.600 Dokumente von unterschiedlichen Themen des Bereiches des Thesaurus haben. Die dynamische Entwicklung von Thesauri wie MeSH erfordert die Einführung eines neuen Begriffs pro Indexierung von 256 neuen Dokumenten. 2. Die Verteilung der Thesaurusbegriffe erbrachte drei Kategorien: starke, normale und selten verwendete Headings. Die letzte Gruppe ist in einer Testphase, während in der ersten und zweiten Kategorie die neu hinzukommenden Deskriptoren zu einem Thesauruswachstum führen. 3. Es gibt ein logarithmisches Verhältnis zwischen der Zahl von Index-Begriffen pro Aufsatz und dessen Seitenzahl für die Artikeln zwischen einer und einundzwanzig Seiten. 4. Zeitschriftenaufsätze, die in MEDLINE mit Abstracts erscheinen erhalten fast zwei Deskriptoren mehr. 5. Die Findablity der nicht-englisch sprachigen Dokumente in MEDLINE ist geringer als die englische Dokumente. 6. Aufsätze der Zeitschriften mit einem Impact Factor 0 bis fünfzehn erhalten nicht mehr Indexbegriffe als die der anderen von MEDINE erfassten Zeitschriften. 7. In einem Indexierungssystem haben unterschiedliche Zeitschriften mehr oder weniger Gewicht in ihrem Findability. Die Verteilung der Indexbegriffe pro Seite hat gezeigt, dass es bei MEDLINE drei Kategorien der Publikationen gibt. Außerdem gibt es wenige stark bevorzugten Zeitschriften."
    Footnote
    Dissertation, Humboldt-Universität zu Berlin - Institut für Bibliotheks- und Informationswissenschaft.
    Imprint
    Berlin : Humboldt-Universität zu Berlin / Institut für Bibliotheks- und Informationswissenschaft
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  13. Glänzel, W.: Visual bibliometrics : eine visuelle Oberfläche zur Erweiterung der Nutzungsmöglichkeiten bibliographischer Datenbanken (1996) 0.01
    0.008396172 = product of:
      0.033584688 = sum of:
        0.033584688 = weight(_text_:und in 6110) [ClassicSimilarity], result of:
          0.033584688 = score(doc=6110,freq=6.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.2968967 = fieldWeight in 6110, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=6110)
      0.25 = coord(1/4)
    
    Abstract
    In einer früheren Studie wurde bereits der 'informationelle Mehrwert' von bibliographischen Datenbanken durch bibliometrische Nutzung untersucht. Im folgenden soll nun eine visuelle Oberfläche vorgestellt werden, die mit Hilfe einer bibliometrischen 'Sekundärdatenbank' einerseits die Nutzungsmöglichkeiten der zugrundeliegenden bibliographischen Datenbanken vor allem in den Bereichen Wissenschaftsinformation, Forschungsevaluation und Wissenschaftspolitik erweitern soll, andererseits aber auch eine Rückkopplung zu den Aufgaben des traditionellen Retrievals erlaubt. Die visuelle Oberfläche 'Visual Bibliometrics' ist eine Erweiterung des CD-Edition des 'Science Citation Index' und des 'Social Science Citation Index'
    Source
    Herausforderungen an die Informationswirtschaft: Informationsverdichtung, Informationsbewertung und Datenvisualisierung. Proceedings des 5. Internationalen Symposiums für Informationswissenschaft (ISI'96), Humboldt-Universität zu Berlin, 17.-19. Oktober 1996. Hrsg.: J. Krause u.a
  14. Nourmohammadi, H.A.; Umstätter, W.: ¬Die Verteilung der Autorenhäufigkeit in wissenschaftlichen Zeitschriften bei verschiedenen Themen und Ländern (2004) 0.01
    0.008396172 = product of:
      0.033584688 = sum of:
        0.033584688 = weight(_text_:und in 2514) [ClassicSimilarity], result of:
          0.033584688 = score(doc=2514,freq=6.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.2968967 = fieldWeight in 2514, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2514)
      0.25 = coord(1/4)
    
    Abstract
    Untersucht man die Verteilung der Autorenhäufigkeit in wissenschaftlichen Zeitschriften, hier kurz Journals Author Distri-bution (JAD) genannt indem man über mehrere Jahre die Verteilung der Häufigkeit prüft wie viele Autoren einmal, zweimal, dreimal etc. in dieser Zeitschrift erschienen, so zeigen sich charakteristische Verteilungen, die den allgemeinen Potenzgesetzen (power laws) folgen. Diese Verteilungen können als Typologie der speziellen Journale verwendet werden. Wie der Impact Factor, der Immediacy Factor oder die Halbwertzeit ist die JAD zur Kategorisierung einer Zeitschrift nützlich. Auffallend ist dabei, dass zwei Parameter, der Beginn der hyperbolischen Funktion und die Potenz in einem eher konstanten Verhältnis stehen. Den Konsequenzen dieser Beobachtung wird hier nachgegangen.
    Source
    Information - Wissenschaft und Praxis. 55(2004) H.5, S.275-281
  15. Friedländer, M.B.: Der Kanon der Informationswissenschaft (2015) 0.01
    0.008396172 = product of:
      0.033584688 = sum of:
        0.033584688 = weight(_text_:und in 2079) [ClassicSimilarity], result of:
          0.033584688 = score(doc=2079,freq=6.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.2968967 = fieldWeight in 2079, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2079)
      0.25 = coord(1/4)
    
    Content
    Blaise Cronin hat 2013 die Frage formuliert, ob es so etwas wie einen Kanon der Informationswissenschaft gibt. Er schlägt vor, zur Ermittlung des Kanons auch Namens- und Sachregister von einschlägigen Lehrbüchern informetrisch auszuwerten. Untersucht wurden englischsprachige Publikationen aus der Kategorie Information Science & Library Science der Fachdatenbank Web of Science sowie neun ausgewählte Lehrbücher der Informationswissenschaft. Im Web of Science wurden über 324.000 Publikationen ermittelt. Im Rahmen der szientometrischen Analyse wurden Zitationen, Publikationen und Themen ausgewertet. Zusätzlich zur klassischen Auswertung der Datenbankdokumente wurde erstmals eine Registeranalyse bei den Lehrbuchdokumenten durchgeführt. Die unterschiedlichen Ergebnisse wurden zusammengefasst, um einen gemeinsamen Kanon der Informationswissenschaft bilden zu können.
    Source
    Information - Wissenschaft und Praxis. 66(2015) H.2/3, S.159-168
  16. Wersig, G.: Quantitative Methoden der Benutzerforschung (1981) 0.01
    0.008310055 = product of:
      0.03324022 = sum of:
        0.03324022 = weight(_text_:und in 414) [ClassicSimilarity], result of:
          0.03324022 = score(doc=414,freq=2.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.29385152 = fieldWeight in 414, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=414)
      0.25 = coord(1/4)
    
    Source
    Deutscher Dokumentartag 1980, Berlin, 29.9.-3.10.1980: IuD und Normung - Neue Kommunikationstechnologie - Berufspolitik - Datenbanken - Betriebsstatistik - Informetrie - Parlamentsdokumentation - Arbeitskreis Senioren - Gesprächskreise. Bearb.: M. von der Laake u. H. Strohl-Goebel
  17. Hunter, J.A.: Quantifizierbare Merkmale von Datenbanken (1981) 0.01
    0.008310055 = product of:
      0.03324022 = sum of:
        0.03324022 = weight(_text_:und in 416) [ClassicSimilarity], result of:
          0.03324022 = score(doc=416,freq=2.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.29385152 = fieldWeight in 416, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=416)
      0.25 = coord(1/4)
    
    Source
    Deutscher Dokumentartag 1980, Berlin, 29.9.-3.10.1980: IuD und Normung - Neue Kommunikationstechnologie - Berufspolitik - Datenbanken - Betriebsstatistik - Informetrie - Parlamentsdokumentation - Arbeitskreis Senioren - Gesprächskreise. Bearb.: M. von der Laake u. H. Strohl-Goebel
  18. Vasiljev, A.: ¬The law of requisite variety as applied to subject indexing and retrieval (1989) 0.01
    0.008310055 = product of:
      0.03324022 = sum of:
        0.03324022 = weight(_text_:und in 5069) [ClassicSimilarity], result of:
          0.03324022 = score(doc=5069,freq=2.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.29385152 = fieldWeight in 5069, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=5069)
      0.25 = coord(1/4)
    
    Source
    Klassifikation und Ordnung. Tagungsband 12. Jahrestagung der Gesellschaft für Klassifikation, Darmstadt 17.-19.3.1988. Hrsg.: R. Wille
  19. Stock, W.G.: Eugene Garfield und die Folgen : der Weg der Fußnote bis in die Wissenschaftspolitik (2002) 0.01
    0.008310055 = product of:
      0.03324022 = sum of:
        0.03324022 = weight(_text_:und in 472) [ClassicSimilarity], result of:
          0.03324022 = score(doc=472,freq=2.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.29385152 = fieldWeight in 472, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=472)
      0.25 = coord(1/4)
    
  20. Gorraiz, J.; Schlögl, C.: Zusammenhang von Zeitschriftennachfrage und -zitationshäufigkeiten : ¬Eine bibliometrische Analyse eines Dokumentlieferdienstes am Beispiel von Subito (2003) 0.01
    0.008310055 = product of:
      0.03324022 = sum of:
        0.03324022 = weight(_text_:und in 718) [ClassicSimilarity], result of:
          0.03324022 = score(doc=718,freq=8.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.29385152 = fieldWeight in 718, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=718)
      0.25 = coord(1/4)
    
    Abstract
    Im vorliegenden Beitrag wird eine bibliometrische Analyse des Dokumentlieferdienstes Subito vorgestellt. Der Aufsatz ist folgendermaßen gegliedert: Nach einer kurzen Einführung folgt eine Beschreibung von Subito. Den Hauptteil der Arbeit stellt die bibliometrische Analyse dar. Bei dieser wird zunächst untersucht, ob ein großer Anteil der bei Subito bestellten Artikel von relativ wenigen Periodika abgedeckt werden kann. Weiters wird der Frage nachgegangen,ob sich Konzentrationsmuster auch in Hinblick auf den Marktanteil der Verlage erkennen lassen. Danach wird die fachliche Verteilung jener 100 Periodika genauer analysiert, von denen bei Subito die meisten Aufsätze bestellt werden. Schließlich wird herausgearbeitet, ob sich ein Zusammenhang zwischen den Bestellhäufigkeiten von Zeitschriften bei Subito und den Zitationshäufigkeiten laut den Journal Citation Reports (JCR) herstellen lässt. Am Ende des Beitrages werden die der Studie zugrunde liegenden Einschränkungen aufgezeigt und die wichtigsten Ergebnisse zusammengefasst.
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 50(2003) H.3, S.131-140

Years

Languages

  • d 105
  • e 19
  • m 1
  • More… Less…

Types

  • a 110
  • el 10
  • m 7
  • r 2
  • s 2
  • x 2
  • More… Less…