Search (1873 results, page 26 of 94)

  • × year_i:[2010 TO 2020}
  1. Heuwing, B.: Erfahrungen an der Universitätsbibliothek Hildesheim : Social Tagging in Bibliotheken (2010) 0.01
    0.01174646 = product of:
      0.04698584 = sum of:
        0.04698584 = weight(_text_:und in 13) [ClassicSimilarity], result of:
          0.04698584 = score(doc=13,freq=14.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.38899773 = fieldWeight in 13, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=13)
      0.25 = coord(1/4)
    
    Abstract
    Der Einsatz von Social Software in Bibliotheken und die damit angestrebte Erweiterung und Öffnung ihrer Angebote hat in den letzten Jahren viel Aufmerksamkeit auf sich gezogen. Für die Universitätsbibliothek Hildesheim wurde prototypisch ein Social Tagging Dienst umgesetzt und im Praxiseinsatz evaluiert (vgl. Heuwing 2008). Nutzer hatten dabei die Möglichkeit, für die im Online-Katalog vorhandenen Ressourcen selbst gewählte Schlagworte vergeben zu können. Das Angebot wurde von der Gruppe von Testnutzern positiv angenommen und auf vielfältige Weise eingesetzt. Eine Nutzerbefragung zeigt, dass die Motivation für die Nutzung vor allem im Austausch unter den Studierenden lag, während die Verwaltung persönlicher Informationsressourcen nur einer kleineren Gruppe wichtig war. Die Ergebnisse des Projektes verdeutlichen das Potential von Social Tagging an Universitäten und zeigen Möglichkeiten für die Integration mit lokalen Anwendungen und übergreifenden Diensten.
    Source
    Information - Wissenschaft und Praxis. 61(2010) H.6/7, S.407-411
  2. Wilde, A.; Wenninger, A.; Hopt, O.; Schaer, P.; Zapilko, B.: Aktivitäten von GESIS im Kontext von Open Data und Zugang zu sozialwissenschaftlichen Forschungsergebnissen (2010) 0.01
    0.01174646 = product of:
      0.04698584 = sum of:
        0.04698584 = weight(_text_:und in 275) [ClassicSimilarity], result of:
          0.04698584 = score(doc=275,freq=14.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.38899773 = fieldWeight in 275, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=275)
      0.25 = coord(1/4)
    
    Abstract
    GESIS - Leibniz-Institut für Sozialwissenschaften betreibt mit dem Volltext-Server SSOAR und der Registrierungsagentur für sozialwissenschaftliche Forschungsdaten dalra zwei Plattformen zum Nachweis von wissenschaftlichen Ergebnissen in Form von Publikationen und Primärdaten. Beide Systeme setzen auf einen konsequenten Einsatz von Persistenten Identifikatoren (URN und DOI), was die Verknüpfung der durch dalra registrierten Daten mit den Volltextdokumenten aus SSOAR sowie anderen Informationen aus den GESIS-Beständen ermöglicht. Zusätzlich wird durch den Einsatz von semantischen Technologien wie SKOS und RDF eine Verbindung zum Semantic Web hergestellt.
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis ; Bd. 14) (DGI-Konferenz ; 1
    Source
    Semantic web & linked data: Elemente zukünftiger Informationsinfrastrukturen ; 1. DGI-Konferenz ; 62. Jahrestagung der DGI ; Frankfurt am Main, 7. - 9. Oktober 2010 ; Proceedings / Deutsche Gesellschaft für Informationswissenschaft und Informationspraxis. Hrsg.: M. Ockenfeld
  3. Baier Benninger, P.: Model requirements for the management of electronic records (MoReq2) : Anleitung zur Umsetzung (2011) 0.01
    0.01174646 = product of:
      0.04698584 = sum of:
        0.04698584 = weight(_text_:und in 343) [ClassicSimilarity], result of:
          0.04698584 = score(doc=343,freq=14.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.38899773 = fieldWeight in 343, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=343)
      0.25 = coord(1/4)
    
    Abstract
    Viele auch kleinere Unternehmen, Verwaltungen und Organisationen sind angesichts eines wachsenden Berges von digitalen Informationen mit dem Ordnen und Strukturieren ihrer Ablagen beschäftigt. In den meisten Organisationen besteht ein Konzept der Dokumentenlenkung. Records Management verfolgt vor allem in zwei Punkten einen weiterführenden Ansatz. Zum einen stellt es über den Geschäftsalltag hinaus den Kontext und den Entstehungszusammenhang ins Zentrum und zum anderen gibt es Regeln vor, wie mit ungenutzten oder inaktiven Dokumenten zu verfahren ist. Mit den «Model Requirements for the Management of Electronic Records» - MoReq - wurde von der europäischen Kommission ein Standard geschaffen, der alle Kernbereiche des Records Managements und damit den gesamten Entstehungs-, Nutzungs-, Archivierungsund Aussonderungsbereich von Dokumenten abdeckt. In der «Anleitung zur Umsetzung» wird die umfangreiche Anforderungsliste von MoReq2 (August 2008) zusammengefasst und durch erklärende Abschnitte ergänzt, mit dem Ziel, als griffiges Instrument bei der Einführung eines Record Management Systems zu dienen.
    Imprint
    Chur : Hochschule für Technik und Wirtschaft / Arbeitsbereich Informationswissenschaft
  4. Gemeinsame Stellungnahme des Bibliotheksverbundes Bayern (BVB) und des Kooperativen Bibliotheksverbundes Berlin-Brandenburg (KOBV) zur Empfehlung des Wissenschaftsrates "Zukunft des bibliothekarischen Verbundsystems in Deutschland" (2011) 0.01
    0.01174646 = product of:
      0.04698584 = sum of:
        0.04698584 = weight(_text_:und in 503) [ClassicSimilarity], result of:
          0.04698584 = score(doc=503,freq=14.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.38899773 = fieldWeight in 503, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=503)
      0.25 = coord(1/4)
    
    Abstract
    Der Bayerische Bibliotheksverbund (BVB) und der Kooperative Bibliotheksverbund Berlin-Brandenburg (KOBV) haben sich zur Entwicklung innovativer Verbunddienstleistungen in einer strategischen Allianz organisiert. Sie unterstützen alle Initiativen, die sich einer operativen Optimierung und innovationsorientierten Weiterentwicklung der regionalen und überregionalen Informationsinfrastrukturen verpflichtet sehen. Daher begrüßen sie ausdrücklich, dass der Wissenschaftsrat in seinen jüngsten "Empfehlungen zur Zukunft des bibliothekarischen Verbundsystems in Deutschland" - die essentielle Bedeutung der lokalen wissenschaftlichen Bibliotheken als einen wichtigen Teil der Informationsinfrastruktur herausgestellt und in diesem Zusammenhang die Relevanz beschrieben hat, die dem bibliothekarischen Verbundsystem als Dienstleister für wissenschaftliche Bibliotheken zukommt', - die klare Forderung erhoben hat, dass die Tendenz, dass die kommerziellen Anbieter von integrierten Bibliothekssystemen zukünftig noch stärker auf globaler Ebene agieren werden, nicht dazu führen darf, dass die Bedürfnisse lokaler wissenschaftlicher Bibliotheken nicht mehr ausreichend berücksichtigt werden. Die Kooperationspartner sind übereinstimmend der Ansicht, dass die Rolle der Bibliotheken sowohl als Partner als auch als Kunden der Verbünde in einem überregionalen und nationalen Rahmen gestärkt werden muss - in dieser Ausrichtung aaiert bereits die strateaische Partnerschaft zwischen BVB und KOBV.
  5. Gerlach, A.; Prölß, P.: Forschungs-Verbunddatenbank "Provenienzforschung" (2012) 0.01
    0.01174646 = product of:
      0.04698584 = sum of:
        0.04698584 = weight(_text_:und in 890) [ClassicSimilarity], result of:
          0.04698584 = score(doc=890,freq=14.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.38899773 = fieldWeight in 890, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=890)
      0.25 = coord(1/4)
    
    Abstract
    In den deutschen Bibliotheken befinden sich hunderttausende Bücher, die ihren rechtmäßigen Eigentümern in der Zeit der nationalsozialistischen Herrschaft entzogen wurden. Die Provenienzforschung steht vor der Aufgabe nicht nur diese Exemplare zu ermitteln, sondern für die Identifizierung der beraubten Eigentümer und deren Erben zu sorgen: mit dem klaren Ziel das NS-Raubgut zurückzugeben. Bücher einer Provenienz wurden zwischen Bibliotheken aufgeteilt und finden sich meist sogar innerhalb einer Einrichtung weit über den Bestand verteilt. Oft führen nur die Autopsie der Exemplare und eine genaue Erfassung der darin enthaltenen Spuren zu verwertbaren Informationen. Diese Provenienzhinweise, wie Stempel, Exlibris und Autogramme, müssen dann analysiert, mit bereits erfassten verglichen und alle ermittelten Namen mit den verschiedensten Quellen abgeglichen werden. Allein die große Anzahl an Büchern und potentiellen Eigentümern sowie die komplizierten Bücherwege führen dazu, dass eine einzelne Bibliothek diese Aufgabe nicht alleine lösen kann. Nur durch den Austausch der gefundenen Spuren, der gesicherten Rechercheergebnisse und der vermuteten Zusammenhänge, ist eine sinnvolle Provenienzrecherche möglich. Leider gibt es bis heute weder die technische Ausstattung noch Strukturen, die dies leisten können.
  6. Ceynowa, K.: Informationsdienste im mobilen Internet : das Beispiel der Bayerischen Staatsbibliothek (2011) 0.01
    0.01174646 = product of:
      0.04698584 = sum of:
        0.04698584 = weight(_text_:und in 1197) [ClassicSimilarity], result of:
          0.04698584 = score(doc=1197,freq=14.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.38899773 = fieldWeight in 1197, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1197)
      0.25 = coord(1/4)
    
    Abstract
    Ausgehend von der Überzeugung, dass der Zugriff auf digitale Information künftig primär,wenn nicht sogar ausschließlich über mobile Endgeräte wie Smartphones und Tablets erfolgen wird, stellt die Bayerische Staatsbibliothek gegenwärtig ihre Basisdienste ebenso wie ihre digitalen Content-Angebote sukzessive als mobile Applikationen bereit. Zuerst wurden der Online-Katalog und die Website der Bibliothek als generische, auf allen gängigen Smartphone-Browsern lauffähige, mobile Applikationen programmiert. In einem weiteren Schritt hat die Bayerische Staatsbibliothek 5o digitalisierte Spitzenstücke ihres Bestandes als native App »Famous Books -Treasures of the Bavarian State Library« für iPad und iPhone bereitgestellt, darauf folgte im Frühling 2011 die App »Islamic Books - Oriental treasures of the Bavarian State Library«. Aktuell experimentiert die Bayerische Staatsbibliothek zudem mit Augmented-Reality-Anwendungen. In einer mobilen Applikation »Ludwig II.« soll digitalisierter Bibliothekscontent zum berühmten bayerischen »Märchenkönig« georeferenziert an herausragenden Wirkungsstätten des Königs wie Schloss Neuschwanstein als Augmented-Reality-Applikation angeboten werden. Der Artikel stellt die verschiedenen mobilen Services und Anwendungen der Bayerischen Staatsbibliothek vor, beleuchtet ihre technische Realisierung und bewertet die Chancen und Grenzen bibliothekarischer Dienste im mobilen Internet.
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 58(2011) H.5, S.247-255
  7. Jovanovic, M.: ¬Eine kleine Frühgeschichte der Bibliometrie (2012) 0.01
    0.01174646 = product of:
      0.04698584 = sum of:
        0.04698584 = weight(_text_:und in 1326) [ClassicSimilarity], result of:
          0.04698584 = score(doc=1326,freq=14.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.38899773 = fieldWeight in 1326, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1326)
      0.25 = coord(1/4)
    
    Abstract
    In der Bibliometrie werden meist zwei Größen vermessen: die Anzahl von Publikationen und Zitationen. Publiziert und zitiert haben Menschen bereits sehr früh in der Geschichte. Schon in der Antike sind bei überlieferten Werken Zitationen zu finden. Der englische Begriff "Bibliometrics" selbst wurde aber erst 1969 definiert. In dem folgenden Artikel wird eine kleine Frühgeschichte der Bibliometrie, einer Unterdisziplin der Informationswissenschaft, bis zu diesem wichtigen Jahr anhand von beispielhaften Studien und Arbeiten dargestellt. Es wird auf die Anfänge von Publikationen und Zitationen und den fachlichen Rahmen der Bibliometrie eingegangen. Der Ursprung der Bibliometriegeschichte selbst wird von unterschiedlichen Autoren unterschiedlich früh angesetzt. Die verschiedenen Ansätze werden vorgestellt und diskutiert. Der Artikel schließt mit einer Beschreibung der wachsenden Bedeutung dieses Fachs im heutigen Informationszeitalter.
    Source
    Information - Wissenschaft und Praxis. 63(2012) H.2, S.71-80
  8. Reichert, S.; Mayr, P.: Untersuchung von Relevanzeigenschaften in einem kontrollierten Eyetracking-Experiment (2012) 0.01
    0.01174646 = product of:
      0.04698584 = sum of:
        0.04698584 = weight(_text_:und in 1328) [ClassicSimilarity], result of:
          0.04698584 = score(doc=1328,freq=14.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.38899773 = fieldWeight in 1328, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1328)
      0.25 = coord(1/4)
    
    Abstract
    In diesem Artikel wird ein Eyetracking-Experiment beschrieben, bei dem untersucht wurde, wann und auf Basis welcher Informationen Relevanzentscheidungen bei der themenbezogenen Dokumentenbewertung fallen und welche Faktoren auf die Relevanzentscheidung einwirken. Nach einer kurzen Einführung werden relevante Studien aufgeführt, in denen Eyetracking als Untersuchungsmethode für Interaktionsverhalten mit Ergebnislisten (Information Seeking Behavior) verwendet wurde. Nutzerverhalten wird hierbei vor allem durch unterschiedliche Aufgaben-Typen, dargestellte Informationen und durch das Ranking eines Ergebnisses beeinflusst. Durch EyetrackingUntersuchungen lassen sich Nutzer außerdem in verschiedene Klassen von Bewertungs- und Lesetypen einordnen. Diese Informationen können als implizites Feedback genutzt werden, um so die Suche zu personalisieren und um die Relevanz von Suchergebnissen ohne aktives Zutun des Users zu erhöhen. In einem explorativen Eyetracking-Experiment mit 12 Studenten der Hochschule Darmstadt werden anhand der Länge der Gesamtbewertung, Anzahl der Fixationen, Anzahl der besuchten Metadatenelemente und Länge des Scanpfades zwei typische Bewertungstypen identifiziert. Das Metadatenfeld Abstract wird im Experiment zuverlässig als wichtigste Dokumenteigenschaft für die Zuordnung von Relevanz ermittelt.
    Source
    Information - Wissenschaft und Praxis. 63(2012) H.3, S.145-156
  9. Höchstötter, N.; Luderwald, K.: Web Monitoring (2011) 0.01
    0.01174646 = product of:
      0.04698584 = sum of:
        0.04698584 = weight(_text_:und in 1352) [ClassicSimilarity], result of:
          0.04698584 = score(doc=1352,freq=14.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.38899773 = fieldWeight in 1352, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1352)
      0.25 = coord(1/4)
    
    Abstract
    Das Internet und diesbezüglich das Web bieten eine Vielzahl an Möglichkeiten, um das Nutzerverhalten zu messen und auszuwerten. Es wird jedoch nicht das gesamte Potenzial genutzt, da ein Großteil der Daten im Verborgenen liegt und folglich nicht ausgewertet werden kann. In diesem Kapitel wird das Box-Modell vorgestellt, das die Sichtweise von Unternehmen erklärt und Wege aufzeigt, um ein möglichst großes Potenzial des Web Monitoring zu nutzen. Das dreigeteilte Box-Modell beschreibt unterschiedliche Bereiche des Internet: die Black-, Grey- und White-Box. Während auf die White-Box direkt Einfluss durch die Website-Betreiber genommen werden kann, wird die Grey-Box von den Suchmaschinen beherrscht. Die Black-Box ist der große und unsichtbare Teil, den es möglichst zu verkleinern gilt, indem Teile in die Grey- oder White-Box verlagert werden. Das Web Monitoring muss hierfür den unterschiedlichen Boxen angepasst werden, indem Suchmaschinen, Social-Media-Angebote und Nutzerverhalten "überwacht" werden.
  10. Geist, K.: Qualität und Relevanz von bildungsbezogenen Suchergebnissen bei der Suche im Web (2012) 0.01
    0.01174646 = product of:
      0.04698584 = sum of:
        0.04698584 = weight(_text_:und in 1570) [ClassicSimilarity], result of:
          0.04698584 = score(doc=1570,freq=14.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.38899773 = fieldWeight in 1570, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1570)
      0.25 = coord(1/4)
    
    Abstract
    Websuchmaschinen haben sich sowohl im privaten als auch im professionellen Bereich zu den bedeutsamsten Recherchewerkzeugen der Gegenwart entwickelt. Sie durchsuchen die Weiten des Internets, um verfügbare Dokumente zu erfassen und dem Benutzer auf Anfrage präsentieren zu können. Mit den gefundenen Dokumenten beabsichtigen sie vielfältige Informationsbedürfnisse zu befriedigen. Ihr Erfolg basiert zu einem großen Teil auf der Fähigkeit, relevante Dokumente zu spezifischen Suchanfragen zu liefern. Um verschiedene Systeme miteinander vergleichen zu können, werden daher häufig Relevanzevaluationen durchgeführt. Dieser Artikel beschreibt in Auszügen die Ergebnisse eines Retrievaltests, der Qualität und Relevanz informationsorientierter Suchanfragen zum Thema Bildung untersucht. Studentische Nutzer beurteilten dabei die Suchergebnisse von Google hinsichtlich ihrer Relevanz, Vertrauenswürdigkeit, Verständlichkeit und Aktualität. Die Untersuchung wurde im Rahmen mei­ner Magisterarbeit durchgeführt, die mit dem VFI-Förderungspreis 2011 ausgezeichnet wurde, und war eingebunden in ein Forschungsprojekt an der Universität Hildesheim zu bildungsbezogener Informationssuche im Internet (BISIBS). Ich bedanke mich herzlich bei allen, die an der Entstehung dieser Arbeit beteiligt waren und bei der Preis-Kommission für die Auszeichnung.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 65(2012) H.2, S.261-276
  11. Kempf, A.O.: Automatische Indexierung in der sozialwissenschaftlichen Fachinformation : eine Evaluationsstudie zur maschinellen Erschließung für die Datenbank SOLIS (2012) 0.01
    0.01174646 = product of:
      0.04698584 = sum of:
        0.04698584 = weight(_text_:und in 1903) [ClassicSimilarity], result of:
          0.04698584 = score(doc=1903,freq=14.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.38899773 = fieldWeight in 1903, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1903)
      0.25 = coord(1/4)
    
    Abstract
    Automatische Indexierungsverfahren werden mit Zunahme der digitalen Verfügbarkeit von Metadaten und Volltexten mehr und mehr als eine mögliche Antwort auf das Management unstrukturierter Daten diskutiert. In der sozialwissenschaftlichen Fachinformation existiert in diesem Zusammenhang seit einiger Zeit der Vorschlag eines sogenannten Schalenmodells (vgl. Krause, 1996) mit unterschiedlichen Qualitätsstufen bei der inhaltlichen Erschließung. Vor diesem Hintergrund beschreibt die Arbeit zunächst Methoden und Verfahren der inhaltlichen und automatischen Indexierung, bevor vier Testläufe eines automatischen Indexierungssystems (MindServer) zur automatischen Erschließung von Datensätzen der bibliographischen Literaturdatenbank SOLIS mit Deskriptoren des Thesaurus Sozialwissenschaften sowie der Klassifikation Sozialwissenschaften beschrieben und analysiert werden. Es erfolgt eine ausführliche Fehleranalyse mit Beispielen sowie eine abschließende Diskussion, inwieweit die automatische Erschließung in dieser Form für die Randbereiche der Datenbank SOLIS für die Zukunft einen gangbaren Weg darstellt.
    Imprint
    Berlin : Humboldt-Universität zu Berlin, Philosophische Fakultät I, Institut für Bibliotheks- und Informationswissenschaft
    Series
    Berliner Handreichungen zur Bibliotheks- und Informationswissenschaft; 329
  12. Lindenthal, J.; Scheven, J.E.: ISO 25964 - Standard der Information und Dokumentation (2013) 0.01
    0.01174646 = product of:
      0.04698584 = sum of:
        0.04698584 = weight(_text_:und in 1916) [ClassicSimilarity], result of:
          0.04698584 = score(doc=1916,freq=14.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.38899773 = fieldWeight in 1916, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1916)
      0.25 = coord(1/4)
    
    Abstract
    Ein neuer internationaler Standard der Information und Dokumentation - Thesauri and interoperability with other vocabularies (ISO 25964) ist in Vorbereitung. Part 1: Thesauri for information retrieval wurde Mitte August als DIS 25964-1 im ISO Central Secretariat eingereicht. Die Motivation zur Entwicklung eines neuen Vokabularstandards sowie die wesentlichen Änderungen und Erweiterungen gegenüber ISO 2788/ISO 5964 werden vorgestellt. Anhand des Datenmodells zu Part 1: Thesauri for information retrieval werden die grundlegenden Elemente, Attribute und Relationen kurz erläutert. Mit der Arbeit an Part 2: Interoperability with other vocabularies wurde Ende Juni 2009 begonnen. Es sollen Richtlinien erarbeitet werden, um Interoperabilität zwischen Thesauri und anderen Vokabularien wie Normdateien für Namen, Schlagwortlisten, Ontologien, Klassifikationen und dgl. zu gewähren. Der erste Commitee Draft (CD 25964-2) ist für Juni 2010 geplant. Über den Stand der Entwicklung des 2. Teiles wird kurz referiert.
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  13. Brockelmann, M.; Wolff, C.: 3D-Visualisierungen : Potenziale in Forschung und Lehre im Kontext von Informationswissenschaft und Medieninformatik (2013) 0.01
    0.01174646 = product of:
      0.04698584 = sum of:
        0.04698584 = weight(_text_:und in 2022) [ClassicSimilarity], result of:
          0.04698584 = score(doc=2022,freq=14.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.38899773 = fieldWeight in 2022, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=2022)
      0.25 = coord(1/4)
    
    Abstract
    Dieser Artikel beschäftigt sich mit den Möglichkeiten der Informationsaufbereitung durch computergenerierte dreidimensionale Elemente. Visualisierungen durch 3DGrafiken und Animationen können im Vergleich zum Informationsgehalt andersartiger Darstellungen einen kommunikativen Mehrwert aufweisen, der den höheren Aufwand der Erzeugung rechtfertigt. Es wird die Frage aufgeworfen, in welchen Forschungsgebieten der Informationswissenschaft und Medieninformatik der Einsatz von räumlichen Repräsentationen angebracht ist und inwieweit sich die Fokussierung auf eine Informationsübermittlung durch eine virtuelle 3D-Umgebung mit den gesteigerten Anforderungen an das Kommunikationssystem in Einklang bringen lässt. Durch die menschliche Ausrichtung auf möglichst natürliche und realistische Erscheinungen bei der Informationsaufnahme ist die Verwendung der dritten Dimension im Kommunikationsprozess ausgenommen hilfreich, es bedarf zuvor allerdings einer Konzeption geeigneter Einsatzprinzipien, die der großflächigen Anwendung im Bedarfsfall gerecht werden.
    Source
    Information - Wissenschaft und Praxis. 64(2013) H.4, S.209-213
  14. Wiesenmüller, H.; Pfeffer, M.: Abgleichen, anreichern, verknüpfen : das Clustering-Verfahren - eine neue Möglichkeit für die Analyse und Verbesserung von Katalogdaten (2013) 0.01
    0.01174646 = product of:
      0.04698584 = sum of:
        0.04698584 = weight(_text_:und in 2275) [ClassicSimilarity], result of:
          0.04698584 = score(doc=2275,freq=14.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.38899773 = fieldWeight in 2275, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=2275)
      0.25 = coord(1/4)
    
    Abstract
    Ein vergleichsweise einfaches Verfah ren bildet die Grundlage: Über einen Abgleich einiger weniger Kategorien lassen sich mit großer Zuverlässigkeit diejenigen bibliografischen Datensätze aus einem Datenpool (der auch aus mehreren Katalogen bestehen kann) zusammenführen, die zum selben Werk gehören. Ein solches Werk-Cluster umfasst dann unterschiedliche Ausgaben und Auflagen eines Werkes ebenso wie Übersetzungen. Zu einem Cluster gehören alle Datensätze, die im Einheitssachtitel beziehungsweise in Sachtitel und Zusätzen übereinstimmen und mindestens eine verknüpfte Person oder Körperschaft gemeinsam haben.
    Footnote
    Neben den gewohnten Vortragsveranstaltungen in großen Sälen wartete der Leipziger Bibliothekskongress im März 2013 mit einem neuen Veranstaltungsformat auf: Verschiedene Workshops boten die Gelegenheit, Themen intensiv zu beleuchten und in kleinen Gruppen zu diskutieren. Einer dieser Workshops wurde von den Autoren des vorliegenden Beitrags gestaltet und war neuartigen Möglichkeiten für die Analyse und Verbesserung von Katalogdaten gewidmet. Als dritter Referent wurde Markus Geipel von der Deutschen Nationalbibliothek (DNB) über Google Hangout virtuell zugeschaltet. Initiiert wurde die Veranstaltung von der AG Bibliotheken der Deutschen Gesellschaft für Klassifikation, die damit an ihre Hildesheimer Tagung von 2012 anknüpfte' Im Folgenden werden die wichtigsten Ergebnisse zusammengefasst.
  15. Borst, T.: Repositorien auf ihrem Weg in das Semantic Web : semantisch hergeleitete Interoperabilität als Zielstellung für künftige Repository-Entwicklungen (2014) 0.01
    0.01174646 = product of:
      0.04698584 = sum of:
        0.04698584 = weight(_text_:und in 2555) [ClassicSimilarity], result of:
          0.04698584 = score(doc=2555,freq=14.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.38899773 = fieldWeight in 2555, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=2555)
      0.25 = coord(1/4)
    
    Abstract
    Repositorien zählen mittlerweile zu den Standardanwendungen und -infrastrukturkomponenten im Bereich digitaler Bibliotheken und zielen mit ihrer durchgängigen Unterstützung des OAI-Protokolls seit jeher auf Interoperabilität, Austausch und Wiederverwendung ihrer Daten. In dem vorliegenden Artikel wird erläutert, warum das Protokoll in seiner bisherigen Form hierfür allerdings keine ausreichende Grundlage bietet. Demgegenüber bietet der Einsatz von Prinzipien und Techniken des Semantic Web die Aussicht, die Daten von Repositorien auf der Einzelebene nicht nur selbst besser wiederverwendbar und interoperabel mit anderen Repositorien zu publizieren, sondern durch die konsequente Verwendung von - teilweise bereits als Linked Open Data (LOD) vorliegenden - externen Daten in eine LOD-basierte Dateninfrastruktur zu integrieren. Vor diesem Hintergrund wird beschrieben, wie im Rahmen einer experimentellen Entwicklung die Metadaten eines großen Repositoriums für wirtschaftswissenschaftliche Literatur in ein Linked Dataset konvertiert wurden, und welche Folgearbeiten sich hieraus ergeben.
    Source
    Bibliothek: Forschung und Praxis. 38(2014) H.2, S.257-265
  16. Quirmbach, S.M.: Suchmaschinen : User Experience, Usability und nutzerzentrierte Website-Gestaltung (2012) 0.01
    0.01174646 = product of:
      0.04698584 = sum of:
        0.04698584 = weight(_text_:und in 2705) [ClassicSimilarity], result of:
          0.04698584 = score(doc=2705,freq=14.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.38899773 = fieldWeight in 2705, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=2705)
      0.25 = coord(1/4)
    
    Abstract
    Zeigt übersichtlich die Usability anhand des Suchprozesses und der Mensch-Maschine-Interaktion mit den entstehenden Problemen auf. Bewertet die Kritikalität der identifizierten Usability-Probleme und verdeutlicht deren Auswirkungen auf die User Experience der Suche. Die konsequente Optimierung der User Experience und der Usability einer Suchmaschine ist Basis einer erfolgreichen Entwicklung von Websites. Suchmaschinen werden nicht nur als Funktion innerhalb von Websites eingesetzt, sondern kommen auch in unterschiedlichen Ausprägungen innerhalb von Applikationen, Online-Shops oder Intranets von Unternehmen vor. Die Autorin beschreibt, welche Evaluationsmethoden eingesetzt werden, um eine Suchmaschine zu optimieren, wo typische Probleme auftreten und wie sich diese auf die User Experience auswirken. Best-Practice-Beispiele und Tipps helfen sowohl Einsteigern als auch Experten bei der Umsetzung einer übergreifenden User Experience-Strategie und geben Hilfestellung bei der wirtschaftlichen Betrachtung im Rahmen der Produktentwicklung.
  17. Dolud, L.; Kreis, C: ¬Die Crosskonkordanz Wirtschaft zwischen dem STW und der GND (2012) 0.01
    0.01174646 = product of:
      0.04698584 = sum of:
        0.04698584 = weight(_text_:und in 2716) [ClassicSimilarity], result of:
          0.04698584 = score(doc=2716,freq=14.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.38899773 = fieldWeight in 2716, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=2716)
      0.25 = coord(1/4)
    
    Abstract
    Bibliotheken erarbeiten mit öffentlichen Mitteln unter hohem zeitlichem, personellem und finanziellem Aufwand wertvolle und nützliche Datenbestände. Was liegt im Sinne eines effizienten Ressourceneinsatzes näher, als solche Daten einer kooperativen Nutzung zuzuführen? Diese Frage mündete in den Jahren 2002 bis 2004 in einem DFG-finanzierten Projekt, an dem seinerzeit die Deutsche Bibliothek, das Hamburger Weltwirtschaftsarchiv, die Deutsche Zentralbibliothek für Wirtschaftswissenschaften Kiel (heute ZBW - Deutsche Zentralbibliothek für Wirtschaftswissenschaften - Leibniz-Informationszentrum Wirtschaft), der Gemeinsame Bibliotheksverbund und die Universitäts- und Stadtbibliothek Köln beteiligt waren. Ziel war es, den normierten Wortschatz des STW (Standard-Thesaurus Wirtschaft) mit dem wirtschaftswissenschaftlichen Teil der damaligen Schlagwortnormdatei (SWD) zu relationieren. Die Crosskonkordanz STW-GND bzw. Crosskonkordanz Wirtschaft wird mittlerweile durch die DNB und die ZBW in gemeinsamer Verantwortung weiterentwickelt und laufend gepflegt. Dabei han-delt es sich vor allem um die Anpassung der Crosskonkordanz nach redaktionellen Änderungen durch kontinuierliche Einarbeitung neuer bzw. geänderter oder gelöschter Deskriptoren.
  18. Illig, S.: Von den SSG zu den FID : eine kritische Reflexion von Anspruch und Wirklichkeit (2015) 0.01
    0.01174646 = product of:
      0.04698584 = sum of:
        0.04698584 = weight(_text_:und in 3442) [ClassicSimilarity], result of:
          0.04698584 = score(doc=3442,freq=14.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.38899773 = fieldWeight in 3442, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=3442)
      0.25 = coord(1/4)
    
    Abstract
    In der überregionalen Literaturversorgung vollzieht sich durch die Transformation der Sondersammelgebiete (SSG) in Fachinformationsdienste für die Wissenschaft (FID) ein vielschichtiger Wandel. So fordert die DFG in ihren Förderrichtlinien, dass sich die FID nicht nur konsequent an den Bedürfnissen der Wissenschaftler orientieren, sondern sich auch von den Grundaufgaben wissenschaftlicher Bibliotheken abgrenzen und einen Mehrwert gegenüber bestehenden Services anbieten. Dies bedeutet in letzter Konsequenz auch die Abwendung vom Ideal einer größtmöglichen Vollständigkeit der Bestände hin zu einem selektiven Bestandaufbau entlang der e-only-policy der DFG, nach der die elektronische Version eines Werkes gegenüber der gedruckten Form bevorzugt werden soll. Die durch diese Paradigmenwechsel notwendig gewordene Neuorientierung stellt die antragstellenden Bibliotheken jedoch vor große Herausforderungen. Daher soll der vorliegende Beitrag die bisherigen Entwicklungen und Zielsetzungen in der Förderpolitik der DFG analysieren und helfen, die aktuellen Geschehnisse einzuordnen. Darauf aufbauend werden die wesentlichen FID-Richtlinien anhand eines Modells dargestellt und kritisch reflektiert. Abschließend wird eine Maßnahme aufgezeigt, die im Sinne einer Profilierung insbesondere die Vermittlung von Informationskompetenz adressiert und eine Einbindung von Fachreferenten und Fachreferentinnen in die FID-Förderung skizziert.
  19. Hermann, M.: Bibliotheksdarstellungen im Film : ein Analysemodell und vier Fallbeispiele (2012) 0.01
    0.01174646 = product of:
      0.04698584 = sum of:
        0.04698584 = weight(_text_:und in 3448) [ClassicSimilarity], result of:
          0.04698584 = score(doc=3448,freq=14.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.38899773 = fieldWeight in 3448, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=3448)
      0.25 = coord(1/4)
    
    Abstract
    Die Darstellung von Bibliotheken und Bibliothekaren ist von den Anfängen des Kinos bis zur Gegenwart ein fester Bestandteil der Filmgeschichte. Dennoch ist der Darstellung der Institution Bibliothek in der akademischen Diskussion bisher wenig Beachtung geschenkt worden. Die wenigen Beiträge sind sich in ihrer Betrachtung von Bibliotheken im Film erstaunlicherweise darin einig, dass Bibliotheken vorrangig die Funktion einer atmosphärischen Kulisse einnehmen und darüber hinaus nur selten eine weitergehende, für die Handlung erhebliche Bedeutung erfahren. Diese undifferenzierte Sicht auf Bibliotheken im Film wird der Fülle und Vielfalt der Darstellungen jedoch nicht gerecht. Um die Vielschichtigkeit der Thematik besser zu erfassen, wird in diesem Artikel ein Analysemodell vorgeschlagen, das eine strukturierte Einordnung von Bibliotheksdarstellungen im Film erlaubt. Anhand vier filmischer Beispiele - Indiana Jones and the Last Crusade (1989), Misery (1990), City of Angels (1998) und The Shawshank Redemption (1994) - werden unterschiedliche Ausprägungsformen von Bibliothekdarstellungen im Film aufgezeigt. Diese Fallbeispiele verdeutlichen, dass die Funktionen und Bedeutungen von Bibliotheken im Film wesentlich vielfältiger sind als bisher allgemein angenommen. Es lässt sich in zudem in Ansätzen herausarbeiten, mit welchen Attributen und Werten Bibliotheken konventionell in Verbindung gebracht werden.
  20. Blümm, M.: Open Access und Lizenzierung am Beispiel der Allianz-Lizenzen (2012) 0.01
    0.01174646 = product of:
      0.04698584 = sum of:
        0.04698584 = weight(_text_:und in 3454) [ClassicSimilarity], result of:
          0.04698584 = score(doc=3454,freq=14.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.38899773 = fieldWeight in 3454, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=3454)
      0.25 = coord(1/4)
    
    Abstract
    Im Kontext nationaler Lizenzen erscheinen die Begriffe Open Access auf der einen und Lizenzierung auf der anderen Seite zwei Gegenpole darzustellen - die freie versus kostenpflichtige Nutzung elektronischer Ressourcen. Der Aufsatz zeigt, warum dennoch beide Komponenten Bestandteil der neu entwickelten Allianz-Lizenzen sind. Dabei stellt er die verschiedenen Lizenzierungsmodelle der Deutschen Forschungsgemeinschaft in ihrer historischen Entwicklung von den Nationallizenzen Classics bis hin zu den seit Anfang des letzten Jahres bestehenden Allianz-Lizenzen vor. Letztere werden hinsichtlich ihrer Konzeption, des dahinterstehenden Lizenzierungsmodells und ihrer zukünftige Ausrichtung näher beleuchtet. Nachdem die Thematik in den Kontext der Open Access-Diskussion eingeordnet wurde, beschäftigt sich der Aufsatz im Weiteren mit der Position der Deutschen Forschungsgemeinschaft bezüglich der Handlungsfelder Open Access und Lizenzierung. Dem folgt eine Analyse, wie die Open Access-Komponente bei den einzelnen Produkten der Allianz-Lizenzen umgesetzt wurde und wie sich die Bedingungen von den in der SHERPA/RoMEO- Datenbank verzeichneten Rechten unterscheidet. Dies mündet in Überlegungen, wie die durch die Allianz-Lizenzen garantierten Open Access-Rechte bei den beteiligten Einrichtungen und Autoren umgesetzt werden können und ob sich dadurch künftig Veränderungen auf dem Publikationsmarkt ergeben.

Languages

  • d 1631
  • e 213
  • a 1
  • More… Less…

Types

  • a 1375
  • el 403
  • m 279
  • x 74
  • s 60
  • r 26
  • n 8
  • i 3
  • b 2
  • p 2
  • v 2
  • ms 1
  • More… Less…

Themes

Subjects

Classifications