Search (1872 results, page 35 of 94)

  • × year_i:[2010 TO 2020}
  1. Küster, M.W.; Ludwig, C.; Al-Hajj, Y.; Aschenbrenner, A.: TextGrid: eScholarship und der Fortschritt der Wissenschaft durch vernetzte Angebote (2010) 0.01
    0.010187587 = product of:
      0.040750347 = sum of:
        0.040750347 = weight(_text_:und in 723) [ClassicSimilarity], result of:
          0.040750347 = score(doc=723,freq=12.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.36014193 = fieldWeight in 723, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=723)
      0.25 = coord(1/4)
    
    Abstract
    Das TextGrid-Konsortium vereint zehn über ganz Deutschland verteilte Institutionen aus dem wissenschaftlichen und kommerziellen Umfeld, um eine modulare Plattform für verteilte und kooperative wissenschaftliche Textdatenverarbeitung aufzubauen. In einem Grid führt es verschiedene Datenstrukturen aus unterschiedlichen Projekten in einem virtuellen Korpus zusammen, das als ganzes oder in ausgewählten Teilen durchsucht und analysiert werden kann. TextGrid verändert den Arbeitsalltag des geisteswissenschaftlichen Forschers, weg vom Bild des oftmals allein arbeitenden Textwissenschaftlers hin zur Arbeit im Team. Das zugrundeliegende Grid ist auch auf Informatikseite ein Beispiel für ein hochgradig vernetztes System, das Daten und Werkzeuge ganz unterschiedlicher Provenienz und Technologie integriert.
  2. Untiet-Kepp, S.-J.: der Stand der Forschung : Adaptive Unterstützung für das computergestützte kollaborative Lernen (2010) 0.01
    0.010187587 = product of:
      0.040750347 = sum of:
        0.040750347 = weight(_text_:und in 17) [ClassicSimilarity], result of:
          0.040750347 = score(doc=17,freq=12.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.36014193 = fieldWeight in 17, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=17)
      0.25 = coord(1/4)
    
    Abstract
    Computergestütztes kollaboratives Lernen hat sich aus dem konstruktivistischen Lernparadigma heraus zu einem eigenen Forschungsgebiet entwickelt, da es sich besonders für das aktive, soziale, kontextbezogene und selbstorganisierte Lernen eignet (vgl. Jadin 2008). Neben der Bereitstellung von CSCL-Werkzeugen beschäftigt sich dieses Forschungsgebiet auch mit der Bereitstellung von Unterstützungsmaßnahmen, die entweder strukturierend oder regulierend auf den Lernprozess Einfluss nehmen (Dillenbourg et al. 1996). Die regulierende Unterstützung zeichnet sich durch ihre Adaptivität aus, die mit Hilfe von Techniken umgesetzt wird, die aus dem Bereich der Adaptive Educational Hypermedia Systeme stammen. Zunehmend halten auch Techniken der künstlichen Intelligenz, die bereits in intelligenten tutoriellen Systemen verwendet wurden, Einzug in kollaborative Systeme. Dieser Beitrag stellt die adaptiven und intelligenten Techniken vor, die zur Unterstützung der Lernenden in virtuellen Umgebungen entwickelt wurden und veranschaulicht sie anhand von Beispielsystemen und -ansätzen. Der Artikel schließt mit einer Betrachtung des weiteren Forschungsbedarfs im Hinblick auf aktuelle technologische und gesellschaftliche Entwicklungen.
    Source
    Information - Wissenschaft und Praxis. 61(2010) H.6/7, S.397-406
  3. Hütte, M.: Inhalte und Methoden der Vermittlung von Informationskompetenz (2010) 0.01
    0.010187587 = product of:
      0.040750347 = sum of:
        0.040750347 = weight(_text_:und in 79) [ClassicSimilarity], result of:
          0.040750347 = score(doc=79,freq=12.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.36014193 = fieldWeight in 79, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=79)
      0.25 = coord(1/4)
    
    Abstract
    Der in Definitionen, Modellen und Standards dargelegte umfassende Anspruch an Konzepte zur Vermittlung von lnformationskompetenz für Schüler und Studierende lässt sich in der Praxis einer Hochschulbibliothek aufgrund des Zeitbedarfs nur in mehrtägigen Kompaktkursen bzw. semesterbegleitenden Veranstaltungen vermitteln. Sofern nicht curricular verankert, lässt sich der Aufwand für solche Veranstaltungen allerdings in den wenigsten Fällen rechtfertigen. Die meisten Bibliotheken, die sich als Teaching Libraries verstehen, versuchen deshalb Informationskompetenz im Rahmen eines modularen Gesamtkonzepts schrittweise zu vermitteln. Zu "klassischen" bibliotheks- und literaturbezogenen Inhalten treten dabei neue wie Wissenschaftliches Zitieren oder Elektronisches Publizieren. Auch hinsichtlich der didaktischen Methodik hat es Veränderungen in den Veranstaltungskonzepten vieler Bibliotheken gegeben. Konstruktivistische Methoden, bei denen die Lehrkraft stärker als Partner und Coach des Lernenden agiert, haben vielerorts die rein instruktionalen Formen abgelöst bzw. ergänzt. Es lohnt sich daher, mögliche Themen und Vermittlungsformen zu betrachten, um einen Überblick sowie Anregungen für die eigene Schulungspraxis zu gewinnen.
  4. Geyer, S.: ¬Die Klugschreiber : Michael König und Martin Zeise sind deutsche Wikipedia-Autoren der ersten Stunde (2010) 0.01
    0.010187587 = product of:
      0.040750347 = sum of:
        0.040750347 = weight(_text_:und in 179) [ClassicSimilarity], result of:
          0.040750347 = score(doc=179,freq=48.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.36014193 = fieldWeight in 179, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=179)
      0.25 = coord(1/4)
    
    Abstract
    Sie ist das größte Nachschlagewerk in deutscher Sprache: Rund eine Million Artikel verzeichnet die deutsche Ausgabe von Wikipedia. Michael König und Martin Zeise sind Autoren der Mit-Mach-Enzyklopädie, und das von der ersten Stunde an.
    Content
    "An guten Tagen kommt Michael König das Ganze vor wie eine Selbsthilfegruppe für Menschen, die ihren Freundeskreis durch ständige Besserwisserei nerven. An schlechten Tagen glaubt er, alle hier hassen einander einfach nur. Und doch weiß er, dass er als Wikipedia-Autor am bisher erfolgreichsten nicht-kommerziellen Internetprojekt mitarbeitet. Am inzwischen wichtigsten Nachschlagewerk der Welt. An einer Wissensrevolution. König, 39, ist diplomierter Stadt- und Regionalplaner aus Frankfurt, der heute in Berlin lebt. Ein großer, stämmiger Typ mit Locken und Brille, der viel lacht. Bei Wikipedia heißt er "Magadan" und hat Zehntausende Beiträge geschrieben und bearbeitet. Als sein Bruder in Spanien war, als Al-Kaida die Anschläge auf Madrid verübte, suchte König online Informationen, stieß auf den Wikipedia-Eintrag und fand so viele Fehler, dass er einfach korrigieren musste, was er besser wusste. "Mein Klugscheißer-Gen", grinst König. Nach den Fehlern fand er Lücken in Artikeln zu seinem beruflichen Fachgebiet, und das Gen zwang ihn zum Ausbessern. Seitdem ist er süchtig, bekennt er.
    Wissen kostenlos teilen Neben ihm sitzt an diesem Abend in einem Berliner Café "Mazbln", bürgerlich Martin Zeise, 51, einst Thüringer, heute Berliner und ebenfalls ein deutscher Wiki-Autor der ersten Stunde. Zeise gibt in seinem Profil nicht an, dass er Elektrotechnik studiert hat und heute als Projektleiter im Kraftwerkservice arbeitet, sondern welche Bands er gern hört. Anfangs schrieb er vor allem über Rockmusik und den Balkan, wo er eine Weile gearbeitet hat, und über Ecuador, weil er da mal im Urlaub war. Während König als Akademiker zur Wikipedia kam, der sein Wissen kostenlos teilen wollte, kam Zeise als Hobbyautor, der sich auch im Netz seinen Herzensthemen widmete. Menschen wie Zeise und König haben Wikipedia schon zum Standard-Nachschlagewerk für die meisten Westeuropäer gemacht. Gut eine Million angemeldete Benutzer zählt Wikipedia in Deutschland, doch nur wenige Tausend arbeiten aktiv daran mit. Seit Gründung der deutschen Ausgabe im Juni 2004 haben sie mehr als eine Million deutsche Einträge verfasst, redigiert, bebildert, verlinkt. Der 30-bändige Brockhaus hat 300.000 Einträge. Martin Zeise schätzt, dass er zwei Stunden seiner Freizeit in Wikipedia steckt. Er kennt viele Autoren, die noch deutlich mehr aufwenden. Bei König geht es zurzeit eher nach dem "Lustprinzip", sagt er. Im Sommer vermerkte er jedoch in seinem Wiki-Tagebuch, er sitze gerade ein sonniges Wochenende lang drinnen vorm PC und bearbeite österreichische Landkarten aus dem 18. Jahrhundert, die ein anderer User völlig unsortiert hochgeladen hatte. Was treibt einen zu solcher Anstrengung? König grinst. "Andere betreiben Sport als Hobby. Das ist auch anstrengend." Auch Zeise sieht seinen kostenlosen Schreiberjob nicht als Selbstausbeutung. "Ich sehe inzwischen viel weniger fern", sagt er. Immerhin sei es doch eine Anerkennung, wenn einer seiner Texte von den Lesern zum "ausgezeichneten Artikel" oder als "Artikel des Tages" für die Startseite gewählt wird.
    Die Lizenz zum Löschen Inzwischen wurden König und Zeise ganz basisdemokratisch zu Administratoren gewählt, also zur Gruppe jener rund hundert Bearbeiter mit der Lizenz, Artikel zu löschen und Störenfriede zu sperren. "Seitdem komme ich kaum noch zum Schreiben", seufzt Zeise. So viel sei zu überprüfen, zu bündeln, so viel Streit um angeblich meinungsgefärbte und damit verbotene Einträge sei zu schlichten. "Doch gerade dadurch erreichen wir inzwischen in allen Studien die Qualität jedes anderen gedruckten Lexikons." Wir, sagt er, und das erklärt wohl nicht nur das Pflichtbewusstsein, mit dem er redigiert, sondern auch seine Aufopferung insgesamt. Etwa 1000 neue Einträge auf Deutsch legen angemeldete, aber auch anonyme Autoren täglich an. Die Hälfte wird von den Administratoren sofort gelöscht, weil sie zwischen Dopplungen mit anderen Artikeln und Blödsinn à la "Mein Lehrer ist doof" schwanken. König hat eine Sammlung dieser virtuellen Toilettensprüche in sein Wiki-Profil integriert, über das man Tränen lachen kann. Alles andere wird zur Diskussion gestellt - die dann nicht selten derart in Grundsatz- oder Glaubensdebatten ausufert, dass etwa König heute keine Artikel mehr zu seinem Fachgebiet schreibt. "Es ermüdet mich, mit irgendwelchen Hannoveraner Lokalpatrioten die Definition von ,Weltstadt' zu diskutieren." Zeise erwidert: "Mir macht gerade das Spaß." Einen Konsens zu erreichen, wie es das Wiki-Statut vorschreibt, sei auch eine grandiose Erfüllung. Natürlich haben beide auch noch Freunde, die sich nicht fürs Internet interessieren, sagen sie. Und natürlich können diese Freunde nicht verstehen, wie man so viel Energie ins Bearbeiten eines Gratislexikons stecken kann. "Ich habe nicht weniger Freunde als früher", sagt Zeise. "Vielleicht andere, aber Freundeskreise verändern sich ja bei jedem." Inzwischen sind auch Leute vom Berliner Wiki-Stammtisch dabei. Sie verabredeten sich zu Stadtspaziergängen, die sie "Knorke-Treffen" nannten. Sie nahmen an thematischen Führungen teil, lernten, lachten - und sammelten Fotos und Infos, die sie sofort bei Wikipedia veröffentlichten."
  5. Altenhöner, R.; Hannemann, J.; Kett, J.: Linked Data aus und für Bibliotheken : Rückgratstärkung im Semantic Web (2010) 0.01
    0.010187587 = product of:
      0.040750347 = sum of:
        0.040750347 = weight(_text_:und in 264) [ClassicSimilarity], result of:
          0.040750347 = score(doc=264,freq=12.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.36014193 = fieldWeight in 264, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=264)
      0.25 = coord(1/4)
    
    Abstract
    Die Deutsche Nationalbibliothek (DNB) hat damit begonnen, ihre Wissensbasis bestehend aus bibliografischen Daten einerseits, vor allem aber aus den Normdaten als Linked Data zu veröffentlichen. Ziel der DNB ist es, mit der Publikation der Daten als Tripel eine direkte Nutzung der gesamten nationalbibliografischen Daten und der Normdaten durch die Semantic-WebCommunity zu ermöglichen und damit ganz neue Nutzungsgruppen einzubinden. Gleichzeitig soll aber auch das Tor für einen neuen Weg der kooperativen Datennutzung aufgestoßen werden. Langfristiges Ziel ist es, Bibliotheken und andere kulturelle Einrichtungen als ein verlässliches Rückgrat des Webs der Daten zu etablieren.
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis ; Bd. 14) (DGI-Konferenz ; 1
    Source
    Semantic web & linked data: Elemente zukünftiger Informationsinfrastrukturen ; 1. DGI-Konferenz ; 62. Jahrestagung der DGI ; Frankfurt am Main, 7. - 9. Oktober 2010 ; Proceedings / Deutsche Gesellschaft für Informationswissenschaft und Informationspraxis. Hrsg.: M. Ockenfeld
  6. Mayr, P.: Bradfordizing als Re-Ranking-Ansatz in Literaturinformationssystemen (2011) 0.01
    0.010187587 = product of:
      0.040750347 = sum of:
        0.040750347 = weight(_text_:und in 292) [ClassicSimilarity], result of:
          0.040750347 = score(doc=292,freq=12.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.36014193 = fieldWeight in 292, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=292)
      0.25 = coord(1/4)
    
    Abstract
    In diesem Artikel wird ein Re-Ranking-Ansatz für Suchsysteme vorgestellt, der die Recherche nach wissenschaftlicher Literatur messbar verbessern kann. Das nichttextorientierte Rankingverfahren Bradfordizing wird eingeführt und anschließend im empirischen Teil des Artikels bzgl. der Effektivität für typische fachbezogene Recherche-Topics evaluiert. Dem Bradford Law of Scattering (BLS), auf dem Bradfordizing basiert, liegt zugrunde, dass sich die Literatur zu einem beliebigen Fachgebiet bzw. -thema in Zonen unterschiedlicher Dokumentenkonzentration verteilt. Dem Kernbereich mit hoher Konzentration der Literatur folgen Bereiche mit mittlerer und geringer Konzentration. Bradfordizing sortiert bzw. rankt eine Dokumentmenge damit nach den sogenannten Kernzeitschriften. Der Retrievaltest mit 164 intellektuell bewerteten Fragestellungen in Fachdatenbanken aus den Bereichen Sozial- und Politikwissenschaften, Wirtschaftswissenschaften, Psychologie und Medizin zeigt, dass die Dokumente der Kernzeitschriften signifikant häufiger relevant bewertet werden als Dokumente der zweiten Dokumentzone bzw. den Peripherie-Zeitschriften. Die Implementierung von Bradfordizing und weiteren Re-Rankingverfahren liefert unmittelbare Mehrwerte für den Nutzer.
    Source
    Information - Wissenschaft und Praxis. 62(2011) H.1, S.3-10
  7. Mayr, P.: Bradfordizing mit Katalogdaten : Alternative Sicht auf Suchergebnisse und Publikationsquellen durch Re-Ranking (2010) 0.01
    0.010187587 = product of:
      0.040750347 = sum of:
        0.040750347 = weight(_text_:und in 301) [ClassicSimilarity], result of:
          0.040750347 = score(doc=301,freq=12.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.36014193 = fieldWeight in 301, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=301)
      0.25 = coord(1/4)
    
    Abstract
    Nutzer erwarten für Literaturrecherchen in wissenschaftlichen Suchsystemen einen möglichst hohen Anteil an relevanten und qualitativen Dokumenten in den Trefferergebnissen. Insbesondere die Reihenfolge und Struktur der gelisteten Ergebnisse (Ranking) spielt, neben dem direkten Volltextzugriff auf die Dokumente, für viele Nutzer inzwischen eine entscheidende Rolle. Abgegrenzt wird Ranking oder Relevance Ranking von sogenannten Sortierungen zum Beispiel nach dem Erscheinungsjahr der Publikation, obwohl hier die Grenze zu »nach inhaltlicher Relevanz« gerankten Listen konzeptuell nicht sauber zu ziehen ist. Das Ranking von Dokumenten führt letztlich dazu, dass sich die Benutzer fokussiert mit den oberen Treffermengen eines Suchergebnisses beschäftigen. Der mittlere und untere Bereich eines Suchergebnisses wird häufig nicht mehr in Betracht gezogen. Aufgrund der Vielzahl an relevanten und verfügbaren Informationsquellen ist es daher notwendig, Kernbereiche in den Suchräumen zu identifizieren und diese anschließend dem Nutzer hervorgehoben zu präsentieren. Phillipp Mayr fasst hier die Ergebnisse seiner Dissertation zum Thema »Re-Ranking auf Basis von Bradfordizing für die verteilte Suche in Digitalen Bibliotheken« zusammen.
  8. Köbler, J.; Niederklapfer, T.: Kreuzkonkordanzen zwischen RVK-BK-MSC-PACS der Fachbereiche Mathematik un Physik (2010) 0.01
    0.010187587 = product of:
      0.040750347 = sum of:
        0.040750347 = weight(_text_:und in 408) [ClassicSimilarity], result of:
          0.040750347 = score(doc=408,freq=12.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.36014193 = fieldWeight in 408, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=408)
      0.25 = coord(1/4)
    
    Abstract
    Unser Projekt soll eine Kreuzkonkordanz zwischen den Universalklassifikationen wie der "Regensburger Verbundsklassifikation (RVK)" und der "Basisklassifikation (BK)" sowie den Fachklassifikationen "Mathematics Subject Classification (MSC2010)" und "Physics and Astronomy Classification Scheme (PACS2010)" in den Fachgebieten Mathematik und Physik herstellen. Fazit: "Die klassifikatorische Übereinstmmung zwischen Regensburger Verbundklassifikation und Physics and Astronomy Classification Scheme war in einzelnen Fachbereichen (z. B. Kernphysik) recht gut. Doch andere Fachbereiche (z.B. Polymerphysik, Mineralogie) stimmten sehr wenig überein. Insgesamt konnten wir 890 einfache Verbindungen erstellen. Mehrfachverbindungen wurden aus technischen Gründen nicht mitgezählt. Das Projekt war insgesamt sehr umfangreich, daher konnte es im Rahmen der zwanzig Projekttage nicht erschöpfend behandelt werden. Eine Weiterentwicklung, insbesondere hinsichtlich des kollektiven Zuganges in Form eines Webformulars und der automatischen Klassifizierung erscheint jedoch sinnvoll."
    Imprint
    Innsbruck : Universitäts- und Landesbibliothek Tirol
  9. Behrens-Neumann, R.: Aus der 59. Sitzung der Arbeitsgemeinschaft der Verbundsysteme am 3. und 4.November 2010 in Göttingen (2011) 0.01
    0.010187587 = product of:
      0.040750347 = sum of:
        0.040750347 = weight(_text_:und in 500) [ClassicSimilarity], result of:
          0.040750347 = score(doc=500,freq=12.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.36014193 = fieldWeight in 500, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=500)
      0.25 = coord(1/4)
    
    Abstract
    Am 3. und 4. November 2010 fand die 59. Sitzung der Arbeitsgemeinschaft der Verbundsysteme auf Einladung des Gemeinsamen Bibliotheksverbunds (GBV) in Göttingen statt. Der folgende Bericht gibt einen Überblick über die gemeinsamen Aktivitäten der deutschsprachigen Verbünde aus Deutschland, Österreich und der Schweiz sowie eine Übersicht der aktuellen Arbeiten und Projekte der Mitglieder der AG Verbund mit Stand Oktober 2010.
    Content
    Darin auch: "Crisscross Die zweite Komponente des CrissCross-Projekts, die Verlinkung der SWD mit RAMEAU und LCSH-Schlagwörtern, ist nun fertiggestellt. Ca. 50.000 SWD Schlagwörter wurden in dem Linking Management Tool (LMI) von MACS mit RAMEAU/ LCSH-Pärchen verbunden. SWD-Änderungslieferungen werden für Aktualisierung des Vokabulars bereitgestellt. Die Nutzung der Links in der DNB-Umgebung über Linked Data-Verfahren ist zurzeit in der Planung. Die Verlinkung der DDC mit dem SWD-Schlagwort in dem Katalogisierungsclient WinIBW wird fortgeführt. Im Linked Data Service wurden die im LMI verwalteten Links von einem SWD-Begriff zu LCSH und RAMEAU als RDF-Relationen veröffentlicht."
  10. Grüter, D.; Kölbl, A.P.; Villinger, M.; Walger, N.: Genese, Aufgaben und Zukunft der Vifarom : Konzept und DFG-Förderung einer Virtuellen Fachbibliothek aus der Praxisperspektive (2011) 0.01
    0.010187587 = product of:
      0.040750347 = sum of:
        0.040750347 = weight(_text_:und in 521) [ClassicSimilarity], result of:
          0.040750347 = score(doc=521,freq=12.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.36014193 = fieldWeight in 521, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=521)
      0.25 = coord(1/4)
    
    Abstract
    Mitarbeiter des von der DFG geförderten Projekts »Virtuelle Fachbibliothek Romanischer Kulturkreis« beleuchten schlaglichtartig Probleme, die sich aus dem Konzept »Virtuelle Fachbibliothek«, seiner Geschichte sowie den damit verbundenen Anforderungen ergeben. Von der Praxis ausgehend wird der Versuch unternommen, grundsätzliche Fragen zur Weiterentwicklung des Konzepts »ViFa« sowie der damit verbundenen DFG-Förderung zu stellen. Konkret wird zunächst geprüft, welcher Logik die in der Vifarom betreute Fächerkombination und der regionale Zuschnitt des Portals folgen. Im zweiten, dritten und vierten Abschnitt werden folgende Anforderungen diskutiert: das Desiderat einer übergreifenden sachlichen Recherche, die indexbasierte Metasuche in Kombination mit dem One-Stop-Shop sowie der Fachinformationsführer als medienspezifische Fortsetzung des SSG-Sammelauftrags. Am Ende werden Perspektiven des Portals skizziert, eine Bedeutungserweiterung des SSG-Systems durch die ViFas erwogen und der Prozesscharakter von ViFas betont, die gleichwohl als Verstetigungsaufgabe zu betrachten sind.
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 58(2011) H.2, S.59-71
  11. Mayr, P.: Information Retrieval-Mehrwertdienste für Digitale Bibliotheken: : Crosskonkordanzen und Bradfordizing (2010) 0.01
    0.010187587 = product of:
      0.040750347 = sum of:
        0.040750347 = weight(_text_:und in 910) [ClassicSimilarity], result of:
          0.040750347 = score(doc=910,freq=12.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.36014193 = fieldWeight in 910, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=910)
      0.25 = coord(1/4)
    
    Abstract
    In dieser Arbeit werden zwei Mehrwertdienste für Suchsysteme vorgestellt, die typische Probleme bei der Recherche nach wissenschaftlicher Literatur behandeln können. Die beiden Mehrwertdienste semantische Heterogenitätsbehandlung am Beispiel Crosskonkordanzen und Re-Ranking auf Basis von Bradfordizing, die in unterschiedlichen Phasen der Suche zum Einsatz kommen, werden in diesem Buch ausführlich beschrieben und evaluiert. Für die Tests wurden Fragestellungen und Daten aus zwei Evaluationsprojekten (CLEF und KoMoHe) verwendet. Die intellektuell bewerteten Dokumente stammen aus insgesamt sieben Fachdatenbanken der Fächer Sozialwissenschaften, Politikwissenschaft, Wirtschaftswissenschaften, Psychologie und Medizin. Die Ergebnisse dieser Arbeit sind in das GESIS-Projekt IRM eingeflossen.
  12. Greuel, G.-M.: Zentralblatt MATH : Herausforderungen und Perspektiven (2012) 0.01
    0.010187587 = product of:
      0.040750347 = sum of:
        0.040750347 = weight(_text_:und in 1038) [ClassicSimilarity], result of:
          0.040750347 = score(doc=1038,freq=12.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.36014193 = fieldWeight in 1038, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1038)
      0.25 = coord(1/4)
    
    Abstract
    Wenn mir jemand vor zwei Jahren gesagt hätte, dass ich Chefredakteur des Zentralblatts werden würde, hätte ich es nicht für möglich gehalten. Natürlich kenne ich das Zentralblatt seit langem, und zwar seit der Arbeit an meiner Diplomarbeit in Göttingen. Später in Bonn referierte ich nach meiner Dissertation mehrere Jahre lang Artikel für das Zentralblatt. Ich blieb ein regelmäßiger, gelegentlich auch kritischer Nutzer des Zentralblatts, zunächst der gedruckten und später der Online-Version. Vielleicht war das der Grund, dass man mich bat die Nachfolge von Bernd Wegner anzutreten, der nicht nur 37 Jahre als Chefredakteur gearbeitet hatte, sondern der auch so etwas wie das Gesicht des Zentralblatts geworden war. Während Weghers Zeit begann das Zeitalter der elektronischen und Online-Information, und es hat seinen Höhepunkt noch nicht erreicht. Die Entwicklung, die alle Informationsmedien betrifft, ist so dynamisch, dass niemand heute sagen kann, wie die digitale Welt in zehn oder zwanzig Jahren aussehen wird. Das Zentralblatt ist sich dieser neuen Herausforderungen sehr wohl bewusst und bereit, sich ihnen zu stellen.
  13. Effenberger, C.: ¬Ein semantisches Netz für die Suche mit der Dewey-Dezimalklassifikation : optimiertes Retrieval durch die Verwendung versionierter DDC-Klassen (2011) 0.01
    0.010187587 = product of:
      0.040750347 = sum of:
        0.040750347 = weight(_text_:und in 1190) [ClassicSimilarity], result of:
          0.040750347 = score(doc=1190,freq=12.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.36014193 = fieldWeight in 1190, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1190)
      0.25 = coord(1/4)
    
    Abstract
    Die Dewey-Dezimalklassifikation (DDC) wird weltweit für die Erschließung von Bibliotheksbeständen eingesetzt. Um immer auf dem aktuellen wissenschaftlichen Stand zu sein, wird die DDC regelmäßig aktualisiert. Hierdurch kann es zu Begriffsverschiebungen kommen und die Erschließung ähnlicher Titel weicht voneinander ab, wird also heterogen, was zu inkorrekten Treffermengen bei der Suche nach DDC-erschlossenen Dokumenten führen kann. Eine mögliche Lösung des Problems ist, jeder Version einer DDC-Klasse einen eindeutigen Identifier zuzuordnen und so die Klasse eindeutig identifizieren zu können, mit der ein Titel verknüpft ist. Mit Hilfe von RDF kann aus Titeldaten, Schlagwörtern der Schlagwortnormdatei und den versionierten DDC-Klassen ein semantisches Netzwerk modelliert werden und durch entsprechende Anfragen können genauere Suchergebnisse, unabhängig von Änderungen in der DDC, generiert werden. Die Untersuchungen erfolgten im Rahmen eines Werkvertrages mit der Deutschen Nationalbibliothek und wurden in ausgearbeiteter Form als Masterthesis eingereicht.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 64(2011) H.2, S.270-289
  14. Kloiber, M.: Umstellung der Belletristikabteilung einer kleineren öffentlichen Bibliothek : Von alphabetischer Aufstellung zu einer Aufstellung nach mit den Lesern in Workshops erarbeiteten Interessenkreisen (2012) 0.01
    0.010187587 = product of:
      0.040750347 = sum of:
        0.040750347 = weight(_text_:und in 1215) [ClassicSimilarity], result of:
          0.040750347 = score(doc=1215,freq=12.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.36014193 = fieldWeight in 1215, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1215)
      0.25 = coord(1/4)
    
    Abstract
    Die Aufstellung nach Interessenkreisen wurde in den 1980er und 1990er Jahren im Umfeld der Öffentlichen Bibliotheken viel diskutiert. Danach geriet das Thema aus dem Rampenlicht. Erst mit den sogenannten Themenbibliotheken und Themenwelten gewann es wieder an Bedeutung. Im Rahmen der vorliegenden Arbeit wird dargestellt, wie eine kleine Öffentliche Bibliothek die Umstellung ihres Belletristikbereichs nach Interessenkreisen realisiert und dabei ihre Nutzer "ins Boot holt". Der aus dem Marketing stammende Ansatz der User Driven Innovation wird dabei in die Tat umgesetzt. Die Arbeit zeigt, wie sich eine Befragung der Nutzer über die Methode der Gruppendiskussion auf die Erarbeitung eines Sets an Interessenkreisen für die Belletristik niederschlägt und erläutert die konkrete Umsetzung des Vorhabens. Vorher wird die Aufstellung nach Interessenkreisen konzeptionell erarbeitet und die Methode der Gruppendiskussion im Kontext der Befragung von Nutzern in Bibliotheken erläutert.
    Imprint
    Berlin : Institut für Bibliotheks- und Informationswissenschaft der Humboldt-Universität zu Berlin
  15. Kett, J.; Manecke, M.; Beyer, S.: ¬Die Nationalbibliographie im Zeitalter des Internets (2012) 0.01
    0.010187587 = product of:
      0.040750347 = sum of:
        0.040750347 = weight(_text_:und in 1576) [ClassicSimilarity], result of:
          0.040750347 = score(doc=1576,freq=12.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.36014193 = fieldWeight in 1576, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1576)
      0.25 = coord(1/4)
    
    Abstract
    Die traditionelle Definition einer Nationalbibliografie als vollständige Verzeichnung aller Publikationen aus einem national definierten Raum ist nicht ohne Weiteres auf das Internetzeitalter übertragbar. Denn durch das Internet bekam der Begriff Publikation eine neue Bedeutung und der Akt des Publizierens und Recherchierens hat sich grundlegend verändert: Publikationen sind leicht zu veröffentlichen, in zunehmendem Maße dynamisch und als indexierbare Volltexte für Suchmaschinen verfügbar. Dieser Artikel beschäftigt sich mit den Fragen, welchen Mehrwert die traditionelle Erschließung noch bieten kann und welche Ausrichtung eine künftige Nationalbibliografie vor diesem Hintergrund haben müsste. Aufbauend auf einer Gegenüberstellung der traditionellen und heutigen Anforderungen wird die Idee einer künftigen Nationalbibliografie als Graph im World Wide Web entworfen. Der Artikel schließt mit einer Betrachtung von Aktivitäten der Deutschen Nationalbibliothek, die dabei helfen sollen, diese Idee in die Tat umzusetzen.
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 59(2012) H.2, S.67-79
  16. Krems, H.: ¬Das ARK-Online-Projekt der Staatsbibliothek zu Berlin : Online-Sacherschließung für drei Millionen Bände von 1501 bis 1955 (2012) 0.01
    0.010187587 = product of:
      0.040750347 = sum of:
        0.040750347 = weight(_text_:und in 1581) [ClassicSimilarity], result of:
          0.040750347 = score(doc=1581,freq=12.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.36014193 = fieldWeight in 1581, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1581)
      0.25 = coord(1/4)
    
    Abstract
    Der Alte Realkatalog (ARK) der Staatsbibliothek zu Berlin, ein im 19. Jahrhundert angelegter Sachkatalog, erschließt rund drei Millionen Bände, die zwischen 1501 und 1955 erschienen sind. Ziel des ARK-Online-Projekts ist es, die Systematik des über 1.800 Bände umfassenden Katalogs online bereitzustellen und die Titelanzeige für alle Systemstellen zu ermöglichen. Damit wird der deutschlandweit umfangreichste historische Druckschriftenbestand über eine Online-Systematik erschlossen. - Die einzelnen Systemstellen werden mit Elementen der modernen Sacherschließung in Form von Schlagworten und Basisklassifikation beschrieben. Diese Sacherschließungsdaten werden im Rahmen des Projektes für eine automatisierte Übertragung auf die Titel des Altbestands genutzt. Damit kann eine sachliche Online-Titelrecherche gemeinsam für den Neubestand und den bisher weitestgehend so nicht erschlossenen Altbestand lokal, überregional und weltweit erfolgen.
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 59(2012) H.5, S.236-246
  17. Nägele, R.: Vom Nutzen der ViFaMusik für die Musikwissenschaft : Eine Positionsbestimmung (2012) 0.01
    0.010187587 = product of:
      0.040750347 = sum of:
        0.040750347 = weight(_text_:und in 1583) [ClassicSimilarity], result of:
          0.040750347 = score(doc=1583,freq=12.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.36014193 = fieldWeight in 1583, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1583)
      0.25 = coord(1/4)
    
    Abstract
    Die ViFaMusik, 2006 an den Start gegangen, ist eine Erfolgsgeschichte. Die hohen Nutzerzahlen sowie eine anhaltende Diskussion mit den Usern zeigen, dass das virtuelle Angebot in der Mitte der musikwissenschaftlichen Gemeinschaft angekommen ist. Fragt man jedoch nach der Motivation zu deren Nutzung und nach der Relevanz des Fachportals für die Forschung, erhält man widersprüchliche Aussagen; Indiz für eine virulente Haltung, die der ViFaMusik eine Rolle zuweist, die ihren eigenen Anspruch und ihre Möglichkeiten und Chancen für die deutsche Musikwissenschaft erheblich unterschätzt. Es stellt sich deshalb die Frage: Wäre die deutsche Musikwissenschaft heutzutage nach sechsjährigem Betrieb weniger effizient, wenn es die ViFaMusik nicht gebe, wird sie es in Zukunft sein? Eine Frage, die für die Weiterentwicklung, Pflege und Verstetigung von existenzieller Bedeutung ist. Sie bleibt bislang unbeantwortet. Dabei könnte die ViFaMusik, sofern von der Fachgemeinschaft gefordert und gefördert, tatsächlich weitaus mehr sein, als bloßes bibliographisches Rechercheinstrument, sie ist es zum Teil heute schon.
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 59(2012) H.3/4, S.137-145
  18. Gradmann, S.; Iwanowa, J.; Dröge, E.; Hennicke, S.; Trkulja, V.; Olensky, M.; Stein, C.; Struck, A.; Baierer, K.: Modellierung und Ontologien im Wissensmanagement : Erfahrungen aus drei Projekten im Umfeld von Europeana und des DFG-Exzellenzclusters Bild Wissen Gestaltung an der Humboldt-Universität zu Berlin (2013) 0.01
    0.010187587 = product of:
      0.040750347 = sum of:
        0.040750347 = weight(_text_:und in 1904) [ClassicSimilarity], result of:
          0.040750347 = score(doc=1904,freq=12.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.36014193 = fieldWeight in 1904, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1904)
      0.25 = coord(1/4)
    
    Abstract
    Im Artikel werden laufende Arbeiten und Ergebnisse der Forschergruppe Wissensmanagement beschrieben. Diese entstanden vor allem durch die am Lehrstuhl Wissensmanagement angesiedelten Projekte Europeana v2.0, Digitised Manuscripts to Europeana (DM2E) sowie von Teilprojekten des vor kurzem gestarteten DFG-Exzellenzclusters Bild Wissen Gestaltung. Die Projekte befassen sich mit Spezialisierungen des Europeana Data Model, der Umwandlung von Metadaten in RDF und der automatisierten und nutzerbasierten semantischen Anreicherung dieser Daten auf Basis eigens entwickelter oder modifizierter Anwendungen sowie der Modellierung von Forschungsaktivitäten, welche derzeit auf die digitale Geisteswissenschaft zugeschnitten ist. Allen Projekten gemeinsam ist die konzeptionelle oder technische Modellierung von Informationsentitäten oder Nutzeraktivitäten, welche am Ende im Linked Data Web repräsentiert werden.
    Source
    Information - Wissenschaft und Praxis. 64(2013) H.2/3, S.127-136
  19. Gradmann, S.; Olensky, M.: Semantische Kontextualisierung von Museumsbeständen in Europeana (2013) 0.01
    0.010187587 = product of:
      0.040750347 = sum of:
        0.040750347 = weight(_text_:und in 1939) [ClassicSimilarity], result of:
          0.040750347 = score(doc=1939,freq=12.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.36014193 = fieldWeight in 1939, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1939)
      0.25 = coord(1/4)
    
    Abstract
    Europeana ist eine Initiative der Europäischen Kommission, die 2005 den Aufbau einer "Europäischen digitalen Bibliothek" als Teil ihrer i2010 Agenda ankündigte. Europeana soll ein gemeinsamer multilingualer Zugangspunkt zu Europas digitalem Kulturerbe und gleichzeitig mehr als "nur" eine digitale Bibliothek werden: eine offene Schnittstelle (API) für Wissenschaftsanwendungen, die ein Netzwerk von Objektsurrogaren darstellt, die semantikbasiertes Objektretrieval und - verwendung ermöglichen. Einerseits ist die semantische Kontextualisierung der digitalen Objekte eine unabdingbare Voraussetzung für effektives Information Retrieval, da aufgrund der Beschaffenheit der Öbjekte (bildlich, multimedial) deskriptive Metadaten meist nicht ausreichen, auf der anderen Seite bildet sie die Grundlage für neues Wissen. Kern geisteswissenschaftlicher Arbeit ist immer schon die Reaggregation und Interpretation kultureller Artefakte gewesen und Europeana ermöglicht nun mit (teil-)automatisierbaren, semantikbasierten Öperationen über große kulturelle Quellcorpora völlig neue Perspektiven für die digital humanities. Folglich hat Europeans das Potenzial eine Schlüsselressource der Geistes- und Kulturwissenschaften und damit Teil deren zukünftiger digitaler Arbeitsumgebungen zu werden.
  20. Greuel, G.-M.; Sperber, W.: swMATH - ein neuer Service für die Suche nach mathematischer Software (2013) 0.01
    0.010187587 = product of:
      0.040750347 = sum of:
        0.040750347 = weight(_text_:und in 1979) [ClassicSimilarity], result of:
          0.040750347 = score(doc=1979,freq=12.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.36014193 = fieldWeight in 1979, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1979)
      0.25 = coord(1/4)
    
    Abstract
    Anwendungen der Mathematik ohne Computer, Software und Simulationen sind heute eigentlich kaum mehr vorstellbar, und die Entwicklung von Algorithmen und Softwarelösungen macht einen stetig wachsenden Teil der mathematischen Forschung aus. Aber anders als mathematische Literatur, wird mathematische Software nicht systematisch in Bibliotheken vorgehalten bzw. elektronisch nachgewiesen. Der vorliegende Beitrag stellt mit der open access Datenbank swMATH (http://www.swmath.org) einen neuen Ansatz vor, der bereits als Prototyp existiert und genutzt werden kann. Das Projekt swMATH wird von der Leibniz-Gemeinschaft gefördert und vom Mathematischen Forschungsinstitut Oberwolfach in Kooperation mit FIZ Karlsruhe bearbeitet. Fachliche Unterstützung erhält das Projekt vom DFG-Forschungszentrum MATHEON, vom Zuse-Institut Berlin, vom Weierstraß-Institut für Angewandte Analysis und Stochastik sowie dem Felix-Klein-Zentrum für Mathematik der Universität Kaiserslautern. zbMATH knüpft an den Dienst Oberwolfach References on Mathematical Software (ORMS) (http://orms.mfo.de) an. ORMS bietet differenzierte, manuell erstellte Informationen für eine relativ kleine Anzahl handverlesener mathematischer Softwaresysteme. swMATH arbeitet hingegen weitgehend mit automatischen Methoden, um möglichst viele mathematische Softwarelösungen verfügbar zu machen.

Languages

  • d 1631
  • e 212
  • a 1
  • More… Less…

Types

  • a 1374
  • el 403
  • m 279
  • x 74
  • s 60
  • r 26
  • n 8
  • i 3
  • b 2
  • p 2
  • v 2
  • ms 1
  • More… Less…

Themes

Subjects

Classifications