Search (430 results, page 12 of 22)

  • × year_i:[2020 TO 2030}
  1. Kirsch, M.A.: Plan S in der Diskussion : Reaktionen aus der Wissenschaft auf die internationale Open-Access-Initiative (2020) 0.01
    0.009582023 = product of:
      0.038328093 = sum of:
        0.038328093 = weight(_text_:und in 132) [ClassicSimilarity], result of:
          0.038328093 = score(doc=132,freq=10.0), product of:
            0.11666329 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05263717 = queryNorm
            0.328536 = fieldWeight in 132, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=132)
      0.25 = coord(1/4)
    
    Abstract
    Plan S und seine potenziellen Auswirkungen auf die wissenschaftliche Publikationskultur gehören aktuell zu den international intensiv diskutierten Themen, vor allem in der Open-Access-Community, aber auch im Bibliotheksbereich. Der folgende Beitrag greift diese Debatten aus der Sicht der internationalen Forschungsgemeinschaft auf und beleuchtet repräsentativ wichtige Akteure sowie grundlegende Positionen in der Auseinandersetzung mit der Open-Access-Initiative. Er skizziert ihre Entwicklung von der Ankündigung im September 2018 bis zum Erscheinen der überarbeiteten Version Ende Mai 2019 und untersucht, inwiefern die Wortmeldungen von Seiten der Wissenschaftlerinnen und Wissenschaftler sowie von Forschungszusammenschlüssen Eingang in die Überarbeitungen von Plan S fanden. Deren zunehmende Wichtigkeit - vor allem auch im Hinblick auf eine breitere Akzeptanz der Plan-S-Strategie bei den Forschenden - spiegelt sich in mehreren von der cOAlition S initiierten Feedback-Aktionen wider. Als eine der Folgen von Plan S ist somit eine Intensivierung der bereits seit längerem geführten Diskussionen über wissenschaftliche Publikationskulturen zu beobachten, die in zunehmendem Maße auch Bibliotheken als Ansprechpartner für Hochschulen und Wissenschaft fordern werden.
  2. Kempf, K.; Brantl, M.; Meiers, T.; Wolf, T.: Auf der Suche nach dem verborgenen Bild : Künstliche Intelligenz erschließt historische Bibliotheksbestände (2021) 0.01
    0.009582023 = product of:
      0.038328093 = sum of:
        0.038328093 = weight(_text_:und in 218) [ClassicSimilarity], result of:
          0.038328093 = score(doc=218,freq=10.0), product of:
            0.11666329 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05263717 = queryNorm
            0.328536 = fieldWeight in 218, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=218)
      0.25 = coord(1/4)
    
    Abstract
    Seit 23 Jahren werden im Münchener Digitalisierungszentrum (MDZ) die reichhaltigen und weltweit einzigartigen Sammlungen der Bayerischen Staatsbibliothek (BSB) digitalisiert und online bereitgestellt. Was 1997 als experimentelles Projekt mit Anschubfinanzierung der Deutschen Forschungsgemeinschaft begann, ist binnen weniger Jahre zu einem der wichtigsten Geschäftsgänge der Bayerischen Staatsbibliothek geworden. Durch die Zusammenarbeit mit Google wurde der digitale Bestandsaufbau seitdem Jahr 2007 stark erweitert. Die Anzahl der digitalisierten Werke stieg von einigen zehntausend auf aktuell über 2,5 Millionen. Der größte Teil des Altbestandes vor 1900 und damit rund ein Zehntel des Gesamtbestandes der Bibliothek ist inzwischen auch in digitaler Form verfügbar. Dabei handelt es sich um Werke aus zwölf Jahrhunderten. Von koptischen Papyri des 6. Jahrhunderts über mittelalterliche Handschriften, neuzeitliche Inkunabeln bis hin zu Druckwerken des späten 19. und frühen 20. Jahrhunderts ist alles dabei.
    Issue
    Teil 1: Die Motivation, die Herausforderungen, Automatisierte Trennung von Texten und Bildern.
  3. Lades, L.: Deutsches Zeitungsportal ist online (2021) 0.01
    0.009582023 = product of:
      0.038328093 = sum of:
        0.038328093 = weight(_text_:und in 399) [ClassicSimilarity], result of:
          0.038328093 = score(doc=399,freq=10.0), product of:
            0.11666329 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05263717 = queryNorm
            0.328536 = fieldWeight in 399, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=399)
      0.25 = coord(1/4)
    
    Content
    "Es führt Bestände digitalisierter historischer Zeitungen aus neun Bibliotheken zusammen und bietet zum Start knapp 600.000 Ausgaben aus den Jahren 1671-1950. Über 82% der Ausgaben können per Volltextsuche durchsucht werden, daneben gibt es browsende Einstiege über Titel, Ort und Datum einer Zeitung. Der Inhalt des Deutschen Zeitungsportals wird kontinuierlich ausgebaut. Falls Ihre Einrichtung über digitalisierte Bestände historischer Zeitungen verfügt und Sie Interesse haben, sich damit am Deutschen Zeitungsportal zu beteiligen, melden Sie sich gerne bei uns ([email protected]<mailto:[email protected]>). Erste Informationen finden Sie auch unter https://pro.deutsche-digitale-bibliothek.de/node/1164. Das Deutsche Zeitungsportal ist ein Sub-Portal der Deutschen Digitalen Bibliothek und wurde mit einer DFG-Förderung von der Deutschen Nationalbibliothek (Projektleitung), der SLUB Dresden - Sächsische Landesbibliothek - Staats- und Universitätsbibliothek, der Staatsbibliothek zu Berlin - Preußischer Kulturbesitz sowie dem FIZ Karlsruhe - Leibniz-Institut für Informationsinfrastruktur aufgebaut."
  4. Lackner, K.; Schilhan, L.: ¬Der Einzug der EDV im österreichischen Bibliothekswesen am Beispiel der Universitätsbibliothek Graz (2022) 0.01
    0.009582023 = product of:
      0.038328093 = sum of:
        0.038328093 = weight(_text_:und in 476) [ClassicSimilarity], result of:
          0.038328093 = score(doc=476,freq=10.0), product of:
            0.11666329 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05263717 = queryNorm
            0.328536 = fieldWeight in 476, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=476)
      0.25 = coord(1/4)
    
    Abstract
    Durch den Einsatz von EDV-Systemen kam es ab den 1970er Jahren zu einem radikalen Wandel in der Benutzung und Verwaltung von Universitätsbibliotheken. Die Universitätsbibliothek Graz war die erste Bibliothek in Österreich, die ein elektronisches Bibliothekssystem entwickelte und einsetzte, womit sie zu den Vorreitern in Europa zählte. Dieser Artikel liefert einen historischen Überblick über die Anfänge, die Entwicklung und Verbreitung der elektronischen Bibliothekssysteme im Allgemeinen sowie an der Universitätsbibliothek Graz im Speziellen. Vorgestellt werden die im Lauf der Jahrzehnte an der UB Graz eingesetzten Bibliothekssysteme GRIBS, EMILE, FBInfo, BIBOS, ALEPH und ALMA sowie die Entwicklung von den ersten Online- über die CD-ROM-Datenbanken bis hin zum modernen Datenbank-Retrieval.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 74(2021) H.2, S.171-204
  5. Wittwer, B.: Von NEBIS zu SLSP : wie die Datenmigration des grössten Schweizer Verbundes umgesetzt wurde (2021) 0.01
    0.009582023 = product of:
      0.038328093 = sum of:
        0.038328093 = weight(_text_:und in 537) [ClassicSimilarity], result of:
          0.038328093 = score(doc=537,freq=10.0), product of:
            0.11666329 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05263717 = queryNorm
            0.328536 = fieldWeight in 537, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=537)
      0.25 = coord(1/4)
    
    Abstract
    Am 7. Dezember 2020 begann mit swisscovery für das Schweizer Bibliothekswesen eine neue Ära. Die sechs grossen Bibliotheksverbünde fusionierten zu einer einzigen Plattform, der Swiss Library Service Plattform (SLSP). Damit einhergehend wurde mit Ex Libris Alma auch ein neues Bibliothekssystem eingeführt und Aleph und SFX abgelöst. Für den NEBIS-Verbund, ehemals grösster Bibliotheksverbund in der Schweiz, bedeutete dies, die Datenmigration zu organisieren und die NEBIS-Bibliotheken beim Wechsel zu SLSP zu begleiten. Ein Wechsel des Bibliothekssystems ist immer mit vielfältigen Herausforderungen und Unwägbarkeiten verbunden. Welche konzeptuellen Überlegungen sich die NEBIS-Systemverantwortlichen bezüglich der Datenmigration gemacht haben und wie die unzähligen Bereinigungen priorisiert wurden, wird nebst den Lessons Learned im Folgenden aufgezeigt.
  6. Behrens, R.: Version 1.1 der RNAB erschienen (2022) 0.01
    0.009582023 = product of:
      0.038328093 = sum of:
        0.038328093 = weight(_text_:und in 803) [ClassicSimilarity], result of:
          0.038328093 = score(doc=803,freq=10.0), product of:
            0.11666329 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05263717 = queryNorm
            0.328536 = fieldWeight in 803, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=803)
      0.25 = coord(1/4)
    
    Abstract
    Mailtext: "die Arbeitsgruppe RNAB des Standardisierungsausschusses freut sich, die Aktualisierung der 2019 erstmals veröffentlichten "Ressourcenerschließung mit Normdaten für Archive und Bibliotheken, (RNAB)" vorzulegen. Die hier präsentierte Version 1.1 ist keine grundsätzlich neue Fassung dieses Regelwerks. Es wurden überwiegend kleine Korrekturen und Ergänzungen im Text vorgenommen. Größere Veränderungen gibt es lediglich bei der stärkeren Abgrenzung des Werkbegriffs gegenüber der RDA und beim kontrollierten Vokabular. Schließlich behandelt das Regelwerk nunmehr die Nachlassbibliotheken als eigenständigen Sammelschwerpunkt. Sie finden die aktualisiert Version 1.1 auf der Website der Deutschen Nationalbibliothek unter DNB - Standards<https://www.dnb.de/DE/Professionell/Standardisierung/Standards/standards_node.html>. Um die Änderungen leichter nachvollziehen zu können, wird zusätzlich eine Fassung mit Markierungen zur Verfügung gestellt. Der Standardisierungsausschuss hat der Aktualisierung in seiner Sitzung im Dezember 2021 zugestimmt und die RNAB zur Anwendung empfohlen. Ein besonderer Dank geht an das Redaktionsteam der RNAB: Martin Wedl (Österreichische Nationalbibliothek), Ralf Breslau (Staatsbibliothek zu Berlin) und Rudolf Probst (Schweizerische Nationalbibliothek)."
  7. Jetter, H.-C.: Mensch-Computer-Interaktion, usability und user experience (2023) 0.01
    0.009582023 = product of:
      0.038328093 = sum of:
        0.038328093 = weight(_text_:und in 813) [ClassicSimilarity], result of:
          0.038328093 = score(doc=813,freq=10.0), product of:
            0.11666329 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05263717 = queryNorm
            0.328536 = fieldWeight in 813, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=813)
      0.25 = coord(1/4)
    
    Abstract
    Die Interaktion mit Computern ist heute alltäglich. Sie ist tief in unsere physische und soziale Umgebung vorgedrungen, z. B. durch Smartphones, Personal Computer oder vernetzte Geräte im Smart Home von Fernseher bis Rauchmelder. Waren Computer einst hochtechnologische Kuriositäten in Rechenzentren, die pro Gerät von Hunderten Personen geteilt werden mussten, interagieren wir in der heutigen Ära der ubiquitären (also allgegenwärtigen) Computer tagtäglich mit Hunderten sichtbarer oder unsichtbarer Computer bei der Bewältigung unseres Alltags. Die Interaktion mit Computern ist somit zu einem festen Bestandteil unseres Alltags geworden, der zunehmend die Rolle einer Kulturtechnik einnimmt. Trotz dieser großen Relevanz entzieht sich der Begriff Mensch-Computer-Interaktion (MCI) bzw. Human-Computer Interaction (HCI) bislang einer kompakten und eindeutigen Definition. Es existieren unterschiedliche Interpretationen, die im folgenden Beitrag vorgestellt werden. Außerdem werden die beiden zentralen Qualitätskriterien der MCI erläutert: Usability bzw. Gebrauchstauglichkeit (siehe DIN EN ISO 9241-11) und User Experience (UX) bzw. Benutzererlebnis (siehe DIN EN ISO 9241-210). Abschließend wird die Relevanz der MCI für die Informationswissenschaft diskutiert.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  8. Kuhlen, R.: Informationspathologien - Desinformation (2023) 0.01
    0.009582023 = product of:
      0.038328093 = sum of:
        0.038328093 = weight(_text_:und in 820) [ClassicSimilarity], result of:
          0.038328093 = score(doc=820,freq=10.0), product of:
            0.11666329 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05263717 = queryNorm
            0.328536 = fieldWeight in 820, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=820)
      0.25 = coord(1/4)
    
    Abstract
    Pathologie ist eine Disziplin der Medizin, die sich mit den Ursachen, dem Verlauf und den Auswirkungen von "abnormalen und krankhaften Vorgängen und Zuständen im Körper" und "Missbildungen aller Art" beschäftigt. Pathologien setzen als Maßstab einen Normalzustand (Gesundheit) voraus, der beschädigt bzw. eingeschränkt wird z. B. aufgrund von angeborenen Fehlentwicklungen, Krankheiten oder auch von post-traumatischen Erfahrungen. Entsprechend werden hier Informationspathologien bzw. Desinformationen als Beschädigungen bzw. Einschränkungen des Normalzustands von Information behandelt, wobei es problematisch ist zu bestimmen, was der Normalzustand von Information sein soll. In der Fachwelt wird häufig Desinformation (DI) als Oberbegriff für alle diese Phänomene verwendet. Sie sind aber im Detail doch sehr unterschiedlich, so dass sich Informationspathologie (IP) eher als Oberbegriff empfehlen würde. Hier wird im Folgenden beides, verkürzend als IP/DI, verwendet.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  9. Albrecht, I.: GPT-3: die Zukunft studentischer Hausarbeiten oder eine Bedrohung der wissenschaftlichen Integrität? (2023) 0.01
    0.009582023 = product of:
      0.038328093 = sum of:
        0.038328093 = weight(_text_:und in 881) [ClassicSimilarity], result of:
          0.038328093 = score(doc=881,freq=10.0), product of:
            0.11666329 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05263717 = queryNorm
            0.328536 = fieldWeight in 881, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=881)
      0.25 = coord(1/4)
    
    Abstract
    Mit dem Fortschritt künstlicher Intelligenzen sind auch progressive Sprachverarbeitungsmodelle auf den Markt gekommen. GPT-3 war nach seiner Veröffentlichung das leistungsstärkste Modell seiner Zeit. Das Programm generiert Texte, die oft nicht von menschlich verfassten Inhalten zu unterscheiden sind. GPT-3s Größe und Komplexität ermöglichen es, dass es wissenschaftliche Artikel eigenständig schreiben und ausgeben kann, die laut Studien und Untersuchungen zum Bestehen von Universitätskursen ausreichen. Mit der Entwicklung solcher Künstlichen Intelligenzen, insbesondere auf Open Source-Basis, könnten Studierende in Zukunft studentische Hausarbeiten von Textgeneratoren schreiben lassen. Diese Arbeit beschäftigt sich einerseits mit dem Modell GPT-3 und seinen Fähigkeiten sowie Risiken. Andererseits wird die Frage thematisiert, wie Hochschulen und Universitäten in Zukunft mit maschinell verfassten Arbeiten umgehen können.
  10. Bee, G.; Horstkotte, M.; Jahns, Y.; Karg, H.; Nadj-Guttandin, J.: Wissen, was verbindet: . O-Bib. Das Offene Bibliotheksjournal / Herausgeber VDB, 10(1), 1-15. : GND-Arbeit zwischen Terminologie und Redaktion (2023) 0.01
    0.009582023 = product of:
      0.038328093 = sum of:
        0.038328093 = weight(_text_:und in 934) [ClassicSimilarity], result of:
          0.038328093 = score(doc=934,freq=10.0), product of:
            0.11666329 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05263717 = queryNorm
            0.328536 = fieldWeight in 934, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=934)
      0.25 = coord(1/4)
    
    Abstract
    Die Gemeinsame Normdatei (GND) ist aus dem Bibliothekswesen nicht mehr wegzudenken und wird künftig verstärkt auch in anderen Einrichtungen aus Kultur und Wissenschaft zum Einsatz kommen. Von entscheidender Bedeutung für ihre Weiterentwicklung ist die kooperative Redaktionstätigkeit der im deutschsprachigen Raum tätigen Verbundpartner*innen, die im vorliegenden Beitrag näher vorgestellt wird. Nach einem kurzen historischen Überblick werden die Schwerpunkte und Besonderheiten der gegenwärtigen Terminologiearbeit anhand von Beispielen veranschaulicht. Im Anschluss daran wird der Frage nachgegangen, wie die Redaktionsarbeit an der GND an zukünftige Herausforderungen (z. B. den zunehmenden Einsatz maschineller Erschließung und die Vernetzung mit anderen Vokabularen) angepasst werden kann.
  11. Grundlagen der Informationswissenschaft (2023) 0.01
    0.009582023 = product of:
      0.038328093 = sum of:
        0.038328093 = weight(_text_:und in 1043) [ClassicSimilarity], result of:
          0.038328093 = score(doc=1043,freq=40.0), product of:
            0.11666329 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05263717 = queryNorm
            0.328536 = fieldWeight in 1043, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1043)
      0.25 = coord(1/4)
    
    Abstract
    Die 7. Ausgabe der "Grundlagen der praktischen Information und Dokumentation" (Erstausgabe 1972) heißt jetzt: "Grundlagen der Informationswissenschaft". Der Bezug zur Praxis und zur Ausbildung bleibt erhalten, aber der neue Titel trägt dem Rechnung, dass die wissenschaftliche theoretische Absicherung für alle Bereiche von Wissen und Information, nicht nur in der Fachinformation, sondern auch in den Informationsdiensten des Internet immer wichtiger wird. Für die Grundlagen sind 73 Artikel in 6 Hauptkapiteln vorgesehen. Viele Themen werden zum ersten Mal behandelt, z.B. Information und Emotion, Informationelle Selbstbestimmung, Informationspathologien. Alle Beiträge sind neu verfasst.
    Content
    Enthält die Kapitel: Grußwort Hochschulverband Informationswissenschaft / Vorwort der Herausgeber / Rainer Kuhlen & Wolfgang Semar: A 1 Information - ein Konstrukt mit Folgen - 3 / Marlies Ockenfeld: A 2 Institutionalisierung der Informationswissenschaft und der IuD-Infrastruktur in Deutschland - 27 / Hans-Christoph Hobohm: A 3 Theorien in der Informationswissenschaft - 45 / Julia Maria Struß & Dirk Lewandowski: A 4 Methoden in der Informationswissenschaft - 57 / Ursula Georgy, Frauke Schade & Stefan Schmunk A 5 Ausbildung, Studium und Weiterbildung in der Informationswissenschaft - 71 / Robert Strötgen & René Schneider: A 6 Bibliotheken - 83 / Karin Schwarz: A 7 Archive - 93 / Hartwig Lüdtke: A 8 Museen - 103 / Barbara Müller-Heiden: A 9 Mediatheken - 111 / Ragna Seidler-de Alwis: A 10 Information Professionals - 117 / Axel Ermert: A 11 Normen und Standardisierung im Informationsbereich - 123 / Thomas Bähr: A 12 Langzeitarchivierung - 135 / Ulrich Reimer: B 1 Einführung in die Wissensorganisation - 147 / Gerd Knorz: B 2 Intellektuelles Indexieren - 159 / Klaus Lepsky: B 3 Automatisches Indexieren - 171 / Andreas Oskar Kempf: B 4 Thesauri - 183 / Michael Kleineberg: B 5 Klassifikation - 195 / Heidrun Wiesenmüller: B 6 Formale Erschließung - 207 / Jochen Fassbender: B 7 Register/Indexe - 219 / Udo Hahn: B 8 Abstracting - Textzusammenfassung - 233 / Rolf Assfalg: B 9 Metadaten - 245 / Heiko Rölke & Albert Weichselbraun: B 10 Ontologien und Linked Open Data - 257 / Isabelle Dorsch & Stefanie Haustein: B 11 Bibliometrie - 271 / Udo Hahn: B 12 Automatische Sprachverarbeitung - 281 /
    Hans-Christian Jetter: B 13 Informationsvisualisierung und Visual Analytics - 295 / Melanie Siegel: B 14 Maschinelle Übersetzung - 307 / Ulrich Herb: B 15 Verfahren der wissenschaftlichen Qualitäts-/ Relevanzsicherung / Evaluierung - 317 / Thomas Mandl: B 16 Text Mining und Data Mining - 327 / Heike Neuroth: B 17 Forschungsdaten - 339 / Isabella Peters: B 18 Folksonomies & Social Tagging - 351 / Christa Womser-Hacker: C 1 Informationswissenschaftliche Perspektiven des Information Retrieval - 365 / Norbert Fuhr: C 2 Modelle im Information Retrieval - 379 / Dirk Lewandowski: C 3 Suchmaschinen - 391 / David Elsweiler & Udo Kruschwitz: C 4 Interaktives Information Retrieval - 403 / Thomas Mandl & Sebastian Diem: C 5 Bild- und Video-Retrieval - 413 / Maximilian Eibl, Josef Haupt, Stefan Kahl, Stefan Taubert & Thomas Wilhelm-Stein: C 6 Audio- und Musik-Retrieval - 423 / Christa Womser-Hacker: C 7 Cross-Language Information Retrieval (CLIR) - 433 / Vivien Petras & Christa Womser-Hacker: C 8 Evaluation im Information Retrieval - 443 / Philipp Schaer: C 9 Sprachmodelle und neuronale Netze im Information Retrieval - 455 / Stefanie Elbeshausen: C 10 Modellierung von Benutzer*innen, Kontextualisierung, Personalisierung - 467 / Ragna Seidler-de Alwis: C 11 Informationsrecherche - 477 / Ulrich Reimer: C 12 Empfehlungssysteme - 485 / Elke Greifeneder & Kirsten Schlebbe: D 1 Information Behaviour - 499 / Nicola Döring: D 2 Computervermittelte Kommunikation - 511 / Hans-Christian Jetter: D 3 Mensch-Computer-Interaktion, Usability und User Experience - 525 / Gabriele Irle: D 4 Emotionen im Information Seeking - 535 /
    Kirsten Schlebbe & Elke Greifeneder: D 5 Information Need, Informationsbedarf und -bedürfnis - 543 / Dirk Lewandowski & Christa Womser-Hacker: D 6 Information Seeking Behaviour - 553 / Wolfgang Semar: D 7 Informations- und Wissensmanagement - 567 / Joachim Griesbaum: D 8 Informationskompetenz - 581 / Antje Michel, Maria Gäde, Anke Wittich & Inka Tappenbeck: D 9 Informationsdidaktik - 595 / Rainer Kuhlen: E 1 Informationsmarkt - 605 / Wolfgang Semar: E 2 Plattformökonomie - 621 / Tassilo Pellegrini & Jan Krone: E 3 Medienökonomie - 633 / Christoph Bläsi: E 4 Verlage in Wissenschaft und Bildung - 643 / Irina Sens, Alexander Pöche, Dana Vosberg, Judith Ludwig & Nicola Bieg: E 5 Lizenzierungsformen - 655 / Joachim Griesbaum: E 6 Online-Marketing - 667 / Frauke Schade & Ursula Georgy: E 7 Marketing für Informationseinrichtungen - 679 / Isabella Peters: E 8 Social Media & Social Web - 691 / Klaus Tochtermann & Anna Maria Höfler: E 9 Open Science - 703 / Ulrich Herb & Heinz Pampel: E 10 Open Access - 715 / Tobias Siebenlist: E 11 Open Data - 727 / Sigrid Fahrer & Tamara Heck: E 12 Open Educational Resources - 735 / Tobias Siebenlist: E 13 Open Government - 745 / Herrmann Rösch: F 1 Informationsethik - 755 / Bernard Bekavac: F 2 Informations-, Kommunikationstechnologien- und Webtechnologien - 773 / Peter Brettschneider: F 3 Urheberrecht - 789 / Johannes Caspar: F 4 Datenschutz und Informationsfreiheit - 803 / Norman Meuschke, Nicole Walger & Bela Gipp: F 5 Plagiat - 817 / Rainer Kuhlen: F 6 Informationspathologien - Desinformation - 829 / Glossar
    Footnote
    Vgl.: https://doi.org/10.1515/9783110769043. Rez. in: o-bib. 10(2023), H.2 (A. Oßwald) [https://www.o-bib.de/bib/article/view/5934/8904]; Bibliothek: Forschung und Praxis. 47(2023) H.2, S.415-417 (D. Weisbrod) [https://www.degruyter.com/document/doi/10.1515/bfp-2023-0031/html].
  12. Loonus, Y.: Wie Künstliche Intelligenz die Recherche verändern wird : Vier Trends (2020) 0.01
    0.009448001 = product of:
      0.037792005 = sum of:
        0.037792005 = weight(_text_:und in 3940) [ClassicSimilarity], result of:
          0.037792005 = score(doc=3940,freq=14.0), product of:
            0.11666329 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05263717 = queryNorm
            0.32394084 = fieldWeight in 3940, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3940)
      0.25 = coord(1/4)
    
    Abstract
    In den vergangenen Jahren haben sich Begriffe wie "Artificial Intelligence" oder "Machine Learning" zunehmend als Teil unseres Wortschatzes etabliert. Auf der Jahreskonferenz der Competitive Intelligence Branche (DCIF e.V.) Ende September in Bamberg hörte ich den Begriff Artificial Intelligence 32-mal und den Begriff Machine Learning sechsmal - während der ersten zwei Vorträge! Wer hier einen ironischen Unterton herausliest, täuscht sich. Der sich wandelnde Wortschatz ist der lebende Beweis für die Neugierde und die Bereitschaft zur Entwicklung in unserer Branche.
    Content
    "Ich gehe stark davon aus, dass wir in Zukunft cloudbasierte Rechercheplattformen sehen werden, die folgende Features beinhalten: - Kollaboration und Zusammenarbeit (ähnlich beispielsweise Office 365) in einem Tool über diverse Datenquellen hinweg, - die Möglichkeit, interne und externe Stakeholder zu Recherchen einzuladen bzw. Ergebnisse effektiver zu teilen (Integration von firmeninternen Kommunikationssystemen wie Slack in die Plattform), - Kommentieren und Diskutieren von Dashboards, Charts und Datenpunkten im Social Media Stil, - Aufzeichnen von Recherchen mit "Screen Capture Technologie", - Nutzerprofile im Stile von LinkedIn, die es einfacher machen, Experten in einem Bereich zu identifizieren und eine sichtbare Auszeichnung darstellen, - neue KPI, die den Return on Investment moderner Technologien messen (zum Beispiel Time from Data Ingestion to Shared Insights, Number of People Reached in Company, Number of Insights Generated from Data Source).
  13. Lewandowski, D.: Suchmaschinen verstehen : 3. vollständig überarbeitete und erweiterte Aufl. (2021) 0.01
    0.009448001 = product of:
      0.037792005 = sum of:
        0.037792005 = weight(_text_:und in 4016) [ClassicSimilarity], result of:
          0.037792005 = score(doc=4016,freq=14.0), product of:
            0.11666329 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05263717 = queryNorm
            0.32394084 = fieldWeight in 4016, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4016)
      0.25 = coord(1/4)
    
    Abstract
    Suchmaschinen dienen heute selbstverständlich als Werkzeuge, um Informationen zu recherchieren. Doch wie funktionieren diese genau? Das Buch betrachtet Suchmaschinen aus vier Perspektiven: Technik, Nutzung, Recherche und gesellschaftliche Bedeutung. Es bietet eine klar strukturierte und verständliche Einführung in die Thematik. Zahlreiche Abbildungen erlauben eine schnelle Erfassung des Stoffs. Rankingverfahren und Nutzerverhalten werden dargestellt. Dazu kommen grundlegende Betrachtungen des Suchmaschinenmarkts, der Suchmaschinenoptimierung und der Rolle der Suchmaschinen als technische Informationsvermittler. Das Buch richtet sich an alle, die ein umfassendes Verständnis dieser Suchwerkzeuge erlangen wollen, u.a. Suchmaschinenoptimierer, Entwickler, Informationswissenschaftler, Bibliothekare sowie Online-Marketing-Verantwortliche. Für die dritte Auflage wurde der Text vollständig überarbeitet sowie alle Statistiken und Quellen auf den neuesten Stand gebracht.
    Content
    Vgl. die Anzeige in Open Password Nr.959 vom 11.08.2021: Einer der wenigen "Bestseller" der Informationsbranche, der nunmehr in die dritte Auflage geht. Das Buch wurde in Details überarbeitet sowie aktualisiert. Dazu wurden die Literaturangaben "vielfach erheblich" ergänzt. Dazu der Verfasser Dirk Lewandowski in seinem Vorwort: "Ich habe aber darauf geachtet, dass dieses Buch nicht das Schicksal vieler einführender Werke widerfährt, nämlich, dass es immer weiter anwächst, letztlich aber keine gut lesbare Einführung mehr darstellt." Veränderungen ergaben sich zum Teil, weil "ich durch die vielen Rückmeldungen auch zahlreiche Hinweise bekommen (habe), welche Teile noch verständlicher gemacht werden sollten, wo ergänzt, und wo gestrichen werden sollte."
  14. Göbel, S.; Sperber, W.; Wegner, B.: 150 Jahre : ein Rückblick auf das Jahrbuch über die Fortschritte der Mathematik (2020) 0.01
    0.009448001 = product of:
      0.037792005 = sum of:
        0.037792005 = weight(_text_:und in 72) [ClassicSimilarity], result of:
          0.037792005 = score(doc=72,freq=14.0), product of:
            0.11666329 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05263717 = queryNorm
            0.32394084 = fieldWeight in 72, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=72)
      0.25 = coord(1/4)
    
    Abstract
    Das Jahrbuch über die Fortschritte der Mathematik (JFM) 1868-1942 ist mehr als ein historischer Zeitzeuge für die Entwicklung der Mathematik in der zweiten Hälfte des 19. und ersten Hälfte des 20. Jahrhunderts. Als integraler Bestandteil der Datenbank zbMATH bieten die Daten des JFM einen Zugang zur mathematischen Literatur ab der Mitte des 19. Jahrhunderts. Das Jahrbuch hat eine bewegte Geschichte. Es entstand aus einer privaten Initiative, geriet durch den ersten Weltkrieg in eine tiefe Krise, wurde dann von der Preußischen Akademie der Wissenschaften übernommen, die das Jahrbuch noch bis zum Ende des zweiten Weltkriegs unter sich ständig verschlechternden Rahmenbedingungen und zunehmenden politischen Restriktionen weiterbetrieben hat. Der Artikel beschreibt die Enstehungsgeschichte und die Entwicklung des JFM von 1868 bis heute und würdigt das Wirken der Mathematiker, die federführend daran beteiligt waren. Einen Schwerpunkt bildet die konzeptionelle Diskussion und die Entwicklung der Anforderungen an mathematische Literaturdokumentationsdienste, die heute, im digitalen Zeitalter, vor gänzlich neuen Herausforderungen stehen. Zusätzlich zu den Daten des JFM liegt einiges an Originaldokumenten und Sekundärliteratur in der Berlin-Brandenburgischen Akademie der Wissenschaften (BBAW) vor. Aber nicht alles wurde dokumentiert und vieles ist verschollen, etwa die Daten des JFM für das Jahr 1943. Wir weisen an mehreren Stellen im Artikel darauf hin.
  15. Jörs, B.: ¬Ein kleines Fach zwischen "Daten" und "Wissen" I : Anmerkungen zum (virtuellen) "16th International Symposium of Information Science" (ISI 2021", Regensburg) (2021) 0.01
    0.009448001 = product of:
      0.037792005 = sum of:
        0.037792005 = weight(_text_:und in 338) [ClassicSimilarity], result of:
          0.037792005 = score(doc=338,freq=14.0), product of:
            0.11666329 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05263717 = queryNorm
            0.32394084 = fieldWeight in 338, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=338)
      0.25 = coord(1/4)
    
    Abstract
    Wenn ein Programmkomitee für ein wissenschaftliches Symposium mit 65 Personen besetzt wird, dann darf man sich auf ein breites und qualitativ fundiertes Programm und Symposium freuen, auch wenn der Abstimmungsbedarf zwischen den 65 Komiteemitgliedern extrem aufwendig gewesen sein muss. Coronabedingt musste das dreitätige Symposium virtuell stattfinden und organisiert werden. Dennoch wurde als offizieller Tagungsort Regensburg gewählt und wohl auch in Erinnerung an den leider viel zu früh verstorbenen Rainer Hammwöhner das Thema "Information Science and its Neighbours from Data Science to Digital Humanities" im Subtitel des Tagungsthemas "Information between Data and Knowledge" gewählt. Schließlich war es Rainer Hammwöhner (in Zusammenarbeit mit David Elsweiler und Christian Wolff), der schon 2015 auf den für die deutschsprachige Informationswissenschaft erschreckenden Tatbestand einer langjährig naiv anmutenden Ignoranz des internationalen "Information Behavior"-Forschungsfeldes hinwies: "Man wird der deutschsprachigen Informationswissenschaft nicht wirklich unrecht tun, wenn man sie in Sachen Informationsverhalten als Spätentwickler charakterisiert. Einem der Herausgeber dieses Themenheftes ist diesbezüglich noch gut in Erinnerung, wie er 2007 im Rahmen des informationswissenschaftlichen Symposiums in Köln von einem Kollegen aus Down Under gefragt wurde, warum es denn in Deutschland keine Forschung zu diesem Thema gebe, wo dies doch in der englischsprachigen Community seit Jahren ein heißes Thema sei" (David Elsweiler, Rainer Hammwöhner und Christian Wolff, Regensburg: Informationsverhalten als Forschungsgegenstand, in: Information. Wissenschaft & Praxis 2015; 66(1): 1-2).
  16. Steeg, F.; Pohl, A.: ¬Ein Protokoll für den Datenabgleich im Web am Beispiel von OpenRefine und der Gemeinsamen Normdatei (GND) (2021) 0.01
    0.009448001 = product of:
      0.037792005 = sum of:
        0.037792005 = weight(_text_:und in 367) [ClassicSimilarity], result of:
          0.037792005 = score(doc=367,freq=14.0), product of:
            0.11666329 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05263717 = queryNorm
            0.32394084 = fieldWeight in 367, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=367)
      0.25 = coord(1/4)
    
    Abstract
    Normdaten spielen speziell im Hinblick auf die Qualität der Inhaltserschließung bibliografischer und archivalischer Ressourcen eine wichtige Rolle. Ein konkretes Ziel der Inhaltserschließung ist z. B., dass alle Werke über Hermann Hesse einheitlich zu finden sind. Hier bieten Normdaten eine Lösung, indem z. B. bei der Erschließung einheitlich die GND-Nummer 11855042X für Hermann Hesse verwendet wird. Das Ergebnis ist eine höhere Qualität der Inhaltserschließung vor allem im Sinne von Einheitlichkeit und Eindeutigkeit und, daraus resultierend, eine bessere Auffindbarkeit. Werden solche Entitäten miteinander verknüpft, z. B. Hermann Hesse mit einem seiner Werke, entsteht ein Knowledge Graph, wie ihn etwa Google bei der Inhaltserschließung des Web verwendet (Singhal 2012). Die Entwicklung des Google Knowledge Graph und das hier vorgestellte Protokoll sind historisch miteinander verbunden: OpenRefine wurde ursprünglich als Google Refine entwickelt, und die Funktionalität zum Abgleich mit externen Datenquellen (Reconciliation) wurde ursprünglich zur Einbindung von Freebase entwickelt, einer der Datenquellen des Google Knowledge Graph. Freebase wurde später in Wikidata integriert. Schon Google Refine wurde zum Abgleich mit Normdaten verwendet, etwa den Library of Congress Subject Headings (Hooland et al. 2013).
    Series
    Bibliotheks- und Informationspraxis; 70
  17. Neudecker, C.; Zaczynska, K.; Baierer, K.; Rehm, G.; Gerber, M.; Moreno Schneider, J.: Methoden und Metriken zur Messung von OCR-Qualität für die Kuratierung von Daten und Metadaten (2021) 0.01
    0.009448001 = product of:
      0.037792005 = sum of:
        0.037792005 = weight(_text_:und in 369) [ClassicSimilarity], result of:
          0.037792005 = score(doc=369,freq=14.0), product of:
            0.11666329 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05263717 = queryNorm
            0.32394084 = fieldWeight in 369, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=369)
      0.25 = coord(1/4)
    
    Abstract
    Durch die systematische Digitalisierung der Bestände in Bibliotheken und Archiven hat die Verfügbarkeit von Bilddigitalisaten historischer Dokumente rasant zugenommen. Das hat zunächst konservatorische Gründe: Digitalisierte Dokumente lassen sich praktisch nach Belieben in hoher Qualität vervielfältigen und sichern. Darüber hinaus lässt sich mit einer digitalisierten Sammlung eine wesentlich höhere Reichweite erzielen, als das mit dem Präsenzbestand allein jemals möglich wäre. Mit der zunehmenden Verfügbarkeit digitaler Bibliotheks- und Archivbestände steigen jedoch auch die Ansprüche an deren Präsentation und Nachnutzbarkeit. Neben der Suche auf Basis bibliothekarischer Metadaten erwarten Nutzer:innen auch, dass sie die Inhalte von Dokumenten durchsuchen können. Im wissenschaftlichen Bereich werden mit maschinellen, quantitativen Analysen von Textmaterial große Erwartungen an neue Möglichkeiten für die Forschung verbunden. Neben der Bilddigitalisierung wird daher immer häufiger auch eine Erfassung des Volltextes gefordert. Diese kann entweder manuell durch Transkription oder automatisiert mit Methoden der Optical Character Recognition (OCR) geschehen (Engl et al. 2020). Der manuellen Erfassung wird im Allgemeinen eine höhere Qualität der Zeichengenauigkeit zugeschrieben. Im Bereich der Massendigitalisierung fällt die Wahl aus Kostengründen jedoch meist auf automatische OCR-Verfahren.
    Series
    Bibliotheks- und Informationspraxis; 70
  18. Prinz, W.: Bewusstsein erklären (2021) 0.01
    0.009448001 = product of:
      0.037792005 = sum of:
        0.037792005 = weight(_text_:und in 424) [ClassicSimilarity], result of:
          0.037792005 = score(doc=424,freq=14.0), product of:
            0.11666329 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05263717 = queryNorm
            0.32394084 = fieldWeight in 424, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=424)
      0.25 = coord(1/4)
    
    Abstract
    Bewusstsein erklären - was heißt das und wie geht das? Die zentrale Idee von Wolfgang Prinz, die in diesem Buch vorgestellt wird, versteht Bewusstsein als eine soziale Institution, die auf Selbstrepräsentation beruht. Bewusstsein erklären heißt deshalb, das mentale Selbst erklären. Die Diskussion richtet sich zum einen auf die Begründung und Ausarbeitung der Idee selbst, zum anderen auf die Charakterisierung der sozialen Interaktionsprozesse, die sie realisieren. Im Mittelpunkt steht dabei die Frage, wie das Zusammenspiel von kognitiven Mechanismen und sozialen Praktiken Selbstrepräsentation und also Bewusstsein hervorbringen kann.
    Footnote
    Rez. in: Spektrum der Wissenschaft. 2021, H.12, S.92-93 (Tobias Keil): "... Das Werk ist in drei große Abschnitte geteilt. Der erste handelt von der Psychologie als wissenschaftlicher Disziplin und attestiert ihr zunächst nicht nur mangelnde Kompaktheit, sondern auch fehlendes Selbstbewusstsein. Fundiert legt der Autor dar, was das Fach leisten kann und muss - oder eben nicht, wenn es um die Erklärung von Bewusstsein geht. Die tief gehende Auseinandersetzung dient auch dazu, den Geist in Anlehnung an Brentano auf die »implizite Anwesenheit eines Ichs« zurückzuführen. Wird das Ich hingegen als Produkt des Bewusstseins verstanden, müsste man die schwierigere Frage beantworten, woher dieses stammt. Aber wie kommt in einem sonst subjektlosen Universum Subjektivität in die Welt, und wozu ist sie gut? ..."
  19. Rölke, H.; Weichselbraun, A.: Ontologien und Linked Open Data (2023) 0.01
    0.009448001 = product of:
      0.037792005 = sum of:
        0.037792005 = weight(_text_:und in 788) [ClassicSimilarity], result of:
          0.037792005 = score(doc=788,freq=14.0), product of:
            0.11666329 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05263717 = queryNorm
            0.32394084 = fieldWeight in 788, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=788)
      0.25 = coord(1/4)
    
    Abstract
    Der Begriff Ontologie stammt ursprünglich aus der Metaphysik, einem Teilbereich der Philosophie, welcher sich um die Erkenntnis der Grundstruktur und Prinzipien der Wirklichkeit bemüht. Ontologien befassen sich dabei mit der Frage, welche Dinge auf der fundamentalsten Ebene existieren, wie sich diese strukturieren lassen und in welchen Beziehungen diese zueinanderstehen. In der Informationswissenschaft hingegen werden Ontologien verwendet, um das Vokabular für die Beschreibung von Wissensbereichen zu formalisieren. Ziel ist es, dass alle Akteure, die in diesen Bereichen tätig sind, die gleichen Konzepte und Begrifflichkeiten verwenden, um eine reibungslose Zusammenarbeit ohne Missverständnisse zu ermöglichen. So definierte zum Beispiel die Dublin Core Metadaten Initiative 15 Kernelemente, die zur Beschreibung von elektronischen Ressourcen und Medien verwendet werden können. Jedes Element wird durch eine eindeutige Bezeichnung (zum Beispiel identifier) und eine zugehörige Konzeption, welche die Bedeutung dieser Bezeichnung möglichst exakt festlegt, beschrieben. Ein Identifier muss zum Beispiel laut der Dublin Core Ontologie ein Dokument basierend auf einem zugehörigen Katalog eindeutig identifizieren. Je nach Katalog kämen daher zum Beispiel eine ISBN (Katalog von Büchern), ISSN (Katalog von Zeitschriften), URL (Web), DOI (Publikationsdatenbank) etc. als Identifier in Frage.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  20. Schaer, P.: Sprachmodelle und neuronale Netze im Information Retrieval (2023) 0.01
    0.009448001 = product of:
      0.037792005 = sum of:
        0.037792005 = weight(_text_:und in 799) [ClassicSimilarity], result of:
          0.037792005 = score(doc=799,freq=14.0), product of:
            0.11666329 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05263717 = queryNorm
            0.32394084 = fieldWeight in 799, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=799)
      0.25 = coord(1/4)
    
    Abstract
    In den letzten Jahren haben Sprachmodelltechnologien unterschiedlichster Ausprägungen in der Informationswissenschaft Einzug gehalten. Diesen Sprachmodellen, die unter den Bezeichnungen GPT, ELMo oder BERT bekannt sind, ist gemein, dass sie dank sehr großer Webkorpora auf eine Datenbasis zurückgreifen, die bei vorherigen Sprachmodellansätzen undenkbar war. Gleichzeitig setzen diese Modelle auf neuere Entwicklungen des maschinellen Lernens, insbesondere auf künstliche neuronale Netze. Diese Technologien haben auch im Information Retrieval (IR) Fuß gefasst und bereits kurz nach ihrer Einführung sprunghafte, substantielle Leistungssteigerungen erzielt. Neuronale Netze haben in Kombination mit großen vortrainierten Sprachmodellen und kontextualisierten Worteinbettungen geführt. Wurde in vergangenen Jahren immer wieder eine stagnierende Retrievalleistung beklagt, die Leistungssteigerungen nur gegenüber "schwachen Baselines" aufwies, so konnten mit diesen technischen und methodischen Innovationen beeindruckende Leistungssteigerungen in Aufgaben wie dem klassischen Ad-hoc-Retrieval, der maschinellen Übersetzung oder auch dem Question Answering erzielt werden. In diesem Kapitel soll ein kurzer Überblick über die Grundlagen der Sprachmodelle und der NN gegeben werden, um die prinzipiellen Bausteine zu verstehen, die hinter aktuellen Technologien wie ELMo oder BERT stecken, die die Welt des NLP und IR im Moment beherrschen.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg

Languages

  • d 403
  • e 22
  • m 2
  • pt 2
  • More… Less…

Types

  • a 312
  • el 209
  • m 53
  • s 7
  • x 3
  • p 1
  • r 1
  • More… Less…

Subjects

Classifications