Search (464 results, page 13 of 24)

  • × year_i:[2020 TO 2030}
  1. Wittwer, B.: Von NEBIS zu SLSP : wie die Datenmigration des grössten Schweizer Verbundes umgesetzt wurde (2021) 0.01
    0.010449567 = product of:
      0.041798268 = sum of:
        0.041798268 = weight(_text_:und in 1538) [ClassicSimilarity], result of:
          0.041798268 = score(doc=1538,freq=10.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.3287631 = fieldWeight in 1538, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1538)
      0.25 = coord(1/4)
    
    Abstract
    Am 7. Dezember 2020 begann mit swisscovery für das Schweizer Bibliothekswesen eine neue Ära. Die sechs grossen Bibliotheksverbünde fusionierten zu einer einzigen Plattform, der Swiss Library Service Plattform (SLSP). Damit einhergehend wurde mit Ex Libris Alma auch ein neues Bibliothekssystem eingeführt und Aleph und SFX abgelöst. Für den NEBIS-Verbund, ehemals grösster Bibliotheksverbund in der Schweiz, bedeutete dies, die Datenmigration zu organisieren und die NEBIS-Bibliotheken beim Wechsel zu SLSP zu begleiten. Ein Wechsel des Bibliothekssystems ist immer mit vielfältigen Herausforderungen und Unwägbarkeiten verbunden. Welche konzeptuellen Überlegungen sich die NEBIS-Systemverantwortlichen bezüglich der Datenmigration gemacht haben und wie die unzähligen Bereinigungen priorisiert wurden, wird nebst den Lessons Learned im Folgenden aufgezeigt.
  2. Behrens, R.: Version 1.1 der RNAB erschienen (2022) 0.01
    0.010449567 = product of:
      0.041798268 = sum of:
        0.041798268 = weight(_text_:und in 1804) [ClassicSimilarity], result of:
          0.041798268 = score(doc=1804,freq=10.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.3287631 = fieldWeight in 1804, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1804)
      0.25 = coord(1/4)
    
    Abstract
    Mailtext: "die Arbeitsgruppe RNAB des Standardisierungsausschusses freut sich, die Aktualisierung der 2019 erstmals veröffentlichten "Ressourcenerschließung mit Normdaten für Archive und Bibliotheken, (RNAB)" vorzulegen. Die hier präsentierte Version 1.1 ist keine grundsätzlich neue Fassung dieses Regelwerks. Es wurden überwiegend kleine Korrekturen und Ergänzungen im Text vorgenommen. Größere Veränderungen gibt es lediglich bei der stärkeren Abgrenzung des Werkbegriffs gegenüber der RDA und beim kontrollierten Vokabular. Schließlich behandelt das Regelwerk nunmehr die Nachlassbibliotheken als eigenständigen Sammelschwerpunkt. Sie finden die aktualisiert Version 1.1 auf der Website der Deutschen Nationalbibliothek unter DNB - Standards<https://www.dnb.de/DE/Professionell/Standardisierung/Standards/standards_node.html>. Um die Änderungen leichter nachvollziehen zu können, wird zusätzlich eine Fassung mit Markierungen zur Verfügung gestellt. Der Standardisierungsausschuss hat der Aktualisierung in seiner Sitzung im Dezember 2021 zugestimmt und die RNAB zur Anwendung empfohlen. Ein besonderer Dank geht an das Redaktionsteam der RNAB: Martin Wedl (Österreichische Nationalbibliothek), Ralf Breslau (Staatsbibliothek zu Berlin) und Rudolf Probst (Schweizerische Nationalbibliothek)."
  3. Jetter, H.-C.: Mensch-Computer-Interaktion, usability und user experience (2023) 0.01
    0.010449567 = product of:
      0.041798268 = sum of:
        0.041798268 = weight(_text_:und in 1814) [ClassicSimilarity], result of:
          0.041798268 = score(doc=1814,freq=10.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.3287631 = fieldWeight in 1814, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1814)
      0.25 = coord(1/4)
    
    Abstract
    Die Interaktion mit Computern ist heute alltäglich. Sie ist tief in unsere physische und soziale Umgebung vorgedrungen, z. B. durch Smartphones, Personal Computer oder vernetzte Geräte im Smart Home von Fernseher bis Rauchmelder. Waren Computer einst hochtechnologische Kuriositäten in Rechenzentren, die pro Gerät von Hunderten Personen geteilt werden mussten, interagieren wir in der heutigen Ära der ubiquitären (also allgegenwärtigen) Computer tagtäglich mit Hunderten sichtbarer oder unsichtbarer Computer bei der Bewältigung unseres Alltags. Die Interaktion mit Computern ist somit zu einem festen Bestandteil unseres Alltags geworden, der zunehmend die Rolle einer Kulturtechnik einnimmt. Trotz dieser großen Relevanz entzieht sich der Begriff Mensch-Computer-Interaktion (MCI) bzw. Human-Computer Interaction (HCI) bislang einer kompakten und eindeutigen Definition. Es existieren unterschiedliche Interpretationen, die im folgenden Beitrag vorgestellt werden. Außerdem werden die beiden zentralen Qualitätskriterien der MCI erläutert: Usability bzw. Gebrauchstauglichkeit (siehe DIN EN ISO 9241-11) und User Experience (UX) bzw. Benutzererlebnis (siehe DIN EN ISO 9241-210). Abschließend wird die Relevanz der MCI für die Informationswissenschaft diskutiert.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  4. Kuhlen, R.: Informationspathologien - Desinformation (2023) 0.01
    0.010449567 = product of:
      0.041798268 = sum of:
        0.041798268 = weight(_text_:und in 1821) [ClassicSimilarity], result of:
          0.041798268 = score(doc=1821,freq=10.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.3287631 = fieldWeight in 1821, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1821)
      0.25 = coord(1/4)
    
    Abstract
    Pathologie ist eine Disziplin der Medizin, die sich mit den Ursachen, dem Verlauf und den Auswirkungen von "abnormalen und krankhaften Vorgängen und Zuständen im Körper" und "Missbildungen aller Art" beschäftigt. Pathologien setzen als Maßstab einen Normalzustand (Gesundheit) voraus, der beschädigt bzw. eingeschränkt wird z. B. aufgrund von angeborenen Fehlentwicklungen, Krankheiten oder auch von post-traumatischen Erfahrungen. Entsprechend werden hier Informationspathologien bzw. Desinformationen als Beschädigungen bzw. Einschränkungen des Normalzustands von Information behandelt, wobei es problematisch ist zu bestimmen, was der Normalzustand von Information sein soll. In der Fachwelt wird häufig Desinformation (DI) als Oberbegriff für alle diese Phänomene verwendet. Sie sind aber im Detail doch sehr unterschiedlich, so dass sich Informationspathologie (IP) eher als Oberbegriff empfehlen würde. Hier wird im Folgenden beides, verkürzend als IP/DI, verwendet.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  5. Albrecht, I.: GPT-3: die Zukunft studentischer Hausarbeiten oder eine Bedrohung der wissenschaftlichen Integrität? (2023) 0.01
    0.010449567 = product of:
      0.041798268 = sum of:
        0.041798268 = weight(_text_:und in 1882) [ClassicSimilarity], result of:
          0.041798268 = score(doc=1882,freq=10.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.3287631 = fieldWeight in 1882, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1882)
      0.25 = coord(1/4)
    
    Abstract
    Mit dem Fortschritt künstlicher Intelligenzen sind auch progressive Sprachverarbeitungsmodelle auf den Markt gekommen. GPT-3 war nach seiner Veröffentlichung das leistungsstärkste Modell seiner Zeit. Das Programm generiert Texte, die oft nicht von menschlich verfassten Inhalten zu unterscheiden sind. GPT-3s Größe und Komplexität ermöglichen es, dass es wissenschaftliche Artikel eigenständig schreiben und ausgeben kann, die laut Studien und Untersuchungen zum Bestehen von Universitätskursen ausreichen. Mit der Entwicklung solcher Künstlichen Intelligenzen, insbesondere auf Open Source-Basis, könnten Studierende in Zukunft studentische Hausarbeiten von Textgeneratoren schreiben lassen. Diese Arbeit beschäftigt sich einerseits mit dem Modell GPT-3 und seinen Fähigkeiten sowie Risiken. Andererseits wird die Frage thematisiert, wie Hochschulen und Universitäten in Zukunft mit maschinell verfassten Arbeiten umgehen können.
  6. Bee, G.; Horstkotte, M.; Jahns, Y.; Karg, H.; Nadj-Guttandin, J.: Wissen, was verbindet: . O-Bib. Das Offene Bibliotheksjournal / Herausgeber VDB, 10(1), 1-15. : GND-Arbeit zwischen Terminologie und Redaktion (2023) 0.01
    0.010449567 = product of:
      0.041798268 = sum of:
        0.041798268 = weight(_text_:und in 1935) [ClassicSimilarity], result of:
          0.041798268 = score(doc=1935,freq=10.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.3287631 = fieldWeight in 1935, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1935)
      0.25 = coord(1/4)
    
    Abstract
    Die Gemeinsame Normdatei (GND) ist aus dem Bibliothekswesen nicht mehr wegzudenken und wird künftig verstärkt auch in anderen Einrichtungen aus Kultur und Wissenschaft zum Einsatz kommen. Von entscheidender Bedeutung für ihre Weiterentwicklung ist die kooperative Redaktionstätigkeit der im deutschsprachigen Raum tätigen Verbundpartner*innen, die im vorliegenden Beitrag näher vorgestellt wird. Nach einem kurzen historischen Überblick werden die Schwerpunkte und Besonderheiten der gegenwärtigen Terminologiearbeit anhand von Beispielen veranschaulicht. Im Anschluss daran wird der Frage nachgegangen, wie die Redaktionsarbeit an der GND an zukünftige Herausforderungen (z. B. den zunehmenden Einsatz maschineller Erschließung und die Vernetzung mit anderen Vokabularen) angepasst werden kann.
  7. Grundlagen der Informationswissenschaft (2023) 0.01
    0.010449567 = product of:
      0.041798268 = sum of:
        0.041798268 = weight(_text_:und in 2045) [ClassicSimilarity], result of:
          0.041798268 = score(doc=2045,freq=40.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.3287631 = fieldWeight in 2045, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=2045)
      0.25 = coord(1/4)
    
    Abstract
    Die 7. Ausgabe der "Grundlagen der praktischen Information und Dokumentation" (Erstausgabe 1972) heißt jetzt: "Grundlagen der Informationswissenschaft". Der Bezug zur Praxis und zur Ausbildung bleibt erhalten, aber der neue Titel trägt dem Rechnung, dass die wissenschaftliche theoretische Absicherung für alle Bereiche von Wissen und Information, nicht nur in der Fachinformation, sondern auch in den Informationsdiensten des Internet immer wichtiger wird. Für die Grundlagen sind 73 Artikel in 6 Hauptkapiteln vorgesehen. Viele Themen werden zum ersten Mal behandelt, z.B. Information und Emotion, Informationelle Selbstbestimmung, Informationspathologien. Alle Beiträge sind neu verfasst.
    Content
    Enthält die Kapitel: Grußwort Hochschulverband Informationswissenschaft / Vorwort der Herausgeber / Rainer Kuhlen & Wolfgang Semar: A 1 Information - ein Konstrukt mit Folgen - 3 / Marlies Ockenfeld: A 2 Institutionalisierung der Informationswissenschaft und der IuD-Infrastruktur in Deutschland - 27 / Hans-Christoph Hobohm: A 3 Theorien in der Informationswissenschaft - 45 / Julia Maria Struß & Dirk Lewandowski: A 4 Methoden in der Informationswissenschaft - 57 / Ursula Georgy, Frauke Schade & Stefan Schmunk A 5 Ausbildung, Studium und Weiterbildung in der Informationswissenschaft - 71 / Robert Strötgen & René Schneider: A 6 Bibliotheken - 83 / Karin Schwarz: A 7 Archive - 93 / Hartwig Lüdtke: A 8 Museen - 103 / Barbara Müller-Heiden: A 9 Mediatheken - 111 / Ragna Seidler-de Alwis: A 10 Information Professionals - 117 / Axel Ermert: A 11 Normen und Standardisierung im Informationsbereich - 123 / Thomas Bähr: A 12 Langzeitarchivierung - 135 / Ulrich Reimer: B 1 Einführung in die Wissensorganisation - 147 / Gerd Knorz: B 2 Intellektuelles Indexieren - 159 / Klaus Lepsky: B 3 Automatisches Indexieren - 171 / Andreas Oskar Kempf: B 4 Thesauri - 183 / Michael Kleineberg: B 5 Klassifikation - 195 / Heidrun Wiesenmüller: B 6 Formale Erschließung - 207 / Jochen Fassbender: B 7 Register/Indexe - 219 / Udo Hahn: B 8 Abstracting - Textzusammenfassung - 233 / Rolf Assfalg: B 9 Metadaten - 245 / Heiko Rölke & Albert Weichselbraun: B 10 Ontologien und Linked Open Data - 257 / Isabelle Dorsch & Stefanie Haustein: B 11 Bibliometrie - 271 / Udo Hahn: B 12 Automatische Sprachverarbeitung - 281 /
    Hans-Christian Jetter: B 13 Informationsvisualisierung und Visual Analytics - 295 / Melanie Siegel: B 14 Maschinelle Übersetzung - 307 / Ulrich Herb: B 15 Verfahren der wissenschaftlichen Qualitäts-/ Relevanzsicherung / Evaluierung - 317 / Thomas Mandl: B 16 Text Mining und Data Mining - 327 / Heike Neuroth: B 17 Forschungsdaten - 339 / Isabella Peters: B 18 Folksonomies & Social Tagging - 351 / Christa Womser-Hacker: C 1 Informationswissenschaftliche Perspektiven des Information Retrieval - 365 / Norbert Fuhr: C 2 Modelle im Information Retrieval - 379 / Dirk Lewandowski: C 3 Suchmaschinen - 391 / David Elsweiler & Udo Kruschwitz: C 4 Interaktives Information Retrieval - 403 / Thomas Mandl & Sebastian Diem: C 5 Bild- und Video-Retrieval - 413 / Maximilian Eibl, Josef Haupt, Stefan Kahl, Stefan Taubert & Thomas Wilhelm-Stein: C 6 Audio- und Musik-Retrieval - 423 / Christa Womser-Hacker: C 7 Cross-Language Information Retrieval (CLIR) - 433 / Vivien Petras & Christa Womser-Hacker: C 8 Evaluation im Information Retrieval - 443 / Philipp Schaer: C 9 Sprachmodelle und neuronale Netze im Information Retrieval - 455 / Stefanie Elbeshausen: C 10 Modellierung von Benutzer*innen, Kontextualisierung, Personalisierung - 467 / Ragna Seidler-de Alwis: C 11 Informationsrecherche - 477 / Ulrich Reimer: C 12 Empfehlungssysteme - 485 / Elke Greifeneder & Kirsten Schlebbe: D 1 Information Behaviour - 499 / Nicola Döring: D 2 Computervermittelte Kommunikation - 511 / Hans-Christian Jetter: D 3 Mensch-Computer-Interaktion, Usability und User Experience - 525 / Gabriele Irle: D 4 Emotionen im Information Seeking - 535 /
    Kirsten Schlebbe & Elke Greifeneder: D 5 Information Need, Informationsbedarf und -bedürfnis - 543 / Dirk Lewandowski & Christa Womser-Hacker: D 6 Information Seeking Behaviour - 553 / Wolfgang Semar: D 7 Informations- und Wissensmanagement - 567 / Joachim Griesbaum: D 8 Informationskompetenz - 581 / Antje Michel, Maria Gäde, Anke Wittich & Inka Tappenbeck: D 9 Informationsdidaktik - 595 / Rainer Kuhlen: E 1 Informationsmarkt - 605 / Wolfgang Semar: E 2 Plattformökonomie - 621 / Tassilo Pellegrini & Jan Krone: E 3 Medienökonomie - 633 / Christoph Bläsi: E 4 Verlage in Wissenschaft und Bildung - 643 / Irina Sens, Alexander Pöche, Dana Vosberg, Judith Ludwig & Nicola Bieg: E 5 Lizenzierungsformen - 655 / Joachim Griesbaum: E 6 Online-Marketing - 667 / Frauke Schade & Ursula Georgy: E 7 Marketing für Informationseinrichtungen - 679 / Isabella Peters: E 8 Social Media & Social Web - 691 / Klaus Tochtermann & Anna Maria Höfler: E 9 Open Science - 703 / Ulrich Herb & Heinz Pampel: E 10 Open Access - 715 / Tobias Siebenlist: E 11 Open Data - 727 / Sigrid Fahrer & Tamara Heck: E 12 Open Educational Resources - 735 / Tobias Siebenlist: E 13 Open Government - 745 / Herrmann Rösch: F 1 Informationsethik - 755 / Bernard Bekavac: F 2 Informations-, Kommunikationstechnologien- und Webtechnologien - 773 / Peter Brettschneider: F 3 Urheberrecht - 789 / Johannes Caspar: F 4 Datenschutz und Informationsfreiheit - 803 / Norman Meuschke, Nicole Walger & Bela Gipp: F 5 Plagiat - 817 / Rainer Kuhlen: F 6 Informationspathologien - Desinformation - 829 / Glossar
    Footnote
    Vgl.: https://doi.org/10.1515/9783110769043. Rez. in: o-bib. 10(2023), H.2 (A. Oßwald) [https://www.o-bib.de/bib/article/view/5934/8904]; Bibliothek: Forschung und Praxis. 47(2023) H.2, S.415-417 (D. Weisbrod) [https://www.degruyter.com/document/doi/10.1515/bfp-2023-0031/html].
  8. Escher, J.; Oldenburg, R.: Gute Erklärvideos erfordern mathematische und mathematikdidaktische Kompetenz (2024) 0.01
    0.010449567 = product of:
      0.041798268 = sum of:
        0.041798268 = weight(_text_:und in 2308) [ClassicSimilarity], result of:
          0.041798268 = score(doc=2308,freq=10.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.3287631 = fieldWeight in 2308, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=2308)
      0.25 = coord(1/4)
    
    Abstract
    Nach den enttäuschenden Ergebnissen der PISA-Studie wurde in der öffentlichen Berichterstattung vielfach der Eindruck vermittelt, die Lage ließe sich durch Digitalisierung wesentlich verbessern. In der Tat spricht einiges für die Annahme, dass digitale Lernumgebungen durch individuell angepasste Aufgabenauswahl und schnelles Feedback effektiv sein können. Allerdings ist das noch ein sehr aktives und aktuelles Forschungsgebiet. Positive Studienergebnisse gibt es vor allem zum Erlernen von prozeduralen Fertigkeiten, aber auch beim konzeptuellen Verständnis gibt es entsprechende Ergebnisse. Den aktuell größten Einfluss auf das Mathematiklernen dürften aber Erklärvideos haben, und in der Berichterstattung zu den PISA-Ergebnissen bekam insbesondere der YouTuber Daniel Jung ausführlich Gelegenheit, die Vorzüge seiner Erklärvideos anzupreisen (etwa im ZDF heute vom 6. 12. 2023 oder in Zeit online vom 8. 12. 2023). Es lohnt sich daher, exemplarisch einen genaueren Blick auf die mathematische und mathematikdidaktische Qualität seiner Videos zu werfen, weil, gemessen in Klickzahlen, sein YouTube-Kanal besonders erfolgreich ist.
  9. Loonus, Y.: Wie Künstliche Intelligenz die Recherche verändern wird : Vier Trends (2020) 0.01
    0.010303412 = product of:
      0.041213647 = sum of:
        0.041213647 = weight(_text_:und in 4940) [ClassicSimilarity], result of:
          0.041213647 = score(doc=4940,freq=14.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.32416478 = fieldWeight in 4940, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4940)
      0.25 = coord(1/4)
    
    Abstract
    In den vergangenen Jahren haben sich Begriffe wie "Artificial Intelligence" oder "Machine Learning" zunehmend als Teil unseres Wortschatzes etabliert. Auf der Jahreskonferenz der Competitive Intelligence Branche (DCIF e.V.) Ende September in Bamberg hörte ich den Begriff Artificial Intelligence 32-mal und den Begriff Machine Learning sechsmal - während der ersten zwei Vorträge! Wer hier einen ironischen Unterton herausliest, täuscht sich. Der sich wandelnde Wortschatz ist der lebende Beweis für die Neugierde und die Bereitschaft zur Entwicklung in unserer Branche.
    Content
    "Ich gehe stark davon aus, dass wir in Zukunft cloudbasierte Rechercheplattformen sehen werden, die folgende Features beinhalten: - Kollaboration und Zusammenarbeit (ähnlich beispielsweise Office 365) in einem Tool über diverse Datenquellen hinweg, - die Möglichkeit, interne und externe Stakeholder zu Recherchen einzuladen bzw. Ergebnisse effektiver zu teilen (Integration von firmeninternen Kommunikationssystemen wie Slack in die Plattform), - Kommentieren und Diskutieren von Dashboards, Charts und Datenpunkten im Social Media Stil, - Aufzeichnen von Recherchen mit "Screen Capture Technologie", - Nutzerprofile im Stile von LinkedIn, die es einfacher machen, Experten in einem Bereich zu identifizieren und eine sichtbare Auszeichnung darstellen, - neue KPI, die den Return on Investment moderner Technologien messen (zum Beispiel Time from Data Ingestion to Shared Insights, Number of People Reached in Company, Number of Insights Generated from Data Source).
  10. Lewandowski, D.: Suchmaschinen verstehen : 3. vollständig überarbeitete und erweiterte Aufl. (2021) 0.01
    0.010303412 = product of:
      0.041213647 = sum of:
        0.041213647 = weight(_text_:und in 16) [ClassicSimilarity], result of:
          0.041213647 = score(doc=16,freq=14.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.32416478 = fieldWeight in 16, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=16)
      0.25 = coord(1/4)
    
    Abstract
    Suchmaschinen dienen heute selbstverständlich als Werkzeuge, um Informationen zu recherchieren. Doch wie funktionieren diese genau? Das Buch betrachtet Suchmaschinen aus vier Perspektiven: Technik, Nutzung, Recherche und gesellschaftliche Bedeutung. Es bietet eine klar strukturierte und verständliche Einführung in die Thematik. Zahlreiche Abbildungen erlauben eine schnelle Erfassung des Stoffs. Rankingverfahren und Nutzerverhalten werden dargestellt. Dazu kommen grundlegende Betrachtungen des Suchmaschinenmarkts, der Suchmaschinenoptimierung und der Rolle der Suchmaschinen als technische Informationsvermittler. Das Buch richtet sich an alle, die ein umfassendes Verständnis dieser Suchwerkzeuge erlangen wollen, u.a. Suchmaschinenoptimierer, Entwickler, Informationswissenschaftler, Bibliothekare sowie Online-Marketing-Verantwortliche. Für die dritte Auflage wurde der Text vollständig überarbeitet sowie alle Statistiken und Quellen auf den neuesten Stand gebracht.
    Content
    Vgl. die Anzeige in Open Password Nr.959 vom 11.08.2021: Einer der wenigen "Bestseller" der Informationsbranche, der nunmehr in die dritte Auflage geht. Das Buch wurde in Details überarbeitet sowie aktualisiert. Dazu wurden die Literaturangaben "vielfach erheblich" ergänzt. Dazu der Verfasser Dirk Lewandowski in seinem Vorwort: "Ich habe aber darauf geachtet, dass dieses Buch nicht das Schicksal vieler einführender Werke widerfährt, nämlich, dass es immer weiter anwächst, letztlich aber keine gut lesbare Einführung mehr darstellt." Veränderungen ergaben sich zum Teil, weil "ich durch die vielen Rückmeldungen auch zahlreiche Hinweise bekommen (habe), welche Teile noch verständlicher gemacht werden sollten, wo ergänzt, und wo gestrichen werden sollte."
  11. Göbel, S.; Sperber, W.; Wegner, B.: 150 Jahre : ein Rückblick auf das Jahrbuch über die Fortschritte der Mathematik (2020) 0.01
    0.010303412 = product of:
      0.041213647 = sum of:
        0.041213647 = weight(_text_:und in 1073) [ClassicSimilarity], result of:
          0.041213647 = score(doc=1073,freq=14.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.32416478 = fieldWeight in 1073, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1073)
      0.25 = coord(1/4)
    
    Abstract
    Das Jahrbuch über die Fortschritte der Mathematik (JFM) 1868-1942 ist mehr als ein historischer Zeitzeuge für die Entwicklung der Mathematik in der zweiten Hälfte des 19. und ersten Hälfte des 20. Jahrhunderts. Als integraler Bestandteil der Datenbank zbMATH bieten die Daten des JFM einen Zugang zur mathematischen Literatur ab der Mitte des 19. Jahrhunderts. Das Jahrbuch hat eine bewegte Geschichte. Es entstand aus einer privaten Initiative, geriet durch den ersten Weltkrieg in eine tiefe Krise, wurde dann von der Preußischen Akademie der Wissenschaften übernommen, die das Jahrbuch noch bis zum Ende des zweiten Weltkriegs unter sich ständig verschlechternden Rahmenbedingungen und zunehmenden politischen Restriktionen weiterbetrieben hat. Der Artikel beschreibt die Enstehungsgeschichte und die Entwicklung des JFM von 1868 bis heute und würdigt das Wirken der Mathematiker, die federführend daran beteiligt waren. Einen Schwerpunkt bildet die konzeptionelle Diskussion und die Entwicklung der Anforderungen an mathematische Literaturdokumentationsdienste, die heute, im digitalen Zeitalter, vor gänzlich neuen Herausforderungen stehen. Zusätzlich zu den Daten des JFM liegt einiges an Originaldokumenten und Sekundärliteratur in der Berlin-Brandenburgischen Akademie der Wissenschaften (BBAW) vor. Aber nicht alles wurde dokumentiert und vieles ist verschollen, etwa die Daten des JFM für das Jahr 1943. Wir weisen an mehreren Stellen im Artikel darauf hin.
  12. Jörs, B.: ¬Ein kleines Fach zwischen "Daten" und "Wissen" I : Anmerkungen zum (virtuellen) "16th International Symposium of Information Science" (ISI 2021", Regensburg) (2021) 0.01
    0.010303412 = product of:
      0.041213647 = sum of:
        0.041213647 = weight(_text_:und in 1339) [ClassicSimilarity], result of:
          0.041213647 = score(doc=1339,freq=14.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.32416478 = fieldWeight in 1339, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1339)
      0.25 = coord(1/4)
    
    Abstract
    Wenn ein Programmkomitee für ein wissenschaftliches Symposium mit 65 Personen besetzt wird, dann darf man sich auf ein breites und qualitativ fundiertes Programm und Symposium freuen, auch wenn der Abstimmungsbedarf zwischen den 65 Komiteemitgliedern extrem aufwendig gewesen sein muss. Coronabedingt musste das dreitätige Symposium virtuell stattfinden und organisiert werden. Dennoch wurde als offizieller Tagungsort Regensburg gewählt und wohl auch in Erinnerung an den leider viel zu früh verstorbenen Rainer Hammwöhner das Thema "Information Science and its Neighbours from Data Science to Digital Humanities" im Subtitel des Tagungsthemas "Information between Data and Knowledge" gewählt. Schließlich war es Rainer Hammwöhner (in Zusammenarbeit mit David Elsweiler und Christian Wolff), der schon 2015 auf den für die deutschsprachige Informationswissenschaft erschreckenden Tatbestand einer langjährig naiv anmutenden Ignoranz des internationalen "Information Behavior"-Forschungsfeldes hinwies: "Man wird der deutschsprachigen Informationswissenschaft nicht wirklich unrecht tun, wenn man sie in Sachen Informationsverhalten als Spätentwickler charakterisiert. Einem der Herausgeber dieses Themenheftes ist diesbezüglich noch gut in Erinnerung, wie er 2007 im Rahmen des informationswissenschaftlichen Symposiums in Köln von einem Kollegen aus Down Under gefragt wurde, warum es denn in Deutschland keine Forschung zu diesem Thema gebe, wo dies doch in der englischsprachigen Community seit Jahren ein heißes Thema sei" (David Elsweiler, Rainer Hammwöhner und Christian Wolff, Regensburg: Informationsverhalten als Forschungsgegenstand, in: Information. Wissenschaft & Praxis 2015; 66(1): 1-2).
  13. Steeg, F.; Pohl, A.: ¬Ein Protokoll für den Datenabgleich im Web am Beispiel von OpenRefine und der Gemeinsamen Normdatei (GND) (2021) 0.01
    0.010303412 = product of:
      0.041213647 = sum of:
        0.041213647 = weight(_text_:und in 1368) [ClassicSimilarity], result of:
          0.041213647 = score(doc=1368,freq=14.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.32416478 = fieldWeight in 1368, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1368)
      0.25 = coord(1/4)
    
    Abstract
    Normdaten spielen speziell im Hinblick auf die Qualität der Inhaltserschließung bibliografischer und archivalischer Ressourcen eine wichtige Rolle. Ein konkretes Ziel der Inhaltserschließung ist z. B., dass alle Werke über Hermann Hesse einheitlich zu finden sind. Hier bieten Normdaten eine Lösung, indem z. B. bei der Erschließung einheitlich die GND-Nummer 11855042X für Hermann Hesse verwendet wird. Das Ergebnis ist eine höhere Qualität der Inhaltserschließung vor allem im Sinne von Einheitlichkeit und Eindeutigkeit und, daraus resultierend, eine bessere Auffindbarkeit. Werden solche Entitäten miteinander verknüpft, z. B. Hermann Hesse mit einem seiner Werke, entsteht ein Knowledge Graph, wie ihn etwa Google bei der Inhaltserschließung des Web verwendet (Singhal 2012). Die Entwicklung des Google Knowledge Graph und das hier vorgestellte Protokoll sind historisch miteinander verbunden: OpenRefine wurde ursprünglich als Google Refine entwickelt, und die Funktionalität zum Abgleich mit externen Datenquellen (Reconciliation) wurde ursprünglich zur Einbindung von Freebase entwickelt, einer der Datenquellen des Google Knowledge Graph. Freebase wurde später in Wikidata integriert. Schon Google Refine wurde zum Abgleich mit Normdaten verwendet, etwa den Library of Congress Subject Headings (Hooland et al. 2013).
    Series
    Bibliotheks- und Informationspraxis; 70
  14. Neudecker, C.; Zaczynska, K.; Baierer, K.; Rehm, G.; Gerber, M.; Moreno Schneider, J.: Methoden und Metriken zur Messung von OCR-Qualität für die Kuratierung von Daten und Metadaten (2021) 0.01
    0.010303412 = product of:
      0.041213647 = sum of:
        0.041213647 = weight(_text_:und in 1370) [ClassicSimilarity], result of:
          0.041213647 = score(doc=1370,freq=14.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.32416478 = fieldWeight in 1370, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1370)
      0.25 = coord(1/4)
    
    Abstract
    Durch die systematische Digitalisierung der Bestände in Bibliotheken und Archiven hat die Verfügbarkeit von Bilddigitalisaten historischer Dokumente rasant zugenommen. Das hat zunächst konservatorische Gründe: Digitalisierte Dokumente lassen sich praktisch nach Belieben in hoher Qualität vervielfältigen und sichern. Darüber hinaus lässt sich mit einer digitalisierten Sammlung eine wesentlich höhere Reichweite erzielen, als das mit dem Präsenzbestand allein jemals möglich wäre. Mit der zunehmenden Verfügbarkeit digitaler Bibliotheks- und Archivbestände steigen jedoch auch die Ansprüche an deren Präsentation und Nachnutzbarkeit. Neben der Suche auf Basis bibliothekarischer Metadaten erwarten Nutzer:innen auch, dass sie die Inhalte von Dokumenten durchsuchen können. Im wissenschaftlichen Bereich werden mit maschinellen, quantitativen Analysen von Textmaterial große Erwartungen an neue Möglichkeiten für die Forschung verbunden. Neben der Bilddigitalisierung wird daher immer häufiger auch eine Erfassung des Volltextes gefordert. Diese kann entweder manuell durch Transkription oder automatisiert mit Methoden der Optical Character Recognition (OCR) geschehen (Engl et al. 2020). Der manuellen Erfassung wird im Allgemeinen eine höhere Qualität der Zeichengenauigkeit zugeschrieben. Im Bereich der Massendigitalisierung fällt die Wahl aus Kostengründen jedoch meist auf automatische OCR-Verfahren.
    Series
    Bibliotheks- und Informationspraxis; 70
  15. Prinz, W.: Bewusstsein erklären (2021) 0.01
    0.010303412 = product of:
      0.041213647 = sum of:
        0.041213647 = weight(_text_:und in 1425) [ClassicSimilarity], result of:
          0.041213647 = score(doc=1425,freq=14.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.32416478 = fieldWeight in 1425, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1425)
      0.25 = coord(1/4)
    
    Abstract
    Bewusstsein erklären - was heißt das und wie geht das? Die zentrale Idee von Wolfgang Prinz, die in diesem Buch vorgestellt wird, versteht Bewusstsein als eine soziale Institution, die auf Selbstrepräsentation beruht. Bewusstsein erklären heißt deshalb, das mentale Selbst erklären. Die Diskussion richtet sich zum einen auf die Begründung und Ausarbeitung der Idee selbst, zum anderen auf die Charakterisierung der sozialen Interaktionsprozesse, die sie realisieren. Im Mittelpunkt steht dabei die Frage, wie das Zusammenspiel von kognitiven Mechanismen und sozialen Praktiken Selbstrepräsentation und also Bewusstsein hervorbringen kann.
    Footnote
    Rez. in: Spektrum der Wissenschaft. 2021, H.12, S.92-93 (Tobias Keil): "... Das Werk ist in drei große Abschnitte geteilt. Der erste handelt von der Psychologie als wissenschaftlicher Disziplin und attestiert ihr zunächst nicht nur mangelnde Kompaktheit, sondern auch fehlendes Selbstbewusstsein. Fundiert legt der Autor dar, was das Fach leisten kann und muss - oder eben nicht, wenn es um die Erklärung von Bewusstsein geht. Die tief gehende Auseinandersetzung dient auch dazu, den Geist in Anlehnung an Brentano auf die »implizite Anwesenheit eines Ichs« zurückzuführen. Wird das Ich hingegen als Produkt des Bewusstseins verstanden, müsste man die schwierigere Frage beantworten, woher dieses stammt. Aber wie kommt in einem sonst subjektlosen Universum Subjektivität in die Welt, und wozu ist sie gut? ..."
  16. Rölke, H.; Weichselbraun, A.: Ontologien und Linked Open Data (2023) 0.01
    0.010303412 = product of:
      0.041213647 = sum of:
        0.041213647 = weight(_text_:und in 1789) [ClassicSimilarity], result of:
          0.041213647 = score(doc=1789,freq=14.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.32416478 = fieldWeight in 1789, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1789)
      0.25 = coord(1/4)
    
    Abstract
    Der Begriff Ontologie stammt ursprünglich aus der Metaphysik, einem Teilbereich der Philosophie, welcher sich um die Erkenntnis der Grundstruktur und Prinzipien der Wirklichkeit bemüht. Ontologien befassen sich dabei mit der Frage, welche Dinge auf der fundamentalsten Ebene existieren, wie sich diese strukturieren lassen und in welchen Beziehungen diese zueinanderstehen. In der Informationswissenschaft hingegen werden Ontologien verwendet, um das Vokabular für die Beschreibung von Wissensbereichen zu formalisieren. Ziel ist es, dass alle Akteure, die in diesen Bereichen tätig sind, die gleichen Konzepte und Begrifflichkeiten verwenden, um eine reibungslose Zusammenarbeit ohne Missverständnisse zu ermöglichen. So definierte zum Beispiel die Dublin Core Metadaten Initiative 15 Kernelemente, die zur Beschreibung von elektronischen Ressourcen und Medien verwendet werden können. Jedes Element wird durch eine eindeutige Bezeichnung (zum Beispiel identifier) und eine zugehörige Konzeption, welche die Bedeutung dieser Bezeichnung möglichst exakt festlegt, beschrieben. Ein Identifier muss zum Beispiel laut der Dublin Core Ontologie ein Dokument basierend auf einem zugehörigen Katalog eindeutig identifizieren. Je nach Katalog kämen daher zum Beispiel eine ISBN (Katalog von Büchern), ISSN (Katalog von Zeitschriften), URL (Web), DOI (Publikationsdatenbank) etc. als Identifier in Frage.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  17. Schaer, P.: Sprachmodelle und neuronale Netze im Information Retrieval (2023) 0.01
    0.010303412 = product of:
      0.041213647 = sum of:
        0.041213647 = weight(_text_:und in 1800) [ClassicSimilarity], result of:
          0.041213647 = score(doc=1800,freq=14.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.32416478 = fieldWeight in 1800, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1800)
      0.25 = coord(1/4)
    
    Abstract
    In den letzten Jahren haben Sprachmodelltechnologien unterschiedlichster Ausprägungen in der Informationswissenschaft Einzug gehalten. Diesen Sprachmodellen, die unter den Bezeichnungen GPT, ELMo oder BERT bekannt sind, ist gemein, dass sie dank sehr großer Webkorpora auf eine Datenbasis zurückgreifen, die bei vorherigen Sprachmodellansätzen undenkbar war. Gleichzeitig setzen diese Modelle auf neuere Entwicklungen des maschinellen Lernens, insbesondere auf künstliche neuronale Netze. Diese Technologien haben auch im Information Retrieval (IR) Fuß gefasst und bereits kurz nach ihrer Einführung sprunghafte, substantielle Leistungssteigerungen erzielt. Neuronale Netze haben in Kombination mit großen vortrainierten Sprachmodellen und kontextualisierten Worteinbettungen geführt. Wurde in vergangenen Jahren immer wieder eine stagnierende Retrievalleistung beklagt, die Leistungssteigerungen nur gegenüber "schwachen Baselines" aufwies, so konnten mit diesen technischen und methodischen Innovationen beeindruckende Leistungssteigerungen in Aufgaben wie dem klassischen Ad-hoc-Retrieval, der maschinellen Übersetzung oder auch dem Question Answering erzielt werden. In diesem Kapitel soll ein kurzer Überblick über die Grundlagen der Sprachmodelle und der NN gegeben werden, um die prinzipiellen Bausteine zu verstehen, die hinter aktuellen Technologien wie ELMo oder BERT stecken, die die Welt des NLP und IR im Moment beherrschen.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  18. Semar, W.: Informations- und Wissensmanagement (2023) 0.01
    0.010303412 = product of:
      0.041213647 = sum of:
        0.041213647 = weight(_text_:und in 1818) [ClassicSimilarity], result of:
          0.041213647 = score(doc=1818,freq=14.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.32416478 = fieldWeight in 1818, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1818)
      0.25 = coord(1/4)
    
    Abstract
    In der Literatur wird Informations- und Wissensmanagement oft zusammen und in dieser Reihenfolge betitelt. In der Tat handelt es sich aber um zwei eigenständige Themenbereiche, die sich ergänzen. Ausgangspunkt muss jedoch zunächst das Wissen von Menschen sein, damit man ihnen anschließend die für sie relevante Information zukommen lassen kann. Hierdurch sind bereits die Aufgaben der beiden Bereiche festgelegt. Im Wissensmanagement geht es um das gezielte Organisieren von Wissen, das in den Köpfen der Menschen vorhanden ist. Dadurch, dass Wissen in der Zwischenzeit unbestritten eine der wichtigsten Ressourcen eines Unternehmens bzw. jeglicher Formen einer Organisation ist, steht das Managen des Wissens aller Mitarbeitenden im Vordergrund. Beim Informationsmanagement geht es um das gezielte Organisieren von Information, damit die Mitarbeitenden jederzeit über das relevante Wissen verfügen, um ihre Aufgabe erfüllen zu können. Wissen ist somit etwas Internes, im Kopf der Menschen, während Information von außen kommt, also etwas Externes ist. Die Kulturaspekte und die Fokussierung auf die Mitarbeitenden als Wissensträger stehen im Vordergrund des Wissensmanagements, während beim Informationsmanagement die Informationsversorgung und die dafür notwendige technische Infrastruktur im Vordergrund stehen. Gemäß diesem Konzept gehen wir im Folgenden zunächst auf das Wissensmanagement und anschließend auf das Informationsmanagement ein.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  19. Köhler, W.G.: Challenges of efficient and compliant data processing : assuring legal access to data (2024) 0.01
    0.010199858 = product of:
      0.04079943 = sum of:
        0.04079943 = weight(_text_:und in 2241) [ClassicSimilarity], result of:
          0.04079943 = score(doc=2241,freq=28.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.32090676 = fieldWeight in 2241, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=2241)
      0.25 = coord(1/4)
    
    Abstract
    Die fortschreitende Digitalisierung verändert die Gesellschaft und hat weitreichende Auswirkungen auf Menschen und Unternehmen. Grundlegend für diese Veränderungen sind die neuen technologischen Möglichkeiten, Daten in immer größerem Umfang und für vielfältige neue Zwecke zu verarbeiten. Von besonderer Bedeutung ist dabei die Verfügbarkeit großer und qualitativ hochwertiger Datensätze, insbesondere auf Basis personenbezogener Daten. Sie werden entweder zur Verbesserung der Produktivität, Qualität und Individualität von Produkten und Dienstleistungen oder gar zur Entwicklung neuartiger Dienstleistungen verwendet. Heute wird das Nutzerverhalten, trotz weltweit steigender gesetzlicher Anforderungen an den Schutz personenbezogener Daten, aktiver und umfassender verfolgt als je zuvor. Dies wirft vermehrt ethische, moralische und gesellschaftliche Fragen auf, die nicht zuletzt durch populäre Fälle des Datenmissbrauchs in den Vordergrund der politischen Debatte gerückt sind. Angesichts dieses Diskurses und der gesetzlichen Anforderungen muss heutiges Datenmanagement drei Bedingungen erfüllen: Erstens die Legalität bzw. Gesetzeskonformität der Nutzung, zweitens die ethische Legitimität. Drittens sollte die Datennutzung aus betriebswirtschaftlicher Sicht wertschöpfend sein. Im Rahmen dieser Bedingungen verfolgt die vorliegende kumulative Dissertation vier Forschungsziele mit dem Fokus, ein besseres Verständnis (1) der Herausforderungen bei der Umsetzung von Gesetzen zum Schutz von Privatsphäre, (2) der Faktoren, die die Bereitschaft der Kunden zur Weitergabe persönlicher Daten beeinflussen, (3) der Rolle des Datenschutzes für das digitale Unternehmertum und (4) der interdisziplinären wissenschaftlichen Bedeutung, deren Entwicklung und Zusammenhänge zu erlangen.
    Content
    Dissertation zur Erlangung des Doktorgrades (doctor rerum politicarum) an der Wirtschafts- und Sozialwissenschaftlichen Fakultät der Universität Potsdam. Deutscher Titel: Herausforderungen einer effizienten und gesetzeskonformen Datenverarbeitung :Sicherstellung des rechtmäßigen Zugangs zu Daten. urn:nbn:de:kobv:517-opus4-627843. https://doi.org/10.25932/publishup-62784.
    Imprint
    Potsdam : Wirtschafts- und Sozialwissenschaftlichen Fakultät der Universität
  20. Kasprzik, A.: Aufbau eines produktiven Dienstes für die automatisierte Inhaltserschließung an der ZBW : ein Status- und Erfahrungsbericht. (2023) 0.01
    0.0098519465 = product of:
      0.039407786 = sum of:
        0.039407786 = weight(_text_:und in 1936) [ClassicSimilarity], result of:
          0.039407786 = score(doc=1936,freq=20.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.3099608 = fieldWeight in 1936, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1936)
      0.25 = coord(1/4)
    
    Abstract
    Die ZBW - Leibniz-Informationszentrum Wirtschaft betreibt seit 2016 eigene angewandte Forschung im Bereich Machine Learning mit dem Zweck, praktikable Lösungen für eine automatisierte oder maschinell unterstützte Inhaltserschließung zu entwickeln. 2020 begann ein Team an der ZBW die Konzeption und Implementierung einer Softwarearchitektur, die es ermöglichte, diese prototypischen Lösungen in einen produktiven Dienst zu überführen und mit den bestehenden Nachweis- und Informationssystemen zu verzahnen. Sowohl die angewandte Forschung als auch die für dieses Vorhaben ("AutoSE") notwendige Softwareentwicklung sind direkt im Bibliotheksbereich der ZBW angesiedelt, werden kontinuierlich anhand des State of the Art vorangetrieben und profitieren von einem engen Austausch mit den Verantwortlichen für die intellektuelle Inhaltserschließung. Dieser Beitrag zeigt die Meilensteine auf, die das AutoSE-Team in zwei Jahren in Bezug auf den Aufbau und die Integration der Software erreicht hat, und skizziert, welche bis zum Ende der Pilotphase (2024) noch ausstehen. Die Architektur basiert auf Open-Source-Software und die eingesetzten Machine-Learning-Komponenten werden im Rahmen einer internationalen Zusammenarbeit im engen Austausch mit der Finnischen Nationalbibliothek (NLF) weiterentwickelt und zur Nachnutzung in dem von der NLF entwickelten Open-Source-Werkzeugkasten Annif aufbereitet. Das Betriebsmodell des AutoSE-Dienstes sieht regelmäßige Überprüfungen sowohl einzelner Komponenten als auch des Produktionsworkflows als Ganzes vor und erlaubt eine fortlaufende Weiterentwicklung der Architektur. Eines der Ergebnisse, das bis zum Ende der Pilotphase vorliegen soll, ist die Dokumentation der Anforderungen an einen dauerhaften produktiven Betrieb des Dienstes, damit die Ressourcen dafür im Rahmen eines tragfähigen Modells langfristig gesichert werden können. Aus diesem Praxisbeispiel lässt sich ableiten, welche Bedingungen gegeben sein müssen, um Machine-Learning-Lösungen wie die in Annif enthaltenen erfolgreich an einer Institution für die Inhaltserschließung einsetzen zu können.

Languages

  • d 434
  • e 25
  • m 2
  • pt 2
  • More… Less…

Types

  • a 335
  • el 230
  • m 60
  • s 7
  • x 5
  • p 1
  • r 1
  • More… Less…

Subjects

Classifications