Search (430 results, page 4 of 22)

  • × year_i:[2020 TO 2030}
  1. Markus, K.: Metadatenschemata für Forschungsdaten : Generische Standards und Spezifika in der Biologie und den Ingenieurwissenschaften (2020) 0.01
    0.012542827 = product of:
      0.05017131 = sum of:
        0.05017131 = weight(_text_:und in 133) [ClassicSimilarity], result of:
          0.05017131 = score(doc=133,freq=24.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.42413816 = fieldWeight in 133, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=133)
      0.25 = coord(1/4)
    
    Abstract
    Forschungsdaten sind von zunehmender Wichtigkeit für die Wissenschaft, Forschungsförderer und schließlich auch für die Arbeit an Bibliotheken. Sie sollen nicht nur veröffentlicht werden, sondern nach ihrer Publikation auch auffindbar und nachnutzbar sein, wie von den FAIR-Prinzipien gefordert. Die beschreibenden Metadaten müssen daher in ausreichendem Detail vorliegen, sowie standardisiert und maschinenverwendbar sein, um den Datenaustausch zu ermöglichen. Im Zuge dieser Entwicklung haben sich verschiedene Metadatenschemata und weitere Metadatenstandards sowohl für eine generische Beschreibung von Forschungsdaten, als auch für fachspezifische Metadaten einer Wissenschaftsdisziplin oder -teildisziplin etabliert. In diesem Beitrag wird eine Auswahl von weitverbreiteten generischen Standards sowie exemplarisch einzelne fachspezifische Standards aus der Biologie und den Ingenieurwissenschaft vorgestellt. Dabei wird auch die Kultur des Datenaustausches in den behandelten Fachdisziplinen beleuchtet, in dessen Kontext sich die entsprechenden Metadatenschemata herausbildet haben. Weiterhin wird auch ein kurzer Ausblick auf die Plattformen, die den Austausch von Daten- und Metadatenstandards, sowie ihre Weiterentwicklung und ihre Referenz unterstützen einbezogen. Bei der Forschungsdokumentation und entsprechender Anwendung von Metadatenstandards im Forschungsalltag bestehen weiterhin Hürden aufgrund des Aufwandes. Softwareanwendungen die die Dokumentation erleichtern und in die Metadatenschemata integriert werden könnten werden kurz diskutiert. In all diesen Bereichen können sich Bibliotheken unterstützend oder gestaltend einbringen und ihre Expertise gewinnbringend in Kommunikation mit der Wissenschaft zur Verfügung stellen.
  2. Baecker, D.: ¬Der Frosch, die Fliege und der Mensch : zum Tod von Humberto Maturana (2021) 0.01
    0.012542827 = product of:
      0.05017131 = sum of:
        0.05017131 = weight(_text_:und in 236) [ClassicSimilarity], result of:
          0.05017131 = score(doc=236,freq=6.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.42413816 = fieldWeight in 236, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=236)
      0.25 = coord(1/4)
    
    Abstract
    Die Frage, was Leben ist, hat Humberto Maturana beantwortet. Die Frage, was Erkennen ist, ließ ihn nie los. Nun ist der Forscher an den Schnittstellen von Neurobiologie und Philosophie in Santiago de Chile gestorben.
    Source
    https://www.faz.net/aktuell/feuilleton/buecher/biologe-und-philosoph-humberto-maturana-gestorben-17330542.html?printPagedArticle=true&service=printPreview
  3. Tuider, B.: Plansprachen und Sprachplanung : zum Stand interlinguistischer Forschungen (2021) 0.01
    0.012542827 = product of:
      0.05017131 = sum of:
        0.05017131 = weight(_text_:und in 317) [ClassicSimilarity], result of:
          0.05017131 = score(doc=317,freq=6.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.42413816 = fieldWeight in 317, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=317)
      0.25 = coord(1/4)
    
    Abstract
    Dieser Beitrag berichtet über das Symposium "Planned Languages and Language Planning", das die Österreichische Nationalbibliothek am 24. und 25. Oktober 2019 organisierte. Der Bericht zu den sechzehn Vorträgen gibt einen Überblick über aktuelle Forschungsthemen auf dem Gebiet der Interlinguistik.
    Source
    Bibliothek: Forschung und Praxis. 45(2021) H.2, S.333-339
  4. Suchsland, R.: Kritik der paranoiden Vernunft (2020) 0.01
    0.012542827 = product of:
      0.05017131 = sum of:
        0.05017131 = weight(_text_:und in 322) [ClassicSimilarity], result of:
          0.05017131 = score(doc=322,freq=6.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.42413816 = fieldWeight in 322, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=322)
      0.25 = coord(1/4)
    
    Abstract
    Allgemeine Verunsicherung im Informationsdschungel: Schwarze Utopien und neue Ordnung am Abgrund des Chaos.
    Footnote
    Zu Verschwörungstheorien und Fake News. Mit einer Zusammenstellung von Beispielen aus der Geschichte.
    Series
    Telepolis: Kultur und Medien
  5. Pintscher, L.; Bourgonje, P.; Moreno Schneider, J.; Ostendorff, M.; Rehm, G.: Wissensbasen für die automatische Erschließung und ihre Qualität am Beispiel von Wikidata : die Inhaltserschließungspolitik der Deutschen Nationalbibliothek (2021) 0.01
    0.012542827 = product of:
      0.05017131 = sum of:
        0.05017131 = weight(_text_:und in 366) [ClassicSimilarity], result of:
          0.05017131 = score(doc=366,freq=24.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.42413816 = fieldWeight in 366, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=366)
      0.25 = coord(1/4)
    
    Abstract
    Wikidata ist eine freie Wissensbasis, die allgemeine Daten über die Welt zur Verfügung stellt. Sie wird von Wikimedia entwickelt und betrieben, wie auch das Schwesterprojekt Wikipedia. Die Daten in Wikidata werden von einer großen Community von Freiwilligen gesammelt und gepflegt, wobei die Daten sowie die zugrundeliegende Ontologie von vielen Projekten, Institutionen und Firmen als Basis für Applikationen und Visualisierungen, aber auch für das Training von maschinellen Lernverfahren genutzt werden. Wikidata nutzt MediaWiki und die Erweiterung Wikibase als technische Grundlage der kollaborativen Arbeit an einer Wissensbasis, die verlinkte offene Daten für Menschen und Maschinen zugänglich macht. Ende 2020 beschreibt Wikidata über 90 Millionen Entitäten unter Verwendung von über 8 000 Eigenschaften, womit insgesamt mehr als 1,15 Milliarden Aussagen über die beschriebenen Entitäten getroffen werden. Die Datenobjekte dieser Entitäten sind mit äquivalenten Einträgen in mehr als 5 500 externen Datenbanken, Katalogen und Webseiten verknüpft, was Wikidata zu einem der zentralen Knotenpunkte des Linked Data Web macht. Mehr als 11 500 aktiv Editierende tragen neue Daten in die Wissensbasis ein und pflegen sie. Diese sind in Wiki-Projekten organisiert, die jeweils bestimmte Themenbereiche oder Aufgabengebiete adressieren. Die Daten werden in mehr als der Hälfte der Inhaltsseiten in den Wikimedia-Projekten genutzt und unter anderem mehr als 6,5 Millionen Mal am Tag über den SPARQL-Endpoint abgefragt, um sie in externe Applikationen und Visualisierungen einzubinden.
    Series
    Bibliotheks- und Informationspraxis; 70
  6. Knorz, G.: Intellektuelles Indexieren (2023) 0.01
    0.012542827 = product of:
      0.05017131 = sum of:
        0.05017131 = weight(_text_:und in 780) [ClassicSimilarity], result of:
          0.05017131 = score(doc=780,freq=6.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.42413816 = fieldWeight in 780, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=780)
      0.25 = coord(1/4)
    
    Abstract
    Dieser Artikel aus der 5. Ausgabe der Grundlagen (2004) wurde von Rainer Kuhlen und Wolfgang Semar leicht überarbeitet und gekürzt.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  7. Jetter, H.-C.: Informationsvisualisierung und Visual Analytics (2023) 0.01
    0.012542827 = product of:
      0.05017131 = sum of:
        0.05017131 = weight(_text_:und in 791) [ClassicSimilarity], result of:
          0.05017131 = score(doc=791,freq=24.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.42413816 = fieldWeight in 791, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=791)
      0.25 = coord(1/4)
    
    Abstract
    Die Visualisierung digitaler Datenbestände mit dem Computer ist heute alltäglich geworden. Spätestens seit der COVID-19-Pandemie sind computergenerierte Datenvisualisierungen und deren Interpretation durch den Menschen nicht mehr nur Expert*innen für Statistik und Datenanalyse vorbehalten. Stattdessen sind interaktive Visualisierungen zur Darstellung von Trends, Mustern oder Vergleichen in Daten zu festen Bestandteilen unseres medialen Alltags geworden, ob im (Daten-)Journalismus, in den sozialen Medien oder bei der Kommunikation von Behörden mit der Bevölkerung. Wie bereits von Reiterer und Jetter (2013) in einer früheren Auflage dieses Beitrags thematisiert wurde, bietet dieser Trend zur interaktiven und narrativen Visualisierung in den Massenmedien den Benutzer*innen neue Möglichkeiten des datenbasierten Erkenntnisgewinns. Seitdem popularisiert zusätzlich die Vielzahl verfügbarer "Tracker"-Apps mit dem Ziel der Verhaltensoptimierung (z. B. im Bereich Fitness oder Energiekonsum) die interaktive Visualisierung und Analyse persönlicher und privater Daten. Auch im beruflichen Alltag haben sich einstige Nischenwerkzeuge, wie z. B. die Visualisierungssoftware Tableau, in äußerst populäre Anwendungen verwandelt und sind zum Gegenstand zweistelliger Milliardeninvestitionen geworden, insbesondere für die Visualisierung und Analyse von Geschäftsdaten. Im Lichte dieser Entwicklungen soll dieser Beitrag daher im Folgenden einerseits grundlegende Begriffe und Konzepte der Informationsvisualisierung vermitteln, andererseits auch Alltagsformen und Zukunftstrends wie Visual Analytics thematisieren.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  8. Rösch, H.: Informationsethik (2023) 0.01
    0.012542827 = product of:
      0.05017131 = sum of:
        0.05017131 = weight(_text_:und in 821) [ClassicSimilarity], result of:
          0.05017131 = score(doc=821,freq=24.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.42413816 = fieldWeight in 821, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=821)
      0.25 = coord(1/4)
    
    Abstract
    Der Terminus Informationsethik (information ethics) wurde Ende der 1980er Jahre im bibliothekarischen Umfeld geprägt und tauchte etwa zeitgleich in den USA und Deutschland auf. Informationsethik umfasst alle ethisch relevanten Fragen, die im Zusammenhang mit Produktion, Speicherung, Erschließung, Verteilung und Nutzung von Informationen auftreten. Informationsethik gehört zu den angewandten oder Bereichsethiken, die sich in den vergangenen Jahrzehnten in großer Zahl gebildet haben. Dazu zählen etwa Wirtschaftsethik, Medizinethik, Technikethik, Computerethik oder Medienethik. Zu beobachten ist ein Trend zu immer spezifischeren Bereichsethiken wie z. B. der Lebensmittelethik oder der Algorithmenethik. Aufteilung und Abgrenzung der Bereichsethiken folgen keinem einheitlichen Prinzip. Daher schwanken ihre Anzahl und ihre Benennungen in der Fachliteratur erheblich. Bereichsethiken überlappen sich z. T. oder stehen bisweilen in einem komplementären Verhältnis. So hat die Informationsethik ohne Zweifel u. a. Bezüge zur Medienethik, zur Technikethik (Computerethik), zur Wirtschaftsethik, zur Wissenschaftsethik und natürlich zur Sozialethik. Im Unterschied zur Allgemeinen Ethik, die sich mit übergreifenden, allgemeinen Aspekten wie Freiheit, Gerechtigkeit oder Wahrhaftigkeit auseinandersetzt, übertragen angewandte Ethiken zum einen allgemeine ethische Prinzipien und Methoden auf bestimmte Lebensbereiche und Handlungsfelder. Zum anderen arbeiten sie spezifische Fragestellungen und Probleme heraus, die charakteristisch für den jeweiligen Bereich sind und die in der Allgemeinen Ethik keine Berücksichtigung finden. Angewandte Ethiken sind grundsätzlich praxisorientiert. Sie zielen darauf, die Akteure der jeweiligen Handlungsfelder für ethische Fragestellungen zu sensibilisieren und das Bewusstsein um eine gemeinsame Wertebasis, die idealerweise in einem Ethikkodex dokumentiert ist, zu stabilisieren.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  9. Aleksander, A.: Ausgerechnet Beschlagwortung : Inhaltserschliessung muss heute auch geschlechtssensibel sein! (2022) 0.01
    0.012542827 = product of:
      0.05017131 = sum of:
        0.05017131 = weight(_text_:und in 905) [ClassicSimilarity], result of:
          0.05017131 = score(doc=905,freq=6.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.42413816 = fieldWeight in 905, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=905)
      0.25 = coord(1/4)
    
    Abstract
    Rückblickend auf die Keynote im Rahmen der Online-Veranstaltung "Geschlechtergerechte Sacherschließung" im Mai 2022 zeigt der Text die Notwendigkeit geschlechtersensibler Beschlagwortung auf und verweist auf konkrete Ergebnisse und nächste Schritte.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 75(2022) H.2, S.361-368
  10. Siepmann, D.: Auswirkungen von KI auf die Textproduktion in der Wissenschaft (2023) 0.01
    0.012542827 = product of:
      0.05017131 = sum of:
        0.05017131 = weight(_text_:und in 1044) [ClassicSimilarity], result of:
          0.05017131 = score(doc=1044,freq=6.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.42413816 = fieldWeight in 1044, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=1044)
      0.25 = coord(1/4)
    
    Abstract
    KI-Tools können in allen Phasen des wissenschaftlichen Schreibens helfen, auch bei mehrsprachigen Texten. Über Fähigkeiten und Grenzen der KI. Mit einem Vergleich der Leistungen verschiedener Programme anhand eines Spektrums von Kriterien, die unterschiedliche Spitzenpositionen ermöglichen.
    Source
    Forschung und Lehre [https://www.forschung-und-lehre.de/zeitfragen/welche-auswirkungen-kis-auf-die-textproduktion-in-der-wissenschaft-haben-5740]
  11. Dogtas, G.; Ibitz, M.-P.; Jonitz, F.; Kocher, V.; Poyer, A.,; Stapf, L.: Kritik an rassifizierenden und diskriminierenden Titeln und Metadaten : Praxisorientierte Lösungsansätze (2022) 0.01
    0.012416765 = product of:
      0.04966706 = sum of:
        0.04966706 = weight(_text_:und in 1828) [ClassicSimilarity], result of:
          0.04966706 = score(doc=1828,freq=12.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.41987535 = fieldWeight in 1828, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1828)
      0.25 = coord(1/4)
    
    Abstract
    In den letzten Jahren ist eine Debatte immer stärker in der Öffentlichkeit ausgetragen worden: Wie mit rassistischen Inhalten umgehen? Auch in Bibliotheken, Archiven und Museen muss die Frage gestellt werden, welche Methoden Anwendung finden sollen, um diskriminierende Inhalte nicht weiter zu reproduzieren. Der Beitrag untersucht Methoden im Umgang mit rassifizierendem und diskriminierendem Vokabular sowie den technischen Herausforderungen. Bei dem Versuch praxisorientierte Lösungsansätze zu verhandeln, werden die Bedürfnisse von kuratorischer Verantwortung, Einbeziehung, Nutzung und Bereitstellung diskutiert und in einem Orientierungsleitfaden zusammengeführt.
  12. Tangens, R.; Büschke, N.: Einordung zur geplanten "Corona-Kontakt-Tracing-App" des RKI (2020) 0.01
    0.012416765 = product of:
      0.04966706 = sum of:
        0.04966706 = weight(_text_:und in 5847) [ClassicSimilarity], result of:
          0.04966706 = score(doc=5847,freq=12.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.41987535 = fieldWeight in 5847, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5847)
      0.25 = coord(1/4)
    
    Abstract
    Eine App des Robert-Koch-Instituts soll helfen, Kontakte zu infizierten Menschen nachzuvollziehen. Wir haben uns die Pläne angesehen - und haben Zweifel und Fragen. Es ist viel Bewegung in den Plänen, eine App zur Kontaktverfolgung in der Corona-Krise bereitzustellen. Nachdem es zunächst so aussah, als würde in Deutschland der zentrale Ansatz von PEPP-PT umgesetzt, ist nun klar: Es soll doch ein dezentraler Ansatz verfolgt werden, wie er vom Projekt DP-3T entwickelt wurde. Diesen Ansatz haben Google und Apple aufgegriffen und arbeiten derzeit daran, in ihre Smartphone-Betriebssysteme Android und iOS eine passende Schnittstelle einzubauen. Inzwischen wurde bekannt, dass T-Systems und SAP die App für Deutschland entwickeln sollen. Eine fertige App gibt es noch nicht. Insofern kann auch unsere Einordnung immer nur vorläufig sein.
  13. Frick, C.; Kaier, C.: Publikationskosten für Zeitschriftenartikel abseits von Open-Access-Publikationsfonds : Lost in Transformation? (2020) 0.01
    0.012416765 = product of:
      0.04966706 = sum of:
        0.04966706 = weight(_text_:und in 69) [ClassicSimilarity], result of:
          0.04966706 = score(doc=69,freq=12.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.41987535 = fieldWeight in 69, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=69)
      0.25 = coord(1/4)
    
    Abstract
    Mit der Etablierung von Open Access als Standardmodell des wissenschaftlichen Publizierens verlagert sich der Fokus von Subskriptions- auf Publikationskosten. Die zuverlässige und vollständige Erfassung dieser Kosten stellt eine große Herausforderung für Bibliotheken und Institutionen dar. Gründe dafür sind dezentrale Rechnungsworkflows, unterschiedliche Kostenmodelle, Nebengebühren, ein Nebeneinander von Einzel- und Pauschalgebühren und die Vermischung von Subskriptions- und Publikationskosten. Der vorliegende Beitrag analysiert zunächst die Vielfalt der unterschiedlichen Ausgaben für Artikel in wissenschaftlichen Zeitschriften. Im Anschluss zeigt er zwei Ansätze der Erfassung von dezentralen Publikationskosten auf, die zu einer besseren Steuerung und mehr Transparenz der Ausgaben für das Publizieren beitragen.
  14. Böker, E.; Brettschneider, P.; Axtmann, A.; Mohammadianbisheh, N.: Kooperation im Forschungsdatenmanagement : Dimensionen der Vernetzung im Forschungsdatenmanagement am Beispiel der baden-württembergischen Landesinitiative bw2FDM (2020) 0.01
    0.012416765 = product of:
      0.04966706 = sum of:
        0.04966706 = weight(_text_:und in 202) [ClassicSimilarity], result of:
          0.04966706 = score(doc=202,freq=12.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.41987535 = fieldWeight in 202, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=202)
      0.25 = coord(1/4)
    
    Abstract
    Forschungsdatenmanagement (FDM) ist für eine digital arbeitende Wissenschaft unerlässlich. Wissenschaft und Infrastruktureinrichtungen haben darauf - unterstützt durch Förderprogramme von Ländern, Bund und EU - mit dem Aufbau neuer Dienste und Strukturen reagiert. Eine zentrale Herausforderung ist es, die verschiedenen Strukturen, Initiativen und Projekte dergestalt aufeinander abzustimmen, dass Doppelarbeiten vermieden und Synergien geschaffen werden. Der Beitrag zeigt an der baden-württembergischen FDM-Landesinitiative bw2FDM beispielhaft auf, wie die Vernetzung verschiedener Akteure am Standort, auf Landes- und auf überregionaler Ebene gelingen kann.
  15. Krüger, N.; Pianos, T.: Lernmaterialien für junge Forschende in den Wirtschaftswissenschaften als Open Educational Resources (OER) (2021) 0.01
    0.012416765 = product of:
      0.04966706 = sum of:
        0.04966706 = weight(_text_:und in 252) [ClassicSimilarity], result of:
          0.04966706 = score(doc=252,freq=12.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.41987535 = fieldWeight in 252, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=252)
      0.25 = coord(1/4)
    
    Abstract
    Das EconBiz Academic Career Kit ist ein interaktives Online-Tutorial für den wissenschaftlichen Nachwuchs in den Wirtschaftswissenschaften. In drei Modulen geht es um die Themen: erste Veröffentlichung, Open Access, Predatory Journals und Urheberrecht - Wissenschaftskommunikation, kollaboratives Arbeiten, Networking und Metriken - Forschungsdatenmanagement. Angebote der Vermittlung von Informationskompetenz sind in diesen Feldern und für diese Zielgruppe in Deutschland noch nicht flächendeckend verbreitet. Darum - und weil Forschende sich zu diesen Fragen meist im Netz informieren - ist das Academic Career Kit als OER unter der Lizenz CC-BY veröffentlicht und damit zur Bearbeitung und Weiterverwendung durch Dritte freigegeben.
  16. Bredemeier, W.: Trend des Jahrzehnts 2011 - 2020 : Die Entfaltung und Degeneration des Social Web (2021) 0.01
    0.012416765 = product of:
      0.04966706 = sum of:
        0.04966706 = weight(_text_:und in 293) [ClassicSimilarity], result of:
          0.04966706 = score(doc=293,freq=12.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.41987535 = fieldWeight in 293, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=293)
      0.25 = coord(1/4)
    
    Abstract
    In der letzten Ausgabe des Jahres wählte Open Password als Trend des Jahres - was hätte es anderes sein können? - "Corona" - und als Personen des Jahres "Wir alle", da wir fast ausnahmslos in ähnlicher Weise unter der Pandemie litten und nach Lösungen für unser berufliches und privates Leben unter eingeschränkten Möglichkeiten suchten (18. Dezember). Am 8. Januar wählten wir als Unternehmen des Jahres Zoom, das mit seiner Videokonferenzplattform und weiteren Kollaborationstools besser und vor allem einfacher als seine Konkurrenten die durch Corona ins Home Office verbannten Manager virtuell zusammenführte. So bleibt nur mehr eine Wahl, die wir uns für diese Tage vorgenommen haben: der Trend des Jahrzehnts, also der Jahre 2011 - 2020.
  17. Lieb, W.: Krise der Medien, Krise der Demokratie? (2021) 0.01
    0.012416765 = product of:
      0.04966706 = sum of:
        0.04966706 = weight(_text_:und in 325) [ClassicSimilarity], result of:
          0.04966706 = score(doc=325,freq=12.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.41987535 = fieldWeight in 325, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=325)
      0.25 = coord(1/4)
    
    Abstract
    Digital - medial - (a)sozial: Wie Facebook, Twitter, Youtube & Co unsere demokratische Kultur verändern (Teil 1). Warum ist das Thema Medien eigentlich so wichtig? Ganz einfach: Weil Medien maßgeblich unser Wissen und unsere Meinung über die Welt beeinflussen und weil der möglichst umfassende Austausch von Informationen und Sichtweisen in den Medien eine Bedingung für einen offenen und demokratischen Meinungsbildungsprozess ist. Der freie Austausch der vielfältigen gesellschaftlichen Meinungen ist wiederum eine Voraussetzung für eine demokratische politische Willensbildung und er verschafft politischen Entscheidungen ihre demokratische Legitimation.
    Series
    Telepolis: Kultur und Medien
  18. Fielitz, M.; Marcks, H.: Digitaler Faschismus : die sozialen Medien afs Motor des Rechtsextremismus (2020) 0.01
    0.012416765 = product of:
      0.04966706 = sum of:
        0.04966706 = weight(_text_:und in 344) [ClassicSimilarity], result of:
          0.04966706 = score(doc=344,freq=48.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.41987535 = fieldWeight in 344, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=344)
      0.25 = coord(1/4)
    
    Abstract
    Digitale Revolution: Chance oder Gefahr für die Demokratie? Einst galten das Internet und die sozialen Medien als Chance auf unbegrenzten Zugang zu Wissen - und damit als Basis für eine neue Hochphase der demokratischen Debattenkultur. Doch stattdessen sind wir heute mit Hass im Netz, Fake-News und Verschwörungstheorien konfrontiert. Rechte Parteien und Organisationen wie die AfD, Pegida und die Identitäre Bewegung können fast ungehindert ihre Ideologien verbreiten. Doch dabei handelt es sich nicht um eine reine »Online-Radikalisierung«. Das beweist die Welle rechtsmotivierter Gewalt wie die Anschläge von Halle und Hanau und eine wachsende Akzeptanz rechter Positionen in der Bevölkerung. Maik Fielitz und Holger Marcks analysieren diese Entwicklung und gehen den Ursachen auf den Grund: Die Rolle der sozialen Medien beim Erstarken des Ultranationalismus und rechts motivierter Straftaten Die Manipulationstechniken der Rechtsextremen: Verwirrung stiften, Ängste schüren und Mehrheitsverhältnisse verzerren Rechtsextreme Kommunikation im Internet: Verschwörungstheorien, Bedrohungsmythen, Lügen und Hassbotschaften Die sozialen Medien als digitaler Brandbeschleuniger: Fakten, Hintergründe und Analysen Selbstregulation oder politische Eingriffe? Auswege aus der digitalen Hasskultur Die autoritäre Revolte stellt eine große Herausforderung für Demokratien und offene Gesellschaften dar. Wie können wir rechtsextremen Tendenzen begegnen? Politik aber auch Internetkonzerne sind aufgerufen, zu handeln. Wie lässt sich der »digitale Faschismus« bändigen, ohne unser Recht auf freie Meinungsäußerung einzuschränken? Diese Fragen diskutieren Maik Fielitz und Holger Marcks intensiv. Sie untersuchen die manipulativen Strategien und psychologischen Tricks der rechtsextremen Akteure und zeigen mögliche Auswege aus der Misere. Ihr Sachbuch ist ein wichtiger Beitrag zur politischen Debatte!
    Die sozialen Medien haben sich zu einem Raum des Hasses und der Unwahrheit entwickelt. Ohne diese digitalen Brandbeschleuniger sind die rechtsextremen Wahlerfolge ebenso wenig zu verstehen wie die jüngste Welle rechter Gewalt. Maik Fielitz und Holger Marcks gehen dieser Entwicklung und ihren Ursachen auf den Grund. Sie zeigen, mit welchen manipulativen Techniken rechtsextreme Akteure in den sozialen Medien versuchen, Ängste zu verstärken, Verwirrung zu stiften und Mehrheitsverhältnisse zu verzerren. Dass ihr Wirken dabei eine solche Dynamik entfalten kann, hat wiederum mit der Funktionsweise der sozialen Medien selbst zu tun. Denn sie begünstigen die Entstehung und Verbreitung von Bedrohungsmythen, die der führungslosen Masse der Wutbürger eine Richtung geben. Wie aber ließe sich dieser "digitale Faschismus" bändigen, ohne die Werte der offenen Gesellschaft in Mitleidenschaft zu ziehen? "Das Ergebnis ihrer Recherche ist so besorgniserregend, dass die Forscher die Rechten als "die neuen Gatekeeper" bezeichnen. So kursierten etwa in den Wochen nach der Kölner Silvesternacht fünf Mal mehr muslimfeindliche Posts als üblich. Gravierender noch: Rechte Sprache und Sprachbilder seien inzwischen Bestandteil des öffentlichen Diskurses. Plötzlich sei etwa viel von "Nafris" die Rede gewesen - eine Polizeibezeichnung für Nordafrikaner" (deutschlandfunkkultur.de)
    Footnote
    Rez. u.d.T.: Witte-Petit, K.: Radikale Rattenfänger : zwei Forscher beschreiben den 'digitalen Faschismus' in: Rheinpfalz vom 19.08.2021 [Fielitz-Marcks_Rez_RP_20210819.pdf]: "Es gibt mittlerweile viele Bücher darüber, wie soziale Medien die Verbreitung extremen Gedankenguts erleichtern. Das vom Rechtsextremismusforscher Maik Fielitz und dem Radikalisierungsexperten Holger. Marcks vorgelegte Buch "Digitaler Faschismus" gehört zu den wirklich lesenswerten. Leider macht es aber auch wenig Hoffnung."
  19. Albrecht, R.; Block, B.; Kratzer, M.; Thiessen, P.: Quantität als Qualität : was die Verbünde zur Verbesserung der Inhaltserschließung beitragen können (2021) 0.01
    0.012416765 = product of:
      0.04966706 = sum of:
        0.04966706 = weight(_text_:und in 378) [ClassicSimilarity], result of:
          0.04966706 = score(doc=378,freq=12.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.41987535 = fieldWeight in 378, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=378)
      0.25 = coord(1/4)
    
    Abstract
    Im Standardwerk Bibliothekarisches Grundwissen verwendet der Autor für die "inhaltliche Beschreibung und Erschließung" von Ressourcen den klassischen Begriff Sacherschließung und subsumiert darunter die Schlagwortvergabe, die klassifikatorische Sacherschließung sowie weitere Verfahren der Sacherschließung wie maschinelle Verfahren oder von Benutzer:innen vergebene Tags. Daneben hat sich in den vergangenen zehn Jahren für den gleichen Sachverhalt auch der Begriff Inhaltserschließung herausgebildet. Die Deutsche Nationalbibliothek (DNB) nutzt ihn konsequent für alle von ihr eingesetzten Anwendungen und Verfahren für die inhaltliche Beschreibung ihrer Medien und nennt auch die dafür zuständige organisatorische Einheit "Abteilung Inhaltserschließung". Im nachfolgenden Text werden die beiden Begriffe Sacherschließung und Inhaltserschließung deshalb ebenfalls synonym verwendet.
    Series
    Bibliotheks- und Informationspraxis; 70
  20. Schwarz, S.: Kompetenzvermittlung digital : how to ... RDA? : Konzeption eines digitalen Lernangebots an der Universitäts- und Stadtbibliothek Köln (2021) 0.01
    0.012416765 = product of:
      0.04966706 = sum of:
        0.04966706 = weight(_text_:und in 380) [ClassicSimilarity], result of:
          0.04966706 = score(doc=380,freq=12.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.41987535 = fieldWeight in 380, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=380)
      0.25 = coord(1/4)
    
    Abstract
    Die Universitäts- und Stadtbibliothek Köln stellt im Zuge der Coronapandemie und der dadurch beschleunigten Digitalisierungsprozesse ihr universitätsinternes Präsenzschulungsangebot zum Regelwerk RDA auf ein digitales Kursangebot um. Dafür wurden Inhalte, Struktur und Ablauf der bisherigen RDA-Schulungen bedarfsorientiert angepasst, aktualisiert, reorganisiert und anhand mediendidaktischer Standards digital aufbereitet. Der neu entstandene E-Learning-Kurs "How to ... RDA?" bietet ein rein digitales RDA-Lernformat mit dem Fokus auf Flexibilität, Praxisnähe und unterschiedliche Lernbedürfnisse.

Languages

  • d 403
  • e 22
  • m 2
  • pt 2
  • More… Less…

Types

  • a 312
  • el 209
  • m 53
  • s 7
  • x 3
  • p 1
  • r 1
  • More… Less…

Subjects

Classifications