Search (1873 results, page 21 of 94)

  • × year_i:[2010 TO 2020}
  1. Handbuch Informationskompetenz (2016) 0.01
    0.0125574935 = product of:
      0.050229974 = sum of:
        0.050229974 = weight(_text_:und in 361) [ClassicSimilarity], result of:
          0.050229974 = score(doc=361,freq=36.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.41585606 = fieldWeight in 361, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=361)
      0.25 = coord(1/4)
    
    Abstract
    Das Handbuch bietet einen fundierten und breiten Überblick über neue Konzepte zur Informationskompetenz aus der Sicht der Bibliotheks-, Informations- und Erziehungswissenschaft sowie der Hochschuldidaktik und der Wissenschaftspolitik. Es enthält Beiträge zu Strategien und praktischen Realisierungen der Förderung von Informationskompetenz in Vorschule, Schule, Studium und wissenschaftlicher Forschung. Der lernförderlichen und nutzorientierten Gestaltung dieser Angebote durch Infrastrukturen, Beratungs- und Serviceangebote sowie durch didaktisch maßgeschneiderte Planungen kommt besondere Bedeutung zu. Die Entwicklungen der Informationskompetenz in Deutschland, Großbritannien, Österreich und der Schweiz werden jeweils mit speziellen Beiträgen dargestellt.
    Content
    Zur Einführung: Neudefinition von Informationskompetenz notwendig? -- Grundlagen, Methoden, Technologien -- Informationskompetenz anders denken - zum epistemologischen Kern von information literacy" -- Standards der Informationskompetenz - neue Entwicklungen in Deutschland, Großbritannien und den USA -- Referenzrahmen Informationskompetenz für alle Bildungsebenen -- Empirische Erfassung von Informationskompetenz -- Informationskompetenz in ethischer Perspektive -- Informationskompetenz und Rhetorik Informationspsychologische Grundlagen der Informationskompetenz -- Mobil, vernetzt, always on" - Lebenswelten junger Menschen und Informationskompetenzförderung der Bibliotheken -- Big Data - neue Herausforderungen für Informationskompetenz und Bildung -- Resource Discovery Systeme -- Suchmaschinenkompetenz als Baustein der Informationskompetenz -- Förderung von Informationskompetenz durch E-Learning: Wie viel Technik soll es sein? -- Vorschule und Schule -- Informationskompetenz bei Kindergartenkindern
    Förderung von Informationskompetenz als Aufgabe von Schule -- Das kooperative Schulungsmodell zur Förderung von Informationskompetenz - am Beispiel der Teaching Library Vorarlberg -- Die Förderung der Informationskompetenz zusammen mit Lehrkräften -- ASK UB - Evaluation und Weiterentwicklung eines Schulungskonzeptes für Informationskompetenz -- Hochschulstudium -- Förderung wissenschaftlicher Informationskompetenz in deutschen Hochschulen -- Informationskompetenz an Massenuniversitäten - Wherever, Whenever! Bibliotheken an Hochschulen in Bayern: Bestandsaufnahme und Modell Ansbach -- Informationskompetenz und forschungsorientiertes Studium - ein Beitrag aus der Hochschuldidaktik -- Grenzverschiebungen: Wissenschaftliches Schreiben, Schreibwerkstätten und Informationskompetenz Förderung von Informationskompetenz in der KIT-Bibliothek unter besonderer Berücksichtigung der Ausbildung von Lernkompetenz als zentraler Komponente von Informationskompetenz -- Fit für die Bachelorarbeit - wie Institutsbibliotheken Blended Learning einsetzen können -- Informationskompetenz institutionell verankern am Beispiel der Universitätsbibliothek Bern -- Wissenschaft und Forschung -- Informationskompetenz im Wissenschaftssystem Informationsservices auf Augenhöhe - So können Bibliotheken den Forschungsprozess proaktiv unterstützen DOI: 10.1515/9783110403367
  2. Hauff-Hartig, S.: Fehl-, Falsch- und Desinformation als informationswissenschaftliche Herausforderung (2018) 0.01
    0.0125574935 = product of:
      0.050229974 = sum of:
        0.050229974 = weight(_text_:und in 566) [ClassicSimilarity], result of:
          0.050229974 = score(doc=566,freq=16.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.41585606 = fieldWeight in 566, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=566)
      0.25 = coord(1/4)
    
    Abstract
    Postfaktisch, Fake News, alternative Fakten - diese Begriffe haben sich spätestens 2016 während des US-amerikanischen Wahl­kampfes und im Zuge der Abstim­mung über den Verbleib Groß­britanniens in der Europäischen Union im deutschen Sprach­gebrauch etabliert. Es war und ist schwer zu fassen, in welchem Ausmaß Politiker und deren Anhänger auch in demo­kratischen Ländern falsche Behaup­tungen auf­stellen und damit argumentative und schließlich politische Erfolge erlangen können. Die öffentliche Auseinandersetzung mit diesem Phänomen hat dazu geführt, dass diese Vokabeln 2017 in den Duden aufgenommen wurden und postfaktisch sogar von der Gesellschaft für Deutsche Sprache zum Wort des Jahres 2016 erklärt wurde.
    Content
    Fortsetzung unter: Open Password. 2018, Nr.476 [28.11.2018]. [https://www.password-online.de/?wysija-page=1&controller=email&action=view&email_id=599&wysijap=subscriptions]. Dieser Beitrag basiert auf: Hauff-Hartig, S.: Fehl-, Falsch- und Desinformation aus dem Blickwinkel der Informationswissenschaften. Berlin: Simon Verlag für Bibliothekswissen, 2018.
  3. Ermert, A.; Hagedorn-Saupe, M.: 'Fake news' und die ganze Bandbreite des Informationsfeldes (2018) 0.01
    0.0125574935 = product of:
      0.050229974 = sum of:
        0.050229974 = weight(_text_:und in 590) [ClassicSimilarity], result of:
          0.050229974 = score(doc=590,freq=4.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.41585606 = fieldWeight in 590, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.09375 = fieldNorm(doc=590)
      0.25 = coord(1/4)
    
    Source
    Information - Wissenschaft und Praxis. 69(2018) H.5/6, S.296-298
  4. Voss, O.: Übersetzer überflüssig? : Sprachsoftware DeepL und Acrolinx (2019) 0.01
    0.0125574935 = product of:
      0.050229974 = sum of:
        0.050229974 = weight(_text_:und in 981) [ClassicSimilarity], result of:
          0.050229974 = score(doc=981,freq=4.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.41585606 = fieldWeight in 981, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.09375 = fieldNorm(doc=981)
      0.25 = coord(1/4)
    
    Source
    https://www.tagesspiegel.de/wirtschaft/sprachsoftware-deepl-und-acrolinx-uebersetzer-ueberfluessig/23884348.html
  5. Biesenbender, S.; Tobias, R.: Rolle und Aufgaben von Bibliotheken im Umfeld des Kerndatensatz Forschung (2019) 0.01
    0.0125574935 = product of:
      0.050229974 = sum of:
        0.050229974 = weight(_text_:und in 350) [ClassicSimilarity], result of:
          0.050229974 = score(doc=350,freq=16.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.41585606 = fieldWeight in 350, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=350)
      0.25 = coord(1/4)
    
    Abstract
    In diesem Artikel wird die Frage aufgegriffen, welche Auswirkungen der Kerndatensatz Forschung (KDSF) auf die aktuelle bibliothekarische Praxis haben kann. Dabei wird eine Bestandsaufnahme der (möglichen) Betätigungsfelder von Bibliotheken rund um den KDSF und die Einführung von Forschungsinformationssystemen (FIS) gezogen. Es sollen die Herausforderungen und das Potenzial des KDSF für die tägliche bibliothekarische Praxis im Rahmen einer modernen und integrierten Forschungsberichterstattung beleuchtet und Impulse für in der Zukunft erforderliche Anpassungsprozesse gegeben werden. Der Artikel stellt Aufbau und Konzept des KDSF vor. Der Fokus liegt dabei auf dem Kerndatensatz-Bereich "Publikationen". Bisherige Erfahrungen und Rückmeldungen an den "Helpdesk für die Einführung des Kerndatensatz Forschung" werden aus bibliothekarischer Sicht erörtert. Ein weiterer Teil zeigt beispielhafte Aktivitäten und Herangehensweisen, die sich für Bibliotheken im Umfeld der Einführung von FIS ergeben.
  6. Zweig, K.A.: ¬Ein Algorithmus hat kein Taktgefühl : wo Künstliche Intelligenz sich irrt, warum uns das betrifft und was wir dagegen tun können (2019) 0.01
    0.0125574935 = product of:
      0.050229974 = sum of:
        0.050229974 = weight(_text_:und in 430) [ClassicSimilarity], result of:
          0.050229974 = score(doc=430,freq=16.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.41585606 = fieldWeight in 430, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=430)
      0.25 = coord(1/4)
    
    Abstract
    Künstliche Intelligenz und Algorithmen erleichtern in Form von Navis, Rechtschreibprogrammen, Suchergänzungen oder Kaufempfehlungen schon lange unseren Alltag. Aber sie hinterlassen oft auch ein mulmiges Gefühl, weil wir nicht so recht verstehen, was da passiert. Katharina Zweig, IT-Expertin für Sozioinformatik und Informatikprofessorin, erklärt anhand einfacher Beispiele und Illustrationen, was Algorithmen eigentlich genau sind, wie sie funktionieren, welche völlig harmlos sind und welche uns tatsächlich Sorgen bereiten sollten. Damit wir wissen, worauf wir achten müssen, wo wir uns einmischen und Politik und Wirtschaft genauer auf die Finger schauen müssen, wenn wir diese Technik in menschlicher Hand behalten, ihre positiven Eigenschaften nutzen und die negativen kontrollieren wollen.
  7. Helbing, D.; Frey, B.S.; Gigerenzer, G.; Hafen, E.; Hagner, M.; Hofstetter, Y.; Hoven, J. van den; Zicari, R.V.; Zwitter, A.: Digitale Demokratie statt Datendiktatur : Digital-Manifest (2016) 0.01
    0.0125574935 = product of:
      0.050229974 = sum of:
        0.050229974 = weight(_text_:und in 600) [ClassicSimilarity], result of:
          0.050229974 = score(doc=600,freq=16.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.41585606 = fieldWeight in 600, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=600)
      0.25 = coord(1/4)
    
    Abstract
    Big Data, Nudging, Verhaltenssteuerung: Droht uns die Automatisierung der Gesellschaft durch Algorithmen und künstliche Intelligenz? Ein Appell zur Sicherung von Freiheit und Demokratie.
    Content
    Neun internationale Experten warnen vor der Aushöhlung unserer Bürgerrechte und der Demokratie im Zuge der digitalen Technikrevolution. Wir steuern demnach geradewegs auf die Automatisierung unserer Gesellschaft und die Fernsteuerung ihrer Bürger durch Algorithmen zu, in denen sich »Big Data« und »Nudging«-Methoden zu einem mächtigen Instrument vereinen. Erste Ansätze dazu lassen sich bereits in China und Singapur beobachten. Ein Zehnpunkteplan soll helfen, jetzt die richtigen Weichen zu stellen, um auch im digitalen Zeitalter Freiheitsrechte und Demokratie zu bewahren und die sich ergebenden Chancen zu nutzen. Vgl. auch das Interview mit D. Helbing zur Resonanz unter: http://www.spektrum.de/news/wie-social-bots-den-brexit-verursachten/1423912. Vgl. auch: https://www.spektrum.de/kolumne/das-grosse-scheitern/1685328.
  8. Baumeister, H.; Schwärzel, K.: Wissenswelt Internet : Eine Infrastruktur und ihr Recht (2018) 0.01
    0.0125574935 = product of:
      0.050229974 = sum of:
        0.050229974 = weight(_text_:und in 664) [ClassicSimilarity], result of:
          0.050229974 = score(doc=664,freq=16.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.41585606 = fieldWeight in 664, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=664)
      0.25 = coord(1/4)
    
    Abstract
    Die Vernetzung von Informationen, die Wissen entstehen lässt, war der originäre Entstehungskontext des Internets und seiner populärsten Anwendung, des World Wide Webs. Aus dieser Perspektive stellt das Internet sowohl einen riesigen Speicher von Informationen als auch - ermöglicht durch seine Struktur des (Mit-)Teilens und Vernetzens - ein Medium zur Erzeugung, Organisation, Repräsentation und Vermittlung von Wissen dar. Mit seinen Anwendungen bildet es die Infrastruktur, auf die Wissenspraktiken zurückgreifen. Diese Infrastruktur ist von ihrer Entstehung bis zu ihren Zukunftsaussichten Gegenstand des vorliegenden Bandes, welcher im Stile eines Casebooks auch die juristischen Grundlagen und Herausforderungen herausarbeitet. Das Buch wendet sich insbesondere an Studierende der Bibliotheks- und Informationswissenschaft sowie Beschäftigte in Informationseinrichtungen.
    Footnote
    Rez. in: Information - Wissenschaft und Praxis. 71(2020) H.1, S.65-66 (M. Ockenfeld).
    Series
    Bibliotheks- und Informationspraxis, Band 56
  9. Nachreiner, T.: Akademische Soziale Netzwerke und ihre Auswirkungen auf wissenschaftliche Bibliotheken (2019) 0.01
    0.0125574935 = product of:
      0.050229974 = sum of:
        0.050229974 = weight(_text_:und in 695) [ClassicSimilarity], result of:
          0.050229974 = score(doc=695,freq=16.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.41585606 = fieldWeight in 695, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=695)
      0.25 = coord(1/4)
    
    Abstract
    Soziale Netzwerkseiten (SNS) sind seit der Jahrtausendwende ein zunehmend prägendes Phänomen im World Wide Web, das sich sukzessive über sämtliche Funktionsbereiche der Gesellschaft erstreckt und ihre Kommunikationsstrukturen beeinflusst. Auch das Wissenschaftssystem ist vom Versprechen affiziert, dass ihre 'soziale' Verknüpfungslogik die eigene Kommunikation intensivieren und mannigfaltige Optimierungsmöglichkeiten bieten könnte. Insbesondere Akademische Soziale Netzwerkseiten (ASNS) wie ResearchGate, Academia.edu und Mendeley sind der sichtbare Ausdruck einer Entwicklung, die sich im Rahmen der umfassenden Digitalisierung der Publikations- und Reputationskultur in den Wissenschaften vollzieht. Aufbauend auf einer initialen Skizze der Entwicklungstendenzen im wissenschaftlichen Publikationswesen wird zunächst die medienspezifische Funktionsökonomie von SNS skizziert und auf die ASNS übertragen. Daran anknüpfend werden anhand der Forschungsliteratur die zentralen Nutzungsmotive und -muster von Wissenschaftlern skizziert, das Verhältnis der ASNS-Nutzung zu institutionellen Open Access-Policies beleuchtet, und schließlich die Konsequenz der ASNS-Ökonomie vor dem Hintergrund szientometrischer Debatten diskutiert. Abschließend wird die Frage erörtert, welche Handlungszwänge bzw. -impulse sich hieraus für wissenschaftliche Bibliotheken ergeben können.
  10. Nida-Rümelin, J.; Weidenfeld, N.: Digitaler Humanismus : eine Ethik für das Zeitalter der künstlichen Intelligenz (2018) 0.01
    0.0125574935 = product of:
      0.050229974 = sum of:
        0.050229974 = weight(_text_:und in 780) [ClassicSimilarity], result of:
          0.050229974 = score(doc=780,freq=16.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.41585606 = fieldWeight in 780, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=780)
      0.25 = coord(1/4)
    
    Abstract
    Autonomer Individualverkehr und Pflege-Roboter, softwaregesteuerte Kundenkorrespondenz und Social Media, Big-Data-Ökonomie und Clever-Bots, Industrie 4.0: Die Digitalisierung hat gewaltige ökonomische, aber auch kulturelle und ethische Wirkungen. In Form eines Brückenschlags zwischen Philosophie und Science-Fiction entwickelt dieses Buch die philosophischen Grundlagen eines Digitalen Humanismus, für den die Unterscheidung zwischen menschlichem Denken, Empfinden und Handeln einerseits und softwaregesteuerten, algorithmischen Prozessen andererseits zentral ist. Eine Alternative zur Silicon-Valley-Ideologie, für die künstliche Intelligenz zum Religionsersatz zu werden droht. Enthält viele Bezugnahmen auf SF-Filme mit Metaphern aus der starken KI. Will einen Digitalen Humanismus als Ethik der Digitalisierung und Künstlichen Intelligenz entwickeln.
  11. Semantische Technologien : Grundlagen - Konzepte - Anwendungen (2012) 0.01
    0.0124204885 = product of:
      0.049681954 = sum of:
        0.049681954 = weight(_text_:und in 1167) [ClassicSimilarity], result of:
          0.049681954 = score(doc=1167,freq=46.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.411319 = fieldWeight in 1167, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=1167)
      0.25 = coord(1/4)
    
    Abstract
    Dieses Lehrbuch bietet eine umfassende Einführung in Grundlagen, Potentiale und Anwendungen Semantischer Technologien. Es richtet sich an Studierende der Informatik und angrenzender Fächer sowie an Entwickler, die Semantische Technologien am Arbeitsplatz oder in verteilten Applikationen nutzen möchten. Mit seiner an praktischen Beispielen orientierten Darstellung gibt es aber auch Anwendern und Entscheidern in Unternehmen einen breiten Überblick über Nutzen und Möglichkeiten dieser Technologie. Semantische Technologien versetzen Computer in die Lage, Informationen nicht nur zu speichern und wieder zu finden, sondern sie ihrer Bedeutung entsprechend auszuwerten, zu verbinden, zu Neuem zu verknüpfen, und so flexibel und zielgerichtet nützliche Leistungen zu erbringen. Das vorliegende Buch stellt im ersten Teil die als Semantische Technologien bezeichneten Techniken, Sprachen und Repräsentationsformalismen vor. Diese Elemente erlauben es, das in Informationen enthaltene Wissen formal und damit für den Computer verarbeitbar zu beschreiben, Konzepte und Beziehungen darzustellen und schließlich Inhalte zu erfragen, zu erschließen und in Netzen zugänglich zu machen. Der zweite Teil beschreibt, wie mit Semantischen Technologien elementare Funktionen und umfassende Dienste der Informations- und Wissensverarbeitung realisiert werden können. Hierzu gehören etwa die Annotation und das Erschließen von Information, die Suche in den resultierenden Strukturen, das Erklären von Bedeutungszusammenhängen sowie die Integration einzelner Komponenten in komplexe Ablaufprozesse und Anwendungslösungen. Der dritte Teil beschreibt schließlich vielfältige Anwendungsbeispiele in unterschiedlichen Bereichen und illustriert so Mehrwert, Potenzial und Grenzen von Semantischen Technologien. Die dargestellten Systeme reichen von Werkzeugen für persönliches, individuelles Informationsmanagement über Unterstützungsfunktionen für Gruppen bis hin zu neuen Ansätzen im Internet der Dinge und Dienste, einschließlich der Integration verschiedener Medien und Anwendungen von Medizin bis Musik.
    Content
    Inhalt: 1. Einleitung (A. Dengel, A. Bernardi) 2. Wissensrepräsentation (A. Dengel, A. Bernardi, L. van Elst) 3. Semantische Netze, Thesauri und Topic Maps (O. Rostanin, G. Weber) 4. Das Ressource Description Framework (T. Roth-Berghofer) 5. Ontologien und Ontologie-Abgleich in verteilten Informationssystemen (L. van Elst) 6. Anfragesprachen und Reasoning (M. Sintek) 7. Linked Open Data, Semantic Web Datensätze (G.A. Grimnes, O. Hartig, M. Kiesel, M. Liwicki) 8. Semantik in der Informationsextraktion (B. Adrian, B. Endres-Niggemeyer) 9. Semantische Suche (K. Schumacher, B. Forcher, T. Tran) 10. Erklärungsfähigkeit semantischer Systeme (B. Forcher, T. Roth-Berghofer, S. Agne) 11. Semantische Webservices zur Steuerung von Prooduktionsprozessen (M. Loskyll, J. Schlick, S. Hodeck, L. Ollinger, C. Maxeiner) 12. Wissensarbeit am Desktop (S. Schwarz, H. Maus, M. Kiesel, L. Sauermann) 13. Semantische Suche für medizinische Bilder (MEDICO) (M. Möller, M. Sintek) 14. Semantische Musikempfehlungen (S. Baumann, A. Passant) 15. Optimierung von Instandhaltungsprozessen durch Semantische Technologien (P. Stephan, M. Loskyll, C. Stahl, J. Schlick)
  12. Schmidt, E.; Cohen, J.: ¬Die Vernetzung der Welt : ein Blick in unsere Zukunft (2013) 0.01
    0.0124204885 = product of:
      0.049681954 = sum of:
        0.049681954 = weight(_text_:und in 4338) [ClassicSimilarity], result of:
          0.049681954 = score(doc=4338,freq=46.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.411319 = fieldWeight in 4338, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=4338)
      0.25 = coord(1/4)
    
    Abstract
    Welche Konsequenzen wird es haben, wenn in Zukunft die überwiegende Mehrheit der Weltbevölkerung online ist? Wenn Informationstechnologien so allgegenwärtig sind wie Elektrizität? Was bedeutet das für die Politik, die Wirtschaft - und für uns selbst? Diese Fragen beantwortet ein außergewöhnliches Autorenduo: Eric Schmidt, der Mann, der Google zu einem Weltunternehmen gemacht hat, und Jared Cohen, ehemaliger Berater von Hillary Clinton und Condoleeza Rice und jetzt Chef von Googles Denkfabrik. In diesem aufregenden Buch führen sie uns die Chancen und Gefahren jener eng vernetzten Welt vor Augen, die die meisten von uns noch erleben werden. Es ist die sehr konkrete Vision einer Zukunft, die bereits begonnen hat. Und ein engagiertes Plädoyer dafür, sie jetzt zu gestalten - weil Technologie der leitenden Hand des Menschen bedarf, um Positives zu bewirken.
    BK
    54.08 (Informatik in Beziehung zu Mensch und Gesellschaft)
    Classification
    54.08 (Informatik in Beziehung zu Mensch und Gesellschaft)
    Footnote
    Pressestimmen - In diesem faszinierenden Buch machen Eric Schmidt und Jared Cohen von ihrer einzigartigen Sachkenntnis Gebrauch, um uns eine Zukunft auszumalen, in der die Einkommen steigen, die Partizipation zunimmt und ein echter Sinn für Gemeinschaft entsteht - vorausgesetzt, wir treffen heute die richtigen Entscheidungen. (Bill Clinton) - Dieses Buch erklärt sowohl, was die neue Welt ausmacht, die das Internet schafft, als auch die Herausforderungen, die sie mit sich bringt. Niemand könnte das besser als Eric Schmidt und Jared Cohen. (Tony Blair) - Selbst wer nicht alle Schlussfolgerungen teilen mag, wird viel von diesem anregenden Buch lernen. (Henry A. Kissinger) - Auf dieses Buch habe ich gewartet: Eine prägnante und überzeugende Darstellung der Auswirkungen, die Technologie auf Krieg und Frieden, Freiheit und Diplomatie hat ... - Eine unverzichtbare Lektüre. (Madeleine Albright) -Dies ist das wichtigste - und faszinierendste - Buch, das bislang über die Auswirkungen des Digitalzeitalters auf unsere Welt geschrieben wurde. (Walter Isaacson) - «Die Vernetzung der Welt» verbindet auf faszinierende Weise Konzepte und Einblicke darüber, wie die sich die virtuelle Welt und die internationale Staatenordnung durchkreuzen. (Robert B. Zoellick) - Kaum jemand auf der Welt beschäftigt sich mehr damit, sich das neue Digitalzeitalter auszumalen - und es zu gestalten - als Eric Schmidt und Jared Cohen. Mit diesem Buch werfen sie einen Blick in ihre Kristallkugel und laden uns ein, ihnen dabei über die Schulter zu schauen. (Michael Bloomberg) - Dieses Buch ist die aufschlussreichste Erkundung unserer Zukunft, die ich je gelesen habe. Ich konnte es gar nicht mehr weglegen. (Sir Richard Branson) - «Die Vernetzung der Welt» ist Pflichtlektüre für alle, die das Ausmaß der digitalen Revolution wirklich verstehen wollen. (General Michael Hayden - ehemaliger Direktor der CIA) - Trotz der Herkunft der Autoren verbreitet «Die Vernetzung der Welt» keine Silicon-Valley-Propaganda ... Und was noch wichtiger ist: Es hebt die Debatte über Technologie auf ein höheres Niveau - weg vom banalen Streit über den Nutzen von Dating-Apps, hin zu allgemeineren Frage nach der gegenseitigen Beeinflussung von Technologie und Macht. (The Economist) - Dieses Buch ist deutlich mehr als nur Science Fiction. Es diskutiert hellsichtig und offen die entscheidenden Fragen, denen wir uns schon jetzt stellen müssen. Wer die Welt der Zukunft verstehen will, sollte es daher unbedingt lesen. (NDR Kultur)
  13. Mensch Maschine Visionen : wie Biologie und Technik verschmelzen (2015) 0.01
    0.0124204885 = product of:
      0.049681954 = sum of:
        0.049681954 = weight(_text_:und in 4742) [ClassicSimilarity], result of:
          0.049681954 = score(doc=4742,freq=46.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.411319 = fieldWeight in 4742, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=4742)
      0.25 = coord(1/4)
    
    Abstract
    Wie Biologie und Technik verschmelzen Forscher arbeiten kontinuierlich daran, künstliche Körperteile zu verbessern, indem sie diese "intelligenter" und damit leichter bedienbar machen und ihnen die Fähigkeit verleihen, dem Patienten Empfindungen zu vermitteln. Eine sensorische Rückmeldung von der Prothese an den Träger ist wohl die größte Herausforderung, vor der die Entwickler stehen. Indes ersetzt die Technik nicht nur Teile des Körpers, sie ergänzt ihn auch um Funktionen, die vorher nicht da waren. So gibt es mittlerweile elektronische Geräte, die selbsttätig das Gehirn beeinflussen. Sie helfen etwa Depressiven, mit ihrer Störung umzugehen, und verhindern Krampfanfälle bei Epilepsiepatienten. Derlei medizinische Eingriffe dienen einem klar umrissenen Zweck und lassen sich bei vielen Betroffenen gut begründen. Was aber, wenn Hirnchips lediglich dazu dienen sollen, die kognitive Leistungsfähigkeit zu verbessern - oder gar unsere Laune? Soll das noch erlaubt sein? Und ist ein Chip, der unsere Stimmung manipuliert, überhaupt noch ein Fremdkörper oder vielmehr schon Teil unserer Persönlichkeit? Schwierige Fragen, auf die es keine einfachen Antworten gibt. Wohin die Verschmelzung von Mensch und Technik noch führen wird, ist offen. Schon jetzt regt sie Übermenschen-Fantasien an und nährt die alte Sehnsucht nach Erlösung und Vollendung. Das vorliegende Sonderheft behandelt zahlreiche Facetten der Mensch-Maschine-Vereinigung; hervorgegangen ist es aus den Vorträgen des 18. Berliner Kolloquiums der Daimler und Benz Stiftung.
    Content
    Inhalt: Neuroimplantate (S.6) - [Neurodegenerative oder psychiatrische Erkrankungen lassen sich oft erfolgreich behandeln, indem man Nervenzellen künstlich stimuliert. Den Zellkontakt stellen Neuroimplantate her.] / Direkter Draht zum Hörnerv (S.14) [Viele Kinder, die taub auf die Welt kommen, müssen es nicht bleiben. Ein Cochleaimplantat verschafft ihnen Zugang zur Lautsprache - vorausgesetzt, es wird zeitig genug eingesetzt.] / Auf dem Weg zur perfekten Prothese (S.20) - [Forscher versehen künstliche Gliedmaßen mit mehr Intelligenz, damit diese Muskel- und Nervensignale besser erfassen und immer zuverlässiger sowie differenzierter auswerten.] / Alles im Griff (S.28) - [Neuroprothesen können Amputierten und Gelähmten ihre Beweglichkeit zurückgeben. Doch die technischen Hürden sind hoch - und der Kreis der Anwender klein.] / Noch einmal mit Gefühl! (S.34) - [Herkömmliche Prothesen vermitteln ihren Trägern keine Empfindungen. Das soll sich ändern: Forscher und Patienten testen Modelle, mit denen es möglich ist, Berührungen zu fühlen.] / Kommt die gesteuerte Persönlichkeit? (S.40) - [Die elektrische Tiefenhirnstimulation hilft Menschen mit Depressionen oder Zwangsstörungen. Die Technik könnte jedoch missbraucht werden, um das Gehirn Gesunder zu manipulieren.] / Interview: "Ich sehe kein ethisches K.-o.-Argument, um diese Entwicklungen zu verhindern" (S.44) -
    [Sobald es möglich wird, die geistige Leistungsfähigkeit mit technischen Mitteln zu verbessern, entsteht auch eine Nachfrage danach, meint der Physiker und Philosoph Armin Grunwald.] / Verkörperung in Avataren und Robotern (S.48) - [Unser Ichbewusstsein lässt sich in äußere Avatare übertragen, so dass wir uns in diesen verorten. Im Alltag eingesetzt, kann diese Technik weitreichende kulturelle Folgen haben.] / Übermenschenbilder (S.56) - [Menschendarstellungen in den Medien zeugen davon, was und wie wir gerne wären. Sie haben maßgeblichen Einfluss darauf, wie wir kulturell ausgestalten, was technisch möglich wird.] / Der alte Traum vom mechanischen Menschen (S.66) - [Das Streben, körperliche Grenzen technisch zu überwinden, ist mehr als ein Jahrhundert alt - und befeuert noch heute die gesellschaftliche Diskussion über unser Schicksal.] / Verschwimmende Grenzen zwischen Mensch und Technik (S.74) - [Wenn Person und Maschine verschmelzen, bekommen Begriffe wie Zurechnungsfähigkeit, Entscheidungsautonomie und Schuld eine völlig andere Bedeutung.] / Neuroenhancement aus normativ-rechtlicher Sicht (S.80) - [Brauchen wir neue Gesetze, um für die Zukunft zu regeln, inwieweit man mentale Fähigkeiten künstlich erweitern darf?] / Die Marionette (S.88) - [Eine Kurzgeschichte über Identitäten]
  14. Nassehi, A.: Muster : Theorie der digitalen Gesellschaft (2019) 0.01
    0.0124204885 = product of:
      0.049681954 = sum of:
        0.049681954 = weight(_text_:und in 426) [ClassicSimilarity], result of:
          0.049681954 = score(doc=426,freq=46.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.411319 = fieldWeight in 426, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=426)
      0.25 = coord(1/4)
    
    Abstract
    Wir glauben, der Siegeszug der digitalen Technik habe innerhalb weniger Jahre alles revolutioniert: unsere Beziehungen, unsere Arbeit und sogar die Funktionsweise demokratischer Wahlen. In seiner neuen Gesellschaftstheorie dreht der Soziologe Armin Nassehi den Spieß um und zeigt jenseits von Panik und Verharmlosung, dass die Digitalisierung nur eine besonders ausgefeilte technische Lösung für ein Problem ist, das sich in modernen Gesellschaften seit jeher stellt: Wie geht die Gesellschaft, wie gehen Unternehmen, Staaten, Verwaltungen, Strafverfolgungsbehörden, aber auch wir selbst mit unsichtbaren Mustern um? Schon seit dem 19. Jahrhundert werden in funktional ausdifferenzierten Gesellschaften statistische Mustererkennungstechnologien angewandt, um menschliche Verhaltensweisen zu erkennen, zu regulieren und zu kontrollieren. Oft genug wird die Digitalisierung unserer Lebenswelt heutzutage als Störung erlebt, als Herausforderung und als Infragestellung von gewohnten Routinen. Im vorliegenden Buch unternimmt Armin Nassehi den Versuch, die Digitaltechnik in der Struktur der modernen Gesellschaft selbst zu fundieren. Er entwickelt die These, dass bestimmte gesellschaftliche Regelmäßigkeiten, Strukturen und Muster das Material bilden, aus dem die Digitalisierung erst ihr ökonomisches, politisches und wissenschaftliches Kontroll- und Steuerungspotential schöpft. Infolge der Digitalisierung wird die Gesellschaft heute also regelrecht neu entdeckt.
    Content
    Einleitung Wie über Digitalisierung nachdenken? - Eine techniksoziologische Intuition - Frühe Technologieschübe - Original und Kopie - Produktive Fehlanzeige und Sollbruchstelle 1 Das Bezugsproblem der Digitalisierung Funktionalistische Fragen - Connecting Data - offline - Was ist das Problem? - Das Unbehagen an der digitalen Kultur - Die digitale Entdeckung der "Gesellschaft" - Empirische Sozialforschung als Mustererkennung - "Gesellschaft" als Digitalisierungsmaterial - Der / die / das Cyborg als Überwindung der Gesellschaft? 2 Der Eigensinn des Digitalen Die ungenaue Exaktheit der Welt - Der Eigensinn der Daten - Kybernetik und die Rückkopplung von Informationen - Digitalisierung der Kommunikation - Dynamik der Geschlossenheit - Die Selbstreferenz der Datenwelt 3 Multiple Verdoppelungen der Welt Daten als Beobachter - Verdoppelungen - Störungen - Querliegende datenförmige Verdoppelungen - Die Spur der Spur und diskrete Verdoppelungen - Spuren, Muster, Netze 4. Einfalt und Vielfalt Medium und Form - Codierung und Programmierung - Die digitale Einfachheit der Gesellschaft - Optionssteigerungen - Sapere aude im Spiegel der Digitalisierung Exkurs Digitaler Stoffwechsel
    5 Funktionierende Technik Die Funktion des Technischen - Digitale Technik - Kommunizierende Technik - Die Funktion des Funktionierens - Niedrigschwellige Technik - Dämonisierte Technik - Unsichtbare Technik und der Turing-Test - Das Privileg, Fehler zu machen 6 Lernende Technik Entscheidungen - Abduktive Maschinen? - Verteilte Intelligenz? - Anthropologische und technologische Fragen - Erlebende und handelnde Maschinen - Unvollständigkeit, Vorläufigkeit, systemische Paradoxien - Künstliche, leibliche, unvollständige Intelligenz 7 Das Internet als Massenmedium Sinnüberschussgeschäfte - Synchronisationsfunktion - Synchronisation und Sozialisation - Selektivität, Medialität und Voice im Netz - Beim Zuschauen zuschauen - Komplexität und Überhitzung - Das Netz als Archiv aller möglichen Sätze - Intelligenz im Modus des Futur 2.0 8 Gefährdete Privatheit Die Unwahrscheinlichkeit informationeller Selbstbestimmung - Ein neuer Strukturwandel der Öffentlichkeit? - Gefährdungen - Privatheit 1.0 - Privatheit 1.0 als Ergebnis von Big Data? - Big Data und die Privatheit 2.0 - Privatheit retten? 9 Debug: Die Wiedergeburt der Soziologie aus dem Geist der Digitalisierung Digitale Dynamik und gesellschaftliche Komplexität - Eine Chance für die Soziologie
  15. Sandner, M.: Neues aus der Kommission für Sacherschließung (2010) 0.01
    0.0124094635 = product of:
      0.049637854 = sum of:
        0.049637854 = weight(_text_:und in 314) [ClassicSimilarity], result of:
          0.049637854 = score(doc=314,freq=90.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.41095388 = fieldWeight in 314, product of:
              9.486833 = tf(freq=90.0), with freq of:
                90.0 = termFreq=90.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=314)
      0.25 = coord(1/4)
    
    Content
    Dieses Jahr bot uns bereits zahlreiche interessante Themen: von der Sacherschließung ausgehend schnupperten wir auch in benachbarte Arbeitsund Forschungsfelder und regten andererseits interessierte Zuhörer/-innen aus diesen Nachbargebieten dazu an, die Aspekte der Inhaltserschließung aus einem für sie relevanten Blickwinkel heraus näher kennenzulernen. Die beiden öffentlichen Kommissionssitzungen des ersten Halbjahres 2010 und das SE-Panel im Rahmen der ODOK´10 in Leoben stießen daher nicht nur im engeren Kreis der Sacherschließer/-innen sondern auch bei Titelaufnehmern/-innen und IT-Experten/-innen auf verdientes Interesse. Sämtliche Vortragsfolien und begleitendes Material sind auf der KofSE- Seite chronologisch zugänglich. Am 29. April traf sich in Wien zunächst der am Grazer Bibliothekartag ins Leben gerufene Arbeitskreis K-KONKORD zum zweiten Mal: wir hörten kurze Berichte über laufende Projektarbeiten und Masterthesen zum Thema Klassifikationen-Konkordanzen und beschlossen, bis zum nächsten Treffen im Herbst unsere bis dahin gesammelten "Mosaiksteine" nach und nach in einem gesonderten Bereich auf der KofSE-Seite innerhalb der VÖB-Homepage abzulegen. Danach begann die KofSE-Sitzung mit einem Kurzbericht von Kurt SCHAEFER aus der UB Wien über seinen unmittelbar davor liegenden Besuch beim EDUG-Meeting 2010 in Alexandria. Nicht nur seine noch ganz vom ägyptischen Klima "aufgeheizten" und durch eine Bilderfolge lebendig dokumentierten Reiseeindrücke sondern v. a. die erste Zusammenfassung aktueller Trends innerhalb der wachsenden europäischen DDC- Community waren - spontan mitkommentiert von Karin Kleiber (Sekretärin der European Dewey Users Group, EDUG) und ebenso spontan ergänzt von Lars Svensson, der mit einer Telekonferenzschaltung von Deutschland aus an dem Meeting teilgenommen hatte - diesmal ein höchst aktueller Einstieg ins Thema Klassifikation. Darauf folgten zwei Gastvorträge:
    Lars SVENSSON von der Deutschen Nationalbibliothek, Frankfurt am Main gab seinem spannenden Vortrag über ein laufendes praxisorientiertes DNB-Projekt den Titel Panta rei: Die Versionierung der DDC - Probleme, Anforderungen und mögliche Lösungen. Einen kurzen Abschlussbericht über das mit diesem praktischen Lösungsansatz zu erzielende, möglicherweise adäquate IT-Handling von laufenden inhaltlichen Anpassungen der Klassifikation selbst - das Editorial Policy Committee (EPC) der DDC reagiert auf neue Bedürfnisse, LoC und OCLC führen passende Benennungen ein und adaptieren Klassen - sowie von durch die Nutzung unterschiedlicher DDC-Fremddaten entstehenden inhomogenen Gemengelagen dürfen wir im kommenden Frühjahr für die VÖB-Mitteilungen erwarten. Naoka WERR von der UB Regensburg präsentierte unter dem Titel RVK 2010 authentisch den aktuellen Stand und die zukünftigen Entwicklungen im Dienstleistungsportfolio dieser so weit verbreiteten Aufstellungssystematik und stellte sich gleichzeitig auch der neuen und etwas heiklen Kostenfrage. Sie erläuterte die geplante neue Vorgehensweise des RVK-Teams in Regensburg gegenüber den RVK-Anwenderbibliotheken und zeigte sich für nötige Anpassungen der vermehrt auch aus Österreich hinzutretenden Anwender im Rahmen des bewährten und relativ unkomplizierten redaktionellen Procederes aufgeschlossen. Der kleinen RVK-Community stand sie am Nachmittag im Anschluss an die gemeinsame Roundtable-Diskussion noch geduldig für aktuelle Fragen zur Verfügung. Wolfram SEIDLER von der UB Wien moderierte den Runden Tisch am Nachmittag. Er geleitete die diskussionsfreudigen Teilnehmer/-innen souverän aber unaufdringlich durch das zukunftsträchtige Thema Klassifikationen und Semantic Web, und viele haben aus diesem - wörtlich gemeinten - Kreis Anregungen mitgenommen, die dazu verleiten werden, am Ball zu bleiben und auf die Entwicklungen im Semantic Web in Zukunft aufgeschlossener, also konstruktiv statt skeptisch, mit einem Wort sachkundiger zu reagieren. Gelegenheit dazu sollte sich schon im September, nämlich bei unserem Themenvormittag rund um Sacherschließung und Linked Data, einem neuen Forschungsfeld vor dem Hintergrund des Semantic Web, bieten.
    Die zweite KofSE-Veranstaltung in diesem Jahr fand am 17. Juni in Wien statt und hatte den Charakter eines Tagesseminars, das aus vier Vorträgen von zwei überaus kompetenten Expertinnen sowie einem kleinen Workshop bestand. Heidrun WIESENMÜLLER von der Hochschule der Medien, Stuttgart (Stellvertretende Leiterin der Expertengruppe Sacherschließung, EGSE) machte uns zunächst mit den theoretischen Grundlagen der FRBR vertraut und bereitete am Nachmittag die RDA praktisch für uns auf. Esther SCHEVEN von der Deutschen Nationalbibliothek, Frankfurt am Main (Leiterin der EGSE) referierte am Vormittag über das theoretische Modell der FRSAD, das der schon bisher in der SWD praktizierten Terminologiearbeit nicht widerspricht, brachte uns nachmittags das bereits weit gediehene Konzept für die GND (Gemeinsame Normdatei) nahe und lud schließlich noch zu einigen praktischen Übungen mit Datensätzen im künftigen GND-Format ein. Besonders was die Zusammenführung von Körperschaftsansetzungen aus GKD und SWD betrifft, dürfte der Prozess noch recht spannend bleiben. Kein Wunder also, dass an diesem Tag auch zahlreiche Formalerschließer/-innen bei uns zu Gast waren, was nicht nur in den Fragerunden nach jedem Vortragsteil sondern auch in den Pausengesprächen die immer wichtiger werdenden Kontakte über die Grenzen bisheriger Arbeitsfelder hinweg durchaus förderte. "Grenzüberschreitendes" Interesse planten wir auch für das SE-Panel bei der ODOK´10 in Leoben am Donnerstagvormittag, 23. September mit ein. Dort gestalteten wir erstmals einen Themenvormittag mit jungen Informationswissenschaftlern rund um Linked Data und Sacherschließung und kombinierten die Auswirkungen dieses neuen Forschungsgebiets mit einem Ausblick auf bevorstehende Änderungen in der SE-Praxis der Deutschen Nationalbibliothek. Im Anschluss daran luden wir die zahlreichen Teil-nehmer/-innen zu einer regen Diskussion ein.
    Zunächst führte Bernhard HASLHOFER vom Department of Distributed and Multimedia Systems, Universität Wien, behutsam in die Thematik Linked Data als Perspektive für die bibliothekarische Inhaltserschließung ein. Dann stellte Lars SVENSSON von der Deutschen Nationalbibliothek, Frankfurt am Main die uns vertrauten Normdateien SWD, GKD und PND als Linked Data vor und erläuterte deren bisher erreichten Stand und Perspektiven. Auch DDC-Deutsch und die Ergebnisse aus dem CrissCross-Projekt sind bereits jetzt "open linked" verfügbar. Steffen HENNICKE vom Institut für Bibliotheks- und Informationswissenschaft der Humboldt-Universität Berlin stellte in seinem mit Gemälden als Beispiele sehr anschaulich gestalteten Vortrag "Linked Data und semantische Suchfunktionalitäten in Europeana besonders den Nutzen eines so genannten "Semantic Data Layer", also der semantischen Datenschicht, die heterogene Objektmetadaten kontextualisiert, dar und zeigte wie und warum Search & Retrieval in einer derartigen Informationsarchitektur funktionieren. Im ersten Vortrag nach der Pause mit dem Titel Freie Katalogdaten und Linked Data, rückte Adrian POHL vom Hochschulbibliothekszentrum des Landes Nordrhein-Westfalen (hbz), Köln dann die wichtige Komponente Linked "Open" Data mit der lizenzrechtlichen Seite von im Web frei verfügbaren bibliographischen Daten in unseren Fokus. Außerdem berücksichtigte er, dass viele Aleph-Anwender/-innen im Auditorium saßen und erläuterte die praktischen Probleme beim regelmäßigen Export von Daten aus dem Verbundkatalog. Schließlich stellte er laufende und zukünftige Linked-Open-Data-Projekte des hbz vor, in denen - teilweise in Kooperation mit der DNB - eine Basisinfrastruktur für Bibliotheken im Semantic Web entwickelt werden soll. Ulrike JUNGER, Leiterin der Inhaltserschließung an beiden Standorten der Deutschen Nationalbibliothek, Leipzig und Frankfurt am Main, holte uns wieder in die Realität des Sacherschließungsalltags zurück und stellte in ihrem Vortrag Automatisierung in der Inhaltserschließung - neue Ansätze in der Deutschen Nationalbibliothek konkrete Planungen und Aktivitäten der DNB für automatische Erschließungsverfahren vor. Im Bereich der Netzpublikationen wurde die traditionelle, intellektuell durchgeführte verbale und klassifikatorische Inhalterschließung seit Anfang 2010 eingestellt und soll durch automatische Verfahren ersetzt werden. Derzeit wird insbesondere die Vergabe von DDC-Sachgruppen und Schlagwörtern erprobt. In die bisher vorliegenden Testergebnisse beider Verfahren erhielten wir kurz Einblick. Wenig überraschend schnitten dabei Fächer wie Medizin am günstigsten ab. Schon 2012 könnten solche Verfahren in DNB zur Anwendung kommen."
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 63(2010) H.3/4, S.95-99
  16. Walther, R.: Abschied von einem Relikt der Print-Ära : MEDIENgedanken: Ende des gedruckten Brockhaus-Lexikons (2013) 0.01
    0.012359726 = product of:
      0.049438905 = sum of:
        0.049438905 = weight(_text_:und in 2030) [ClassicSimilarity], result of:
          0.049438905 = score(doc=2030,freq=62.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.40930676 = fieldWeight in 2030, product of:
              7.8740077 = tf(freq=62.0), with freq of:
                62.0 = termFreq=62.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=2030)
      0.25 = coord(1/4)
    
    Content
    "2008 wurde bekannt gegeben, dass die 2005/06 präsentierte 21. Auflage des Brockhaus vorerst die letzte gedruckte sein wird. Ab dem 15. April 2008 war die Restauflage zwar noch zu kaufen, aber gleichzeitig wurde das Lexikon vollständig und gratis ins Internet gestellt. Vor kurzem erklärte der Verlag, dass der Betrieb eingestellt wird und nur die vertraglichen Verpflichtungen aus der Online-Aktualisierung bis 2020 weiterlaufen. Viele Kommentatoren halten die 30-bändige, gedruckte Ausgabe für ein Relikt und einen elitären Luxus angesichts der schnellfingerig zugänglichen Lexika im Internet. Der Vorgang hat neben der geschäftlich-profitorientierten eine prinzipielle, wissens- und bildungsgeschichtliche Seite. Allein darum geht es, denn der Brockhaus als Geschäft ist eine reine Privatsache der Eigentümer. Das Konversationslexikon verdankt seine Entstehung einer historischen Konstellation, die sich heute im Zeichen von Internet und elektronischer Revolutionierung der Kommunikation wiederholt. Auch die Konstellation in der Entstehungszeit des Konversationslexikons um 1810 war geprägt durch ein ökonomisches Kalkül und ein konzeptionelles Dilemma.
    Ökonomisch gesehen sind die Konversationslexika des 19.Jahrhunderts die Erben der Enzyklopädien des 18. Jahrhunderts. Diese großen Universallexika waren allein von ihrem Umfang, intellektuellen Anspruch und Preis her nicht für ein breites Publikum bestimmt. Genau darauf schielte jedoch der Geschäftsmann Brockhaus mit seiner schlichten Rechnung: von den 100 Millionen deutschsprachigen Europäern entfielen ihm zufolge 75 Millionen auf Frauen, Kinder, Arme und Al- te. Diese schieden als Käufer aus. Vom Rest sollte ein Viertel also rund sechs Millionen Bildungs- und Besitzbürger - ein Lexikon kaufen, um »eine Art von Schlüssel« zu erwerben, mit dem sie sich »den Eingang in gebildete Zirkel« verschaffen konnten. Daher der Name »Konversationslexikon«. Neben diesem prosaischen ökonomischen Kalkül gab es ein konzeptionelles Dilemma für die in dem Jahrhundert der Aufklärung entstandenen großen Enzyklopädien oder Universallexika. Sie beanspruchten, das gesamte verfügbare Wissen zu sammeln. Aus diesem enzyklopädischen Geist - das griechische Wort bedeutet wörtlich »Kreis der Wissenschaften« - entstand Johann Heinrich Zedlers 68 Bände starkes »Großes vollständiges Universallexikon aller Wissenschaften und Künste« (1732-1754), wobei das Wort »vollständig« im Titel wörtlich verstanden wurde. Denis Diderot und Jean Le Rond d'Alembert publizierten die 35 Bände der »Encyclopédie ou dictionnaire raisonnée des sciences, des arts et des metiers« innerhalb von 29 Jahren - zwischen 1751 und 1780. Das konzeptionelle Dilemma für diese Enzyklopädien entstand, weil sich das Wissen viel schneller vermehrte und veränderte, als es gedruckt werden konnte. Die »Allgemeine Enzyklopädie der Wissenschaften und Künste« von Johann Samuel Ersch und Johann Gottfried Gruber wurde deshalb mit dem 167. Band beim Buchstaben P 1889 abgebrochen.
    Es gab zwei Auswege aus diesem Dilemma: Man konnte den umfassenden enzyklopädischen Anspruch aufrechterhalten, aber sich auf einzelne Fach- bzw. Wissensgebiete beschränken. Diesen Weg ging die »Oeconomische Encyclopädie« (1773-1858) und endete in einer Sackgasse: Mit dem 242. Band erreichte sie den Buchstaben L. und wurde 1858 eingestellt - angeblich mit dem Stichwort Leiche. Den zweiten Ausweg beschritt u.a. der Kaufmann Brockhaus. Er wollte nicht mehr alles Wissen sammeln, sondern nur das für gepflegte Gespräche notwendige Wissen. Die schwierige Frage, was zum Notwendigen gehörte und was nicht, wurde zunächst ebenso willkürlich beantwortet wie moralische, ethische und ästhetische, aber auch medizinische und politische Fragen - bieder-hausväterlich und vorurteilstrunken. Vieles blieb mit Haut und Haaren dem Zeitgeist verhaftet. Friedrich Engels, der gebildete Grandseigneur des Sozialismus, nannte Konversationslexika deshalb »Eselsbrücken des deutschen Bildungsphilisters«. Gegen Ende des 19. Jahrhunderts wurden die Lexika sachlicher in ihrer Diktion und wissenschaftlicher. Seit der 17. Auflage von 1966 nannte sich das Lexikon »Brockhaus-Enzyklopädie«. Aktualität, Objektivität, Selektivität und Präzision sind die Grundanforderungen an jedes Lexikon. Die vier Anforderungen sind jedoch nur schwer miteinander vereinbar. Die Aktualität kann die Objektivität gefährden, die Auswahl tangiert Aktualität und Objektivität, die Präzision ist mit Objektivitäts- und Auswahlproblemen ver- knüpft. Lexikographie war und ist inhaltlich ein Jonglierakt mit diesen vier Kugeln. Wikipedia weicht dem aus und präsentiert einen unübersichtlichen Wissenshaufen.
    Wissen vermehrt und verändert sich auch heute immer schneller. Das Online-Lexikon Wikipedia ist viel schneller und umfangreicher als Brockhaus. Aber Wikipedia organisiert nicht Wissen, sondern zerstückelt es in ein ebenso wirres wie verwirrendes Labyrinth von Wissenspartikeln und Verweisen, während die 4060 Lexikographen bei Brockhaus das unübersichtlich-chaotische Expertenwissen von Tausenden von Spezialisten zu konsistenten Einheiten verdichten. Sich mit Wikipedia zu bilden, gleicht dem hoffnungslosen Unterfangen, mit einem mehrbändigen Wörterbuch eine Sprache zu lernen. Wenn der gedruckte Brockhaus verschwindet, drohen nicht Weltuntergang oder barbarische Ignoranz - ein kultureller Verlust aber allemal."
  17. Chomsky, N.: Was für Lebewesen sind wir? (2016) 0.01
    0.012270806 = product of:
      0.049083225 = sum of:
        0.049083225 = weight(_text_:und in 2621) [ClassicSimilarity], result of:
          0.049083225 = score(doc=2621,freq=22.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.4063621 = fieldWeight in 2621, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2621)
      0.25 = coord(1/4)
    
    Abstract
    Noam Chomsky gilt als der Begründer der modernen Linguistik und als einer der Gründerväter der Kognitionswissenschaften. Zugleich ist er einer der meistgelesenen politischen Denker der Welt. Dieses Buch ist die philosophische Summe seines Lebens: Erstmals führt er alle seine großen Themen zusammen und begibt sich auf die Suche nach dem Wesen des Menschen. Chomsky nimmt seinen Ausgang bei der Sprache. Diese ist für ihn ein angeborener Mechanismus, der ein keineswegs zwingendes Muster aufweist und unser Denken bestimmt. Wir alle denken gemäß diesem Muster - und daher können wir auch nur das wissen, was die menschliche Sprache zu denken erlaubt. Einige Geheimisse der Natur könnten uns deshalb für immer verborgen bleiben. Zugleich eröffnet die Sprache aber eine kreative Freiheit; uns ist ein Freiheitsinstinkt gegeben, der uns gegen Herrschaft aufbegehren und eine freie Entfaltung suchen lässt. In der libertären Tradition von Wilhelm von Humboldt, John Stuart Mill und Rudolf Rocker zeichnet uns Chomsky als anarchische Lebewesen, die nach einer Assoziation freier Menschen streben.
    BK
    17.10 (Sprache in Beziehung zu anderen Bereichen der Wissenschaft und Kultur)
    18.00 (Einzelne Sprachen und Literaturen allgemein)
    Classification
    17.10 (Sprache in Beziehung zu anderen Bereichen der Wissenschaft und Kultur)
    18.00 (Einzelne Sprachen und Literaturen allgemein)
    Footnote
    Originaltitel: What kind of creatures are we? Rez. unter: https://www.spektrum.de/rezension/buchkritik-zu-was-fuer-lebewesen-sind-wir/1441496; https://www.perlentaucher.de/buch/noam-chomsky/was-fuer-lebewesen-sind-wir.html; https://www.zfphl.de/index.php/zfphl/article/view/149/255 (ausführlich und kritisch).
  18. Gottwald, M.; Klemm, M.; Weyand, J.: Warum ist es schwierig, Wissen zu managen? : Ein soziologischer Deutungsversuch anhand eines Wissensmanagementprojekts in einem Großunternehmen (2010) 0.01
    0.012270806 = product of:
      0.049083225 = sum of:
        0.049083225 = weight(_text_:und in 2673) [ClassicSimilarity], result of:
          0.049083225 = score(doc=2673,freq=22.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.4063621 = fieldWeight in 2673, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2673)
      0.25 = coord(1/4)
    
    Abstract
    Auf die exponentielle Zunahme von verfügbarer Information, die damit verbundene Schwierigkeit, Wichtiges und Unwichtiges, Relevantes und Irrelevantes zu trennen, und die Sorge, alle entscheidungsrelevanten Informationen bei einer Entscheidung auch berücksichtigt zu haben, haben vor allem große Organisationen mit der Einrichtung von speziellen Wissensmanagementabteilungen reagiert, die die organisationsinternen Informationsflüsse steuern und dadurch optimieren, organisieren und kontrollieren sollen. Die Alltagspraxis des Wissensmanagements basiert oft auf der Annahme, dass die Organisation von Informationsflüssen und die Verwendung von Information zwei getrennte Prozesse sind. Auf dieser Grundlage kann das Wissensmanagement dann als ein spezialisierter Dienstleister verstanden werden. Mit dieser Unterstellung ist ein Informationsverständnis verbunden, das Informationen als in sich abgeschlossene und objektive Einheiten begreift. Das Wissensmanagement verwaltet Informationen jedoch nicht nur, sondern verwendet sie auch; es ist selbst Teil der Prozesse, die es organisiert. Weil das Wissensmanagement dies oft nicht sieht, beraubt es sich im Grunde selbst der Mittel, in dem Spannungsfeld zwischen der Verwendung und der Verwaltung von Information angemessen zu agieren. Entsprechend häufig werden im Kontext von Wissensmanagementprojekten Enttäuschungen artikuliert - es kommt einfach nicht das heraus, was man sich versprochen hatte. Unser Beitrag diskutiert anhand eines Fallbeispiels Gründe dafür. Nach einer Problemexposition (1) werden wir das Spannungsfeld zwischen dem Umgang mit und der Verwaltung von Wissen an einem Fallbeispiel entwickeln und untersuchen, warum das Wissensmanagement, wenn es in diesem Spannungsfeld agiert, von den Spannungen getrieben wird, anstatt sie aufzulösen (2). Daraus ziehen wir schließlich Konsequenzen für die Theorie und Praxis des Wissensmanagements (3).
  19. Bauer, R.: ¬Die digitale Bibliothek von Babel : über den Umgang mit Wissensressourcen im Web 2.0 (2010) 0.01
    0.012270806 = product of:
      0.049083225 = sum of:
        0.049083225 = weight(_text_:und in 80) [ClassicSimilarity], result of:
          0.049083225 = score(doc=80,freq=22.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.4063621 = fieldWeight in 80, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=80)
      0.25 = coord(1/4)
    
    Abstract
    Das Web 2.0 hat einen Paradigmenwechsel im Umgang mit Informationen und damit eng verbunden im Wissenserwerb eingeleitet. Theoretisch gesehen hat jeder offenen Zugang zu vielfältigen Informationen und kann gleichzeitig selbst Inhalte beisteuern - z.B. in Sozialen Netzwerken, in Weblogs oder Wikis - und Websites oder andere Dokumente (Videos, Slideshows o.ä.) veröffentlichen und mit anderen Nutzern teilen. Dieser Demokratisierungsprozess von Wissensproduktion, -kommunikation und -erwerb ist allerdings nicht frei von Kontroversen. Das verstärkte Nebeneinander von sachlich richtiger und relevanter Information einerseits und Belanglosigkeiten andererseits ruft auch Gegner auf den Plan. Sie sprechen von einem Information Overkill und befürchten den Niedergang der klassischen Bildung. Führen freie Wissenszugänge im Netz tatsächlich zu weniger Bildung? Was macht eine Website zu einer zuverlässigen und vertrauenswürdigen Quelle? Wie können aus der Fülle von Webressourcen die qualitativ hochwertigen herausgefiltert werden? Welchen Beitrag kann dabei Social Software leisten? Welches sind die Konstituenten einer Informationskompetenz 2.0, über die User verfügen sollten, um mit vorgefundenen Ressourcen adäquat umgehen zu können? Und inwiefern sind Bibliotheken - die sich ja zunehmend als Teaching Libraries verstehen - hier gefordert? Auf diese Fragen versucht das vorliegende Buch Antworten zu geben. Der Fokus liegt auf dem Umgang mit Wissensressourcen im Web 2.0, wobei ebenso theoretische wie praktische Implikationen berücksichtigt und ausgewählte Evaluierungsansätze hinsichtlich ihrer praktischen Anwendbarkeit für die User diskutiert werden.
  20. Ludwig, L.: Lösung zum multilingualen Wissensmanagement semantischer Informationen (2010) 0.01
    0.012270806 = product of:
      0.049083225 = sum of:
        0.049083225 = weight(_text_:und in 281) [ClassicSimilarity], result of:
          0.049083225 = score(doc=281,freq=22.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.4063621 = fieldWeight in 281, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=281)
      0.25 = coord(1/4)
    
    Abstract
    Ein System zum mehrsprachigen Wissensmanagement semantischer Informationen wird vorgestellt: das Semantic Wiki Artificial Memory. Seine Grundidee wird kurz skizziert. Verschiedene aktuelle Probleme des technikgestützten Wissensmanagements werden erläutert und eine neuartige Kombination aus innovativen und bekannten Lösungen für diese Probleme veranschaulicht.
    Content
    "Bis vor wenigen Jahren waren kürzere physische Schriftstücke und Bücher die bevorzugten Mittel beim Gedankenverfassen und Gedankenaustausch. Dokumentenregister halfen beim Auffinden, Gliederungen unterstützten beim Zurechtfinden, ggf. assistierten Stichwortverzeichnisse beim Herauspicken. Diese inkrementelle Orientierung weicht zunehmend einer reinen Stichwortsuche in elektronischen Dokumentenkorpora, insbesondere dem WWW. Dokumentenregister, Gliederungen und Stichwortverzeichnisse werden von auf Wortindexen aufbauenden Suchmaschinen ausgehebelt. Das Suchergebnis verweist direkt auf einen einzelnen Textausschnitt (Snippet). Zurechtfinden im Dokument und Auffinden der richtigen Dokumente(nvorschläge) erfolgen nun, wenn überhaupt, in umgekehrter Reihenfolge und demgemäß unter Umständen sehr mühsam. Auf Anhieb erfolgreich ist eine solche Suche allerdings dann, wenn das Zieldokument auf das Stichwort völlig zugeschnitten erscheint, wenn also förmlich Textausschnitt, Kapitel und Dokument in eins fallen. Der Sog der Suchmaschinen zerschlägt die traditionelle sequentielle Dokumentengliederung, zerschlägt zuletzt das Dokument selbst in immer kleinere suchmaschinengerechte Einheiten. Auf solche Weise löst die Indexierung in Einzelwörter letztlich das Dokument selbst auf. Zurück bleibt allein eine Ansammlung indexgemäß geordneter Informationseinheiten: das Lexikon oder der Katalog. Im elektronisch gestützten Wissensmanagement nimmt nun das Wiki den Platz des Lexikons ein und der benamste Wikieintrag den Platz des Dokumentes."
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis ; Bd. 14) (DGI-Konferenz ; 1
    Source
    Semantic web & linked data: Elemente zukünftiger Informationsinfrastrukturen ; 1. DGI-Konferenz ; 62. Jahrestagung der DGI ; Frankfurt am Main, 7. - 9. Oktober 2010 ; Proceedings / Deutsche Gesellschaft für Informationswissenschaft und Informationspraxis. Hrsg.: M. Ockenfeld

Languages

  • d 1631
  • e 213
  • a 1
  • More… Less…

Types

  • a 1375
  • el 403
  • m 279
  • x 74
  • s 60
  • r 26
  • n 8
  • i 3
  • b 2
  • p 2
  • v 2
  • ms 1
  • More… Less…

Themes

Subjects

Classifications