Search (1872 results, page 55 of 94)

  • × year_i:[2010 TO 2020}
  1. Csákány, B.: Vom Zettelkatalog zum Volltext : über die Entwicklung und Funktion des Kataloges am Beispiel der Österreichischen Nationalbibliothek (2012) 0.01
    0.009196038 = product of:
      0.036784153 = sum of:
        0.036784153 = weight(_text_:und in 1600) [ClassicSimilarity], result of:
          0.036784153 = score(doc=1600,freq=22.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.32508966 = fieldWeight in 1600, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1600)
      0.25 = coord(1/4)
    
    Abstract
    Der Katalog der Österreichischen Nationalbibliothek (ÖNB) hat, seit seiner ersten Erscheinungsform als Bandkatalog 1576, eine lange Entwicklung durchgemacht. Zu Beginn dieser Arbeit, im Historischen Abriss, wird kurz auf die Kataloggeschichte der ÖNB eingegangen, danach folgt die Darstellung der verschiedenen Retrokatalogisierungs- sowie den Katalogoptimierungsprojekten. Im Jahr 1997 stand die Retrokatalogisierung im Vordergrund, bei der die maschinengetippten Katalogzettel gescannt, OCR gelesen und über den KatZoom (eine Software-Eigenentwicklung) online zur Verfügung gestellt wurden. 1992 begann man mit der EDV-unterstützen Katalogisierung im Bibliothekssystem BIBOS. Mit der Umstellung 1999 auf das neue Bibliothekssystem Aleph500 wurden die Daten aus BIBOS als ONB01 in das neue System konvertiert. Im Jahr 2000 wurden der alte Nominalkatalog (1501-1929) und der dazugehörige Schlagwortkatalog konvertiert und als ONB02 nach Aleph500 migriert. Im darauffolgenden Jahr wurden auch der neue Nominalkatalog (1930-1991, sog. PI-Katalog) und der dazugehörende Schlagwortkatalog konvertiert und als ONB03 nach Aleph500 migriert. Parallel dazu wurden auch andere Sammlungskataloge, wie z.B. der Katalog in der Musiksammlung oder der Kartensammlung, bearbeitet. Für die Jahre 2007-2011 wurde ein Strategieplan zur Katalogoptimierung erarbeitet, der zum Ziel hatte, dass in Zukunft der Bestand über eine integrierte Gesamtsuche zugänglich sein soll. Dafür war die Implementierung von Suchmaschinen-Technologie für den OPAC geplant. Deswegen mussten in Folge die damals noch getrennten drei Druckschriftenkataloge (ONB01, ONB02 und ONB03) zusammengeführt werden. Zu diesem Zweck wurden zuerst in der ONB03 die Impressen aus dem Textblock herausgelöst. Dasselbe galt für die Impressen aus der ONB02. Danach wurden in beiden Katalogen die Verweisungen mit den dazugehörigen Hauptaufnahmen zusammengeführt. Schließlich wurden die beiden historischen Kataloge in die ONB01 migriert. Darauf folgte der Abgleich der Schlagworte aus der ONB03 mit der Schlagwortnormdatei. In Folge wurden auch die Schlagworte der ONB02 mit der Normdatei abgeglichen. Im April 2011 wurde dann die einheitliche Suchoberfläche Quick Search implementiert. Doch auch wichtige Projekte zur Kataloganreicherung (wie z.B. IV-Scan) und Projekte zur Massendigitalisierung, wie ANNO (Austrian Newspaper Online) und ALEX (Historische österreichische Rechts- und Gesetzestexte), werden in meiner Arbeit behandelt. Diese Master-These soll eine kompakte Zusammenfassung aller wichtigen Retro- und Katalogoptimierungsprojekte der ÖNB bieten.
  2. Becker, T.: Potentielle Funktionen von Wissensmanagement in Öffentlichen Bibliotheken : eine szenariobasierte Delphi-Studie mit Wissensexperten aus britischen und deutschen Großstadtbibliotheken (2014) 0.01
    0.009196038 = product of:
      0.036784153 = sum of:
        0.036784153 = weight(_text_:und in 3093) [ClassicSimilarity], result of:
          0.036784153 = score(doc=3093,freq=22.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.32508966 = fieldWeight in 3093, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=3093)
      0.25 = coord(1/4)
    
    Abstract
    Nach der Herleitung und Skizzierung der 'szenariobasierten Delphi-Studie' als Untersuchungsmethode und Präsentation des Forschungsdesigns werden Konzepte von Wissensmanagement über einen Literatur- Review in den Kontext des aktuellen Forschungsstandes gestellt. Diese Bestandsaufnahme der Gegenwart ist in erster Linie abgeleitet aus Fachveröffentlichungen zum Wissensmanagement im Allgemeinen und denen der BID-Community im Besonderen. Welche Rolle spielt Wissensmanagement gegenwärtig in der bibliothekarischen Praxis Öffentlicher Bibliotheken der im Untersuchungsfokus stehenden Nationen? Was verbindet die Arbeit mit Wissensmanagement in den Öffentlichen Bibliotheken der beiden Nationen und (wo) sind Unterschiede zu finden? Diese Verifizierung des Status quo ist nur ein Teil der vorliegenden Arbeit, Schwerpunkt bildet der Blick in die kommende Zeit. Hat Wissensmanagement eine Zukunft in der Öffentlichen Bibliothek? Wenn ja, wie sieht diese aus und in welcher Intention wird Wissensmanagement eingesetzt? Stellt es mehr als nur ein Instrument der innerbetrieblichen Organisationsoptimierung dar? Wird Wissensmanagement im Sinne des Erwerbs von Demokratiekompetenz an den Endkunden quasi als Werkzeugkoffer weitergegeben? Hilft es den Öffentlichen Bibliotheken im Sinne einer systemischen kommunalen Legitimierung? Mit den Methoden Szenariotechnik und Delphi-Studie werden auf Basis der Aussagen ausgewählter Wissensexperten aus den Großstadtbibliotheken beider Länder Trendprojektionen erstellt, die ihrerseits in einem die Studie abschließenden konsensualen Szenario münden. Auf dem Weg dorthin werden im Laufe von iterativen Befragungen zudem für die Praxis adaptierbare Handlungsoptionen für die Öffentliche Bibliothek der Zukunft generiert und anhand ausgewählter Expertenaussagen im Sinne von Best-Practise-Beispielen und -Ideen in die Arbeit integriert. Wissensmanagement, so das Ergebnis der Untersuchung, der professionelle Umgang mit der Ressource Wissen in den Dimensionen Individuelles, Internes, Externes und Systemisches Wissensmanagement, findet bereits gegenwärtig in Öffentliche Bibliotheken statt; Wissensmanagement wird, so konstatieren die Wissensexperten weiter, zudem sowohl in Großbritannien als auch in Deutschland zukünftig als andauernde Querschnittsaufgabe jeder Öffentlichen Bibliothek angesehen und mit unterschiedlicher Intensität, unter heterogenen Rahmenbedingungen, aber immer mit vielversprechendem Erfolg betrieben werden.
  3. Corporate Semantic Web : wie semantische Anwendungen in Unternehmen Nutzen stiften (2015) 0.01
    0.009196038 = product of:
      0.036784153 = sum of:
        0.036784153 = weight(_text_:und in 3246) [ClassicSimilarity], result of:
          0.036784153 = score(doc=3246,freq=22.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.32508966 = fieldWeight in 3246, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=3246)
      0.25 = coord(1/4)
    
    Abstract
    Beim Corporate Semantic Web betrachtet man Semantic Web-Anwendungen, die innerhalb eines Unternehmens oder einer Organisation - kommerziell und nicht kommerziell - eingesetzt werden, von Mitarbeitern, von Kunden oder Partnern. Die Autoren erläutern prägende Erfahrungen in der Entwicklung von Semantic Web-Anwendungen. Sie berichten über Software-Architektur, Methodik, Technologieauswahl, Linked Open Data Sets, Lizenzfragen etc. Anwendungen aus den Branchen Banken, Versicherungen, Telekommunikation, Medien, Energie, Maschinenbau, Logistik, Touristik, Spielwaren, Bibliothekswesen und Kultur werden vorgestellt. Der Leser erhält so einen umfassenden Überblick über die Semantic Web-Einsatzbereiche sowie konkrete Umsetzungshinweise für eigene Vorhaben.
    Content
    Kapitel 1; Corporate Semantic Web; 1.1 Das Semantic Web; 1.2 Semantische Anwendungen im Unternehmenseinsatz; 1.3 Bereitstellen von Linked Data reicht nicht; 1.4 Eine global vernetzte Wissensbasis -- Fiktion oder Realität?; 1.5 Semantik)=)RDF?; 1.6 Richtig vorgehen; 1.7 Modellieren ist einfach (?!); 1.8 Juristische Fragen; 1.9 Semantische Anwendungen stiften Nutzen in Unternehmen -- nachweislich!; 1.10 Fazit; Literatur; Kapitel 2; Einordnung und Abgrenzung des Corporate Semantic Webs; 2.1 Grundlegende Begriffe; 2.2 Corporate Semantic Web 2.3 Public Semantic Web2.4 Social Semantic Web 3.0; 2.5 Pragmatic Web; 2.6 Zusammenfassung und Ausblick "Ubiquitous Pragmatic Web 4.0"; Literatur; Kapitel 3; Marktstudie: Welche Standards und Tools werden in Unternehmen eingesetzt?; 3.1 Einleitung; 3.2 Semantische Suche in Webarchiven (Quantinum AG); 3.2.1 Kundenanforderungen; 3.2.2 Technische Umsetzung; 3.2.3 Erfahrungswerte; 3.3 Semantische Analyse und Suche in Kundenspezifikationen (Ontos AG); 3.3.1 Kundenanforderungen; 3.3.2 Technische Umsetzung; 3.3.3 Erfahrungswerte 3.4 Sicherheit für Banken im Risikomanagement (VICO Research & Consulting GmbH)3.4.1 Kundenanforderungen; 3.4.2 Technische Umsetzung; 3.4.3 Erfahrungswerte; 3.5 Interaktive Fahrzeugdiagnose (semafora GmbH); 3.5.1 Kundenanforderungen; 3.5.2 Technische Umsetzung; 3.5.3 Erfahrungswerte; 3.6 Quo Vadis?; 3.7 Umfrage-Ergebnisse; 3.8 Semantic Web Standards & Tools; 3.9 Ausblick; Literatur; Kapitel 4; Modellierung des Sprachraums von Unternehmen; 4.1 Hintergrund; 4.2 Eine Frage der Bedeutung; 4.3 Bedeutung von Begriffen im Unternehmenskontext; 4.3.1 Website-Suche bei einem Industrieunternehmen 4.3.2 Extranet-Suche bei einem Marktforschungsunternehmen4.3.3 Intranet-Suche bei einem Fernsehsender; 4.4 Variabilität unserer Sprache und unseres Sprachgebrauchs; 4.4.1 Konsequenzen des Sprachgebrauchs; 4.5 Terminologiemanagement und Unternehmensthesaurus; 4.5.1 Unternehmensthesaurus; 4.5.2 Mut zur Lücke: Arbeiten mit unvollständigen Terminologien; 4.6 Pragmatischer Aufbau von Unternehmensthesauri; 4.6.1 Begriffsanalyse des Anwendungsbereichs; 4.6.2 Informationsquellen; 4.6.3 Häufigkeitsverteilung; 4.6.4 Aufwand und Nutzen; Literatur; Kapitel 5 Schlendern durch digitale Museen und Bibliotheken5.1 Einleitung; 5.2 Anwendungsfall 1: Schlendern durch das Digitale Museum; 5.3 Anwendungsfall 2: Literatur in Bibliotheken finden; 5.4 Herausforderungen; 5.5 Die Anforderungen treiben die Architektur; 5.5.1 Semantic ETL; 5.5.2 Semantic Logic; 5.5.3 Client; 5.6 Diskussion; 5.7 Empfehlungen und Fazit; Literatur; Kapitel 6; Semantische Suche im Bereich der Energieforschungsförderung; 6.1 Das Projekt EnArgus®; 6.2 Die Fachontologie; 6.2.1 Semantische Suche; 6.2.2 Repräsentation der semantischen Relationen in der Fachontologie
  4. Petit, A.L.B.: Ordnungssysteme im Records Management (2014) 0.01
    0.009196038 = product of:
      0.036784153 = sum of:
        0.036784153 = weight(_text_:und in 3305) [ClassicSimilarity], result of:
          0.036784153 = score(doc=3305,freq=22.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.32508966 = fieldWeight in 3305, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=3305)
      0.25 = coord(1/4)
    
    Abstract
    Durch die Emergenz des Digitalen und die damit verbundenen technologischen Entwicklungen hat sich nicht nur die Lebenswelt vieler Menschen verändert, sondern auch der Informationssektor hat hierdurch neue Möglichkeiten erhalten, seine Kernaufgaben der Erschließung, Verfüg- und Nutzbarmachung von Ressourcen innovativ umzusetzen. Hierbei scheint der Bereich der Schriftgutverwaltung oder des Records Management eine Sparte zu sein, welche in starkem Traditionsbewusstsein die Prinzipien der Papierwelt in elektronische Umgebungen transferiert hat, wobei der potentielle Mehrwert einer elektronischen Systemumgebung nur bedingt zum Tragen kommen kann. Insbesondere im Kontext der Informationsorganisation und der Ordnungssysteme eröffnet sich durch ein digitales Umfeld eine Mehrdimensionalität, welche eine Papierumgebung nicht bieten kann. Dennoch scheint der Rückgriff auf hierarchische Ordnungssysteme wie Aktenpläne außer Frage zu stehen und somit stellt sich die Frage nach der Bedeutung, der Tragweite und der Unverzichtbarkeit von Aktenplänen im Records Management. Vor diesem Hintergrund soll die Frage erläutert werden, ob das Primat der Aktenpläne trotz erweiterter Möglichkeiten als vorherrschendes Ordnungsprinzip im Records Management gerechtfertigt ist.
    Immer dann, wenn ein Paradigma in Frage gestellt werden soll, ist es unabdingbar, sich mit dem Grund seiner Existenz auseinander zu setzen. So sollen nach eingehenden Begriffsklärungen des Records Management und der Ordnungstheorie, die grundlegend für diese Analyse sind, in einem nächsten Schritt die unterschiedlichen Ordnungselemente im Records Management untersucht und ihre Rolle im Gesamtkontext der Disziplin eruiert werden. Dies wird im weiteren Verlauf der Arbeit insbesondere durch eine Analyse diverser Standards sowie der Norm ISO-15489 und deren Implikationen an Ordnungssysteme gewährleistet. Nachdem auf diese Weise die Ordnungssysteme in ihrer Rolle als Informationsverwaltungswerkzeug positioniert wurden, soll im nächsten Teil der Arbeit der Fokus auf das Retrieval und die Interaktion mit dem Nutzer gelegt werden. In diesem Zusammenhang wird das Prinzip Hierarchie, welches den Aktenplan strukturell definiert, in einem ersten Schritt mit den kognitiven Strukturen des Menschen abgeglichen, um hier etwaige Diskrepanzen festzustellen oder ihn zu legitimieren. Daraufhin soll in einem Exkurs in die Informationsverhaltensforschung und empirische Nutzerstudien von Records Management-Systemen versucht werden, die bevorzugten Suchstrategien in Bezug auf Browsing oder Searching herauszustellen. Auf der Grundlage dieser Erkenntnisse sollen im letzten Teil der Arbeit die Konsequenzen für die Ordnungssysteme im Records Management dargestellt sowie die Verbindung zu weiteren technologischen Entwicklungen angerissen werden. Im Fazit werden die Ergebnisse zusammenfassend rekapituliert und abschließend bewertet.
  5. Pauen, M.; Welzer, H.: Autonomie : eine Verteidigung (2015) 0.01
    0.009196038 = product of:
      0.036784153 = sum of:
        0.036784153 = weight(_text_:und in 4572) [ClassicSimilarity], result of:
          0.036784153 = score(doc=4572,freq=22.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.32508966 = fieldWeight in 4572, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=4572)
      0.25 = coord(1/4)
    
    Abstract
    Autonomie gilt als zentrale menschliche Eigenschaft. Doch sie gerät von vielen Seiten unter Beschuss: Die Neurowissenschaft erklärt, der Wille sei nicht frei, die Sozialpsychologie zeigt in ihren Experimenten ebenso wie Shitstorms im Internet, wie mächtig der Anpassungsdruck ist. Die Auswirkungen sind beträchtlich, wenn unsere Autonomie in Gefahr ist. Harald Welzer und Michael Pauen analysieren die Situation auf Grundlage eigener Experimente und Forschungen, um Möglichkeiten der Gegenwehr sichtbar zu machen: Wie können Gemeinschaften so gestaltet werden, dass Konformitätszwänge gering bleiben? Gleichzeitig zeigen sie, dass es wirksame Gegenstrategien nur auf der sozialen Ebene geben kann - solange wichtige Freiheitsspielräume noch bestehen. Die Zeit drängt.
    Content
    Einleitung -- Der Begriff der Autonomie -- Autonomie als Fähigkeit zu selbstbestimmtem Handeln gegen Widerstände -- Selbstbestimmung -- Autonomie, Heteronomie und Anomie -- Autonomie und Freiheit -- Autonomie als natürliche Eigenschaft -- Autonomie und Sozialität -- Das Paradoxon der Autonomie -- Der Sinn der Konformität -- Konformismus und Gruppendynamik -- Autonomie und Gesellschaft -- Fazit -- Geschichte der Autonomie -- Der Prozess der Zivilisation -- Geschichte der Autonomievorstellungen -- Utopische Entwürfe -- Sozialvertragstheorien -- Autonomie und Erziehung -- Autonomie in der Philosophie -- Decadence -- Russische Utopien zu Beginn des 20. Jahrhunderts -- Fazit -- Empirische Erkenntnisse -- Fallstudien -- Konformitätsexperimente -- Handlungsspielräume des Selbst : ein Forschungsprojekt -- Moralisches Urteilen -- Konformismus und Evolution -- Wege zur Sicherung von Autonomie -- Autonomie Heute -- Die Bürde der Freiheit -- Eine andere Form von Totalitarismus -- Ein irritierendes Erlebnis -- Shifting baselines -- Die Sicherung des Rechtsstaats -- Gleichschaltung -- Der Circle : ein narratives Szenario -- Die schleichende Veränderung sozialer Standards -- Das Verschwinden des Geheimnisses -- Konformismus und Cybermobbing -- Selbstüberwachung -- Versicherungen : Verträge auf Verhalten -- Eine Verteidigung der Autonomie -- Dialektik der Autonomie -- Wie man Autonomie verteidigt -- Danksagung -- Anmerkungen -- Literatur -- Namen- und Sachregister.
  6. Henze, V.; Junger, U.; Mödden, E.: Grundzüge und erste Schritte der künftigen inhaltlichen Erschliessung von Publikationen in der Deutschen Nationalbibliothek (2017) 0.01
    0.009196038 = product of:
      0.036784153 = sum of:
        0.036784153 = weight(_text_:und in 4772) [ClassicSimilarity], result of:
          0.036784153 = score(doc=4772,freq=22.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.32508966 = fieldWeight in 4772, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=4772)
      0.25 = coord(1/4)
    
    Abstract
    Die parallele Verbreitung von analogen und digitalen Informationen führt zu einer stetig ansteigenden Menge neu erscheinender Publikationen. Die Auswertungsmöglichkeiten digitaler Inhalte, die Kooperationsmöglichkeiten durch das Internet sowie die Entwicklung technischer Verfahren, Inhalte miteinander vernetzen und thematisch in Beziehung setzen zu können, lassen Raum, bibliothekarische Erschließungsverfahren neu zu denken. Erschließung muss dabei nicht mehr als einmaliger abgeschlossener Vorgang, sondern kann als zyklisches Verfahren betrachtet werden, bei dem Erschließungsdaten immer wieder verändert und aktualisiert werden. Im Strategischen Kompass 2025 der Deutschen Nationalbibliothek, der im vergangenen Jahr erschienen ist, wird die Neuausrichtung der inhaltlichen Erschließung mittels maschineller Verfahren im Grundsatz skizziert (Strategischer Kompass 2025, S. 5). Dieser strategischen Festlegung gingen fachliche Diskussionen sowohl hausintern als auch in den Gremien der Deutschen Nationalbibliothek voraus, im Erschließungskonzept 2015 ist die Entwicklung bereits kurz beschrieben. Von externen Kolleginnen und Kollegen kam immer wieder die Aufforderung an die Deutsche Nationalbibliothek, sich hier stärker einzubringen und zu engagieren. In den Strategischen Prioritäten 2017-2020 wurden daher entsprechende Ziele formuliert, die bei der Erschließung sowohl der digitalen als auch der analogen Publikationen zum Tragen kommen sollen.
    Bisher war die intellektuelle inhaltliche Erschließung nur auf einen Teil des Bibliothekszugangs, insbesondere gedruckte monografische Werke und Zeitschriftentitel, beschränkt. Für Online-Publikationen hat die DNB 2010 die Grundsatzentscheidung getroffen, diese nicht mehr intellektuell zu erschließen, sondern die Metadaten der Ablieferer nachzunutzen und maschinelle Verfahren zu entwickeln, um solche Publikationen zum Beispiel mit inhaltserschließenden Daten anzureichern. Dies wird seitdem praktiziert. Durch das enorme Anwachsen des digitalen Zugangs wird der Anteil intellektuell erschlossener Publikationen in Relation zu maschinell erstellten Daten immer geringer. Damit geht das Problem einher, dass die Heterogenität zunimmt und der thematische Zugriff auf Daten und damit Publikationen erschwert wird. Diesem Umstand will die Deutsche Nationalbibliothek durch den Umstieg auf automatische Inhaltserschließungsverfahren für alle Medienwerke entgegentreten. Im Sinne des oben genannten veränderten Verständnisses von Erschließung als zyklischem Vorgang können die maschinell entstandenen Metadaten zu jedem späteren Zeitpunkt erweitert und damit verbessert werden. Eine Metadatencodierung für den Datensatz oder die einzelnen Informationsanteile gibt Auskunft über deren Status. Identifikatoren für den Datensatz oder für einzelne Informationsanteile, wie zum Beispiel GND- oder WV-Identnummern dienen der Nachnutzung.
  7. Ruß-Mohl, S.: ¬Die informierte Gesellschaft und ihre Feinde : warum die Digitalisierung unsere Demokratie gefährdet (2017) 0.01
    0.009196038 = product of:
      0.036784153 = sum of:
        0.036784153 = weight(_text_:und in 171) [ClassicSimilarity], result of:
          0.036784153 = score(doc=171,freq=22.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.32508966 = fieldWeight in 171, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=171)
      0.25 = coord(1/4)
    
    Abstract
    Fake News, Halbwahrheiten, Konspirationstheorien die Ausbreitung von Desinformation in der digitalisierten Welt, insbesondere in sozialen Netzwerken wie Facebook und Twitter, wird immer mehr zur Bedrohung und zur Herausforderung für unsere Demokratie. Das Buch analysiert, welche Trends die Aufmerksamkeitsökonomie in eine Desinformationsökonomie verwandeln. Stichworte sind der langfristige Glaubwürdigkeitsverlust der traditionellen Medien, das rapide Wachstum und die Professionalisierung der Public Relations, die ungeplanten Folgen der rasanten Digitalisierung, darunter das Fehlen eines Geschäftsmodells für den Journalismus, Echokammern im Netz sowie die Algorithmen als neue Schleusenwärter in der öffentlichen Kommunikation. Eine strategische Rolle spielen die allmächtigen IT-Giganten, die sich nicht in ihre Karten gucken lassen möchten. Unter diesen Bedingungen gibt es vermehrt Akteure, die aus machtpolitischen Motiven an medialer Desinformation und an der Destabilisierung unserer Demokratie interessiert sind, oder die aus kommerziellen Motiven eine solche Destabilisierung in Kauf nehmen. Der Tradition der Aufklärung verpflichtet, ist die zentrale Frage des Buches, wie sich der wachsende Einfluss der Feinde der informierten Gesellschaft eindämmen lässt, darunter Populisten, Autokraten und deren Propagandatrupps. Könnte zum Beispiel eine Allianz für die Aufklärung etwas bewirken, der sich seriöse Journalisten und Wissenschaftler gemeinsam anschließen? Dazu bedarf es nicht zuletzt realistischer Selbsteinschätzung aufseiten der Akteure. Dazu verhelfen Erkenntnisse aus der Sozialpsychologie und der Verhaltensökonomie, die im Buch auf die Handelnden und den Prozess der öffentlichen Kommunikation bezogen werden.
    BK
    05.20 (Kommunikation und Gesellschaft)
    Classification
    05.20 (Kommunikation und Gesellschaft)
  8. Heuer, S.; Tranberg, P.: Mich kriegt ihr nicht : die wichtigsten Schritte zur digitalen Selbstverteidigung (2019) 0.01
    0.009196038 = product of:
      0.036784153 = sum of:
        0.036784153 = weight(_text_:und in 667) [ClassicSimilarity], result of:
          0.036784153 = score(doc=667,freq=22.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.32508966 = fieldWeight in 667, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=667)
      0.25 = coord(1/4)
    
    Abstract
    Wer sich online bewegt, ist nie allein. Im doppelten Sinne. Denn wenn wir das Leben um uns herum im Netz verfolgen wollen, nehmen wir in Kauf, dass uns Google, Amazon, Facebook & Co. auf Schritt und Klick verfolgen. Tausende Firmen profitieren davon, auf Basis unserer Likes und Klicks, sowie unseres Kaufverhaltens Werbung und Inhalte personalisiert auszuspielen und uns damit zu manipulieren. Mit jedem neuen Datensatz werden die Produkte noch enger an unsere Vorlieben angepasst, sodass wir sie noch häufiger nutzen ein Teufelskreis. Aber können wir uns dagegen wirklich verteidigen? Ja, sagt Digital-Experte Steffan Heuer auch heute noch. Sein Buch `Mich kriegt ihr nicht!´ ist eine Gebrauchsanweisung und gleichzeitig eine Waffe, mit der wir unsere Online-Identität mit einer neuen Daten-Ethik schützen können selbst in Zeiten von Smart Speakern wie Alexa und dem Internet der Dinge. Der Kampf um unsere Daten ist ein Kampf um unsere Souveränität, um unsere Freiheit! Und als solcher ist er noch lange nicht verloren wir müssen den Datendieben nur mit der richtigen digitalen Selbstverteidigung entgegentreten, nämlich mit den vier V´s: Wir müssen unsere Daten verweigern, verschleiern, verschlüsseln und Räume schaffen, aus denen alle Smart-Geräte verbannt sind. Wie das funktioniert, zeigt und erklärt der komplett überarbeitete Bestseller `Mich kriegt ihr nicht!´.
    BK
    54.08 (Informatik in Beziehung zu Mensch und Gesellschaft)
    Classification
    54.08 (Informatik in Beziehung zu Mensch und Gesellschaft)
  9. Frith, C.D.: Wie unser Gehirn die Welt erschafft (2010) 0.01
    0.009169876 = product of:
      0.036679503 = sum of:
        0.036679503 = weight(_text_:und in 2562) [ClassicSimilarity], result of:
          0.036679503 = score(doc=2562,freq=14.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.32416478 = fieldWeight in 2562, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2562)
      0.25 = coord(1/4)
    
    Abstract
    In Ihrem Kopf gibt es eine erstaunliche Vorrichtung, die Ihnen jede Menge Arbeit erspart - und die darin effizienter ist als die neuesten High-Tech-Computer: Ihr Gehirn. Es befreit Sie Tag für Tag von Aufgaben wie der bewussten Orientierung und Bewegung in der Welt um Sie herum, so dass Sie sich auf die wirklich wichtigen Dinge konzentrieren können: nämlich Freundschaften zu schließen und Menschen zu beeinflussen. Allerdings ist auch das "Ich", das in diese soziale Welt entlassen wird, ein Konstrukt Ihres Gehirns. Es ist Ihr Gehirn, das es Ihnen ermöglicht, Ihr geistiges Leben mit Ihren Mitmenschen um Sie herum zu teilen. Dieses von einem der international führenden Neurowissenschaftler geschriebene Buch liefert eine verständliche Zusammenfassung der experimentellen Untersuchungen, die zeigen, wie das Gehirn unsere geistige Welt erschafft. Der Autor greift dabei ebenso auf die Hinweise aus bildgebenden Verfahren wie auf psychologische Experimente und Studien mit Patienten zurück, um die Beziehung zwischen Geist und Gehirn zu erkunden. Er zeigt, dass wir unser Wissen über die geistige und körperliche Welt mithilfe von Modellen erwerben, die unser Gehirn erschafft. Und er verdeutlicht, wie das Gehirn die Kommunikation von Ideen zwischen unseren Köpfen möglich macht.
  10. MH: Informationsflut : der Mensch braucht eine Firewall (2010) 0.01
    0.009169876 = product of:
      0.036679503 = sum of:
        0.036679503 = weight(_text_:und in 637) [ClassicSimilarity], result of:
          0.036679503 = score(doc=637,freq=14.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.32416478 = fieldWeight in 637, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=637)
      0.25 = coord(1/4)
    
    Abstract
    Jede Information könnte überlebenswichtig sein, das lehrt uns die Evolution. In einer mit nebensächlichen Informationen überfüllten Welt hat das gravierende Konsequenzen. Facebook, Twitter und SMS halten uns dauernd auf Trab. "Moderne Menschen sind geistig immer online und unterschätzen, wie viel Stress die stete Aufmerksamkeit und Bereitschaft zur Kommunikation bedeutet", erklärt Götz Mundle, ein auf Sucht spezialisierter Psychotherapeut. Wir können nicht alles gleichzeitig tun: Gemäss Ernst Pöppel, Professor für Medizinische Psychologie in München, ist Multitasking eine Illusion. Statt alle Aufgaben gleichzeitig zu bewältigen, hüpfe das Gehirn zwischen den Aufgaben hin und her. Kreativität gehe verloren. "Dass es hierbei Begleitschäden geben wird, ist für mich unbestritten. Mängel des Konzentrationsvermögens sind durchaus möglich." Pöppel schliesst allerdings auch eine evolutionäre Anpassung an die Datenflut nicht ganz aus. Doch zwanzig Jahre Internet und drei Jahre iPhone sind der Evolution eindeutig zu kurz - bis zur allfälligen Wandlung hilft nur eines: «Wer online sein möchte, muss auch aktiv offline gehen«, so Mundle. Das ist nicht ganz einfach, schliesslich müssen wir dazu die angeborene Neugierde überwinden. Zudem verspricht die virtuelle Welt Bequemlichkeit und Gemeinschaft In digitalen Netzwerken kann man seine Identität beinahe beliebig wählen und Problemen aus dem Weg zu gehen. Eine Flucht ist verlockend. Hinter jedem Link versteckt sich die vermeintliche Erlösung, oder zumindest ein kleines Informations-Häppchen, das zu einem weiteren führt das ein anderes bereithält, das... Wer im virtuellen Leben nichts verpassen will, versäumt das Leben in der Wirklichkeit.
  11. Dahl, E.; Pauen, M.: Schuld und freier Wille (2010) 0.01
    0.009169876 = product of:
      0.036679503 = sum of:
        0.036679503 = weight(_text_:und in 700) [ClassicSimilarity], result of:
          0.036679503 = score(doc=700,freq=14.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.32416478 = fieldWeight in 700, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=700)
      0.25 = coord(1/4)
    
    Abstract
    In den letzten Monaten haben sich viele Menschen gemeldet, die in ihrer Jugend Opfer sexuellen Missbrauchs geworden sind. Für einige Mediziner sind Pädophile krank und daher nur vermindert schuldfähig. Dies hat jetzt auch Philosophen auf den Plan gerufen. Sind Menschen Herr ihrer Willens? Hätten sie anders handeln können, als sie tatsächlich gehandelt haben? Und wenn nicht, wie steht es dann mit Verantwortung, Schuld und Strafe? Der Medizinethiker Edgar Dahl äußert sich zu diesem brisanten Konflikt. Der Berliner Philosoph Michael Pauen antwortet auf Dahls Thesen.
    Content
    Besteht aus zwei Beiträgen: Dahl, E.: Denn sie wissen nicht, was sie tun ... [Wir sollten unsere Haltung gegenüber unseren Mitmenschen ändern. Statt moralischer sollten wir ästhetische Urteile über ihr Verhalten fällen]. Pauen, M.: Viele wissen eben doch, was sie tun! [Die Ersetzung moralischer durch ästhetische Urteile hätte absurde Konsequenzen. Wir brauchen nicht nur objektive Normen für das, was erlaubt und nicht erlaubt ist - sondern auch dafür, unter welchen Bedingungen wir jemanden belangen, wenn er wtas Unerlaubtes getan hat].
    Footnote
    Vgl. auch die Diskussion: Hassemer, W.: Haltet den geborenen Dieb! In: FAZ vom 15.06.2010. Roth, G., G. Merkel: Haltet den Richter!: Schuld und Strafe. In: Frankfurter Rundschau. Nr.xxx vom 26.06.2010, S.xx. Walter, M.: Unzulässige Überinterpretation: Schuld und Strafe. In: Frankfurter Rundschau. Nr.xxx vom 05.07.2010, S.xx. Janich, P.: Stillschweigende Hirngespinste: Die FR-Debatte zur Willensfreiheit. In: Frankfurter Rundschau. Nr.158 vom 12.07.2010, S.20-21. Lüderssen, K.: Wer determiniert die Hirnforscher?: Was ist Willensfreiheit (4) [Interview]. In: Frankfurter Rundschau. Nr.164 vom 19.07.2010, S.20-21. Pauen, M.: Das Schuldprinzip antasten, ohne es abzuschaffen: Was ist Willensfreiheit (5) oder: Wer ist verantwortlich für die Abschaffung von Verantwortung?. In: Frankfurter Rundschau. Nr.170 vom 26.07.2010, S.22-23.
  12. Borst, T.; Fingerle, B.; Neubert, J.; Seiler, A.: Auf dem Weg in das Semantic Web : Anwendungsbeispiele und Lösungsszenarien in Bibliotheken / Eine Veranstaltung von hbz und ZBW (2010) 0.01
    0.009169876 = product of:
      0.036679503 = sum of:
        0.036679503 = weight(_text_:und in 398) [ClassicSimilarity], result of:
          0.036679503 = score(doc=398,freq=56.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.32416478 = fieldWeight in 398, product of:
              7.483315 = tf(freq=56.0), with freq of:
                56.0 = termFreq=56.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=398)
      0.25 = coord(1/4)
    
    Abstract
    Unter dem Motto »Fachtagung für innovative Bibliothekare« hat am 24. und 25. November 2009 in Köln erstmals die Veranstaltung »Semantic Web in Bibliotheken - SWIB09« stattgefunden. Die international besetzte Tagung wurde vom Hochschulbibliothekszentrum des Landes Nordrhein-Westfalen (hbz) und der Deutschen Zentralbibliothek für Wirtschaftswissenschaften (ZBW) gemeinsam ausgerichtet, um Bibliotheken das »Semantic Web« näher zu bringen. Die aus Platzgründen auf rund 100 am ersten Tag und 60 am zweiten Tag begrenzten Teilnehmerplätze waren rasch ausgebucht. Während der erste Tag eine Einführung und erste Anwendungsbeispiele bot, die das Potenzial von Semantic Web-Anwendungen zeigten, vermittelte der zweite Tag anhand praxisnaher Beispiele Anforderungen und Lösungsszenarien für Bibliotheken.
    Content
    "In seinem Einführungsvortrag skizzierte Jakob Voß, Software-Entwickler bei der Verbundzentrale (VZG), anhand von herkömmlichen bibliothekarischen Katalogeinträgen den für das Semantic Web typischen Wandel weg von einem Web vernetzter Dokumente hin zu einem Web vernetzter Daten. Die Nutzung vorhandener Standards sollte diesen Wandel begleiten. Einen dieser Standards könnte die »Bibliographic Ontology« (bibo) darstellen, die auf existierenden Ontologien wie Dublin Core basiert und die Voß in einem weiteren Vortrag vorstellte. Dabei warf er die provozierende Frage auf, ob die bibo die Nachfolge bibliografischer Datenformate antreten werde. Lars G. Svensson, IT-Manager an der Deutschen Nationalbibliothek (DNB), stellte hingegen nicht bibo, sondern «Resource Description and Access« (RDA) ins Zentrum der DNB-Planungen. »Fünf gute Gründe«, warum sich kulturelle Einrichtungen mit dem Semantic Web beschäftigen sollten, benannte Professor Stefan Gradmann, Inhaber des Lehrstuhls für Wissensmanagement an der Humboldt-Universität zu Berlin. Die Beschäftigung sei unter anderem erforderlich, damit diese Einrichtungen zukünftig überhaupt noch wahrgenommen werden. Andererseits könnten sie durch die Verknüpfung von bibliothekarischen Meta-daten und Kontextdaten (wie Personennormdaten) einen spezifischen Beitrag zum Semantic Web leisten.
    Auch Bernhard Haslhofer, Assistent am Lehrgebiet für Verteilte Multimediasysteme an der Universität Wien, sieht ein großes Potenzial darin, klassische Mechanismen der Informationsorganisation durch Bibliotheken als »Linked Open Data« in das Semantic Web einzubringen. Sie könnten möglicherweise sogar Baustein einer freien und community-getriebenen Alternative zu konzerngetriebenen Anwendungen wie Google Books sein. Voraussetzung sei allerdings, dass Bibliotheken nicht an ihren Datenbeständen in Form geschlossener Datensilos festhalten. Dazu passte das leidenschaftliche Plädoyer für Free Data von Patrick Danowski, Emerging Technologies Librarian am CERN: Die ganze Mächtigkeit seiner Netzwerkeffekte könne Linked Data nur entfalten, wenn die Daten unter einer freien Lizenz veröffentlicht werden, wobei Danowski für eine Bereitstellung als »public domain« plädiert. Mehrere Beiträge zeigten, dass mit Linked Data mittlerweile eine geeignete Technologie vorliegt, um das Semantic Web für Bibliotheken Wirklichkeit werden zu lassen. Ed Summers, Software-Entwickler bei der Library of Congress (LoC) und zuständig für einen der bislang größten Linked Data-Bestände aus Bibliotheken, die LoC Subject Headings, verwies in seinem Vortrag auf die vielfältigen Verknüpfungsmöglichkeiten und Anwendungen von Linked Data. So können Schlagworte aus verschiedenen Vokabularen in Beziehung gesetzt werden und Presseartikel mit »Flickr«Bildern und Geokoordinaten verknüpft werden, die das Ereignis bebildern beziehungsweise räumlich verorten.
    Moderne Web-Anwendungen Wie ein klassischer Bibliothekskatalog in eine moderne Web-Anwendung und in Linked Open Data überführt werden kann, berichtete Anders Söderbäck von der Schwedischen Nationalbibliothek. Unter dem Thema »Linked Applications« entwarf Felix Ostrowski, IT-Entwickler beim hbz, eine tiefe Integration von Ontologien direkt in die verwendete Programmiersprache am Beispiel von Repository Software. Andre Hagenbruch, Mitarbeiter der Universitätsbibliothek Bochum, stellte ein Projekt für ein Linked Data-basiertes Bibliotheksportal vor, das neben bibliografischen Daten auch administrative Informationen wie Personaldaten oder Öffnungszeiten integrieren soll. Interessante Einblicke bot Jürgen Kett von der DNB zur hauseigenen Linked Data-Strategie. Dazu gehört die Veröffentlichung der Personennamendatei (PND) zwecks kostenfreier Weiterverwendung durch andere Bibliotheken. In einem weiteren Vortrag gingen Kett und sein Kollege Svensson auf Details ihres aktuellen Linked Data-Projekts ein, das in einer ersten Stufe URI- und SPARQL-Zugriff auf die SWDund PND-Datensets sowie ihre Verknüpfungen zu internationalen Normdatenbeständen ermöglichen soll. Ein Beta-Dienst soll bis Mitte 2010 online gehen. Timo Borst, Leiter der IT-Entwicklung der ZBW, griff dies auf und demonstrierte die Integration von Thesaurus-und Personennormdaten in den ZBW-Dokumentenserver. Als technischer Zugangspunkt für Linked Data wurde dabei auch ein experimenteller SPARQLEndpoint der DNB genutzt, dessen Abfrage eine automatische Vorschlagsfunktion für PND-Einträge ermöglicht. Praktische Erfahrungen aus den Linked Data-Projekten der ZBW fasste Joachim Neubert, IT-Entwickler bei der ZBW, zusammen, verbunden mit Hinweisen zu Tools, Communities und Best Practice-Beispielen im Web.
    Einen Einblick in Ontologien, die eine wesentliche Säule des Semantic Web bilden, ihren Zusammenhang mit natürlicher Sprache und ihre Nutzungsmöglichkeiten gab Elena Semanova, Forscherin und selbstständige Ontologie-Expertin. Aus dem Museumsbereich stellte Karin Teichmann (Leiterin der Grafischen Sammlung im Deutschen Buch- und Schriftmuseum der DNB) das als ISO-Standard vorliegende »CIDOC Conceptual Reference Model« vor, das unterschiedlich strukturierte Informationen durch ein übergreifendes Meta-Modell zusammenführen kann. Professor Stefan Gradmann und Marlies Olensky, Forscherin an der HU Berlin, präsentierten die semantische Datenschicht der Europeana, die den W3C-Standard SKOS und Linked Data nutzt, um Benutzeranfragen, Browsing und Ergebnispräsentation zu unterstützen. Über die umfassenden Linked Data-Aktivitäten innerhalb der DBPedia, einer Semantic Web-Version der Wikipedia, berichtete Anja Jentzsch, Forscherin an der Freien Universität Berlin. Neben der Infrastruktur für Linked Data veranschaulichte sie die Integration von DBPediaDaten in Browser-, Such- und Portaloberflächen. Eine von Jürgen Kett moderierte Abschlussrunde sammelte Stichpunkte zur Frage »Wie geht es weiter?« Um den Austausch fortzuführen, wurde unter anderem eine Kommunikationsplattform vorgeschlagen, die im Umfeld der Semantic Web-Aktivitäten des W3C angesiedelt ist. Allgemein war der Wunsch nach einer Neuauflage der Tagung in 2010 zu hören."
    Footnote
    Das Programm der Tagung, Abstracts und Vorträge sind online unter www.swib09.de.
  13. Open Knowledge Foundation: Prinzipien zu offenen bibliographischen Daten (2011) 0.01
    0.009169876 = product of:
      0.036679503 = sum of:
        0.036679503 = weight(_text_:und in 399) [ClassicSimilarity], result of:
          0.036679503 = score(doc=399,freq=14.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.32416478 = fieldWeight in 399, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=399)
      0.25 = coord(1/4)
    
    Content
    "Bibliographische Daten Um den Geltungsbereich der Prinzipien festzulegen, wird in diesem ersten Teil der zugrundeliegende Begriff bibliographischer Daten erläutert. Kerndaten Bibliographische Daten bestehen aus bibliographischen Beschreibungen. Eine bibliographische Beschreibung beschreibt eine bibliographische Ressource (Artikel, Monographie etc. - ob gedruckt oder elektronisch) zum Zwecke 1. der Identifikation der beschriebenen Ressource, d.h. des Zeigens auf eine bestimmte Ressource in der Gesamtheit aller bibliographischer Ressourcen und 2. der Lokalisierung der beschriebenen Ressource, d.h. eines Hinweises, wo die beschriebene Ressource aufzufinden ist. Traditionellerweise erfüllte eine Beschreibung beide Zwecke gleichzeitig, indem sie Information lieferte über: Autor(en) und Herausgeber, Titel, Verlag, Veröffentlichungsdatum und -ort, Identifizierung des übergeordneten Werks (z.B. einer Zeitschrift), Seitenangaben. Im Web findet Identifikation statt mittels Uniform Resource Identifiers (URIs) wie z.B. URNs oder DOIs. Lokalisierung wird ermöglicht durch HTTP-URIs, die auch als Uniform Resource Locators (URLs) bezeichnet werden. Alle URIs für bibliographische Ressourcen fallen folglich unter den engen Begriff bibliographischer Daten. Sekundäre Daten Eine bibliographische Beschreibung kann andere Informationen enthalten, die unter den Begriff bibliographischer Daten fallen, beispielsweise Nicht-Web-Identifikatoren (ISBN, LCCN, OCLC etc.), Angaben zum Urheberrechtsstatus, administrative Daten und mehr; diese Daten können von Bibliotheken, Verlagen, Wissenschaftlern, Online-Communities für Buchliebhaber, sozialen Literaturverwaltungssystemen und Anderen produziert sein. Darüber hinaus produzieren Bibliotheken und verwandte Institutionen kontrollierte Vokabulare zum Zwecke der bibliographischen Beschreibung wie z. B. Personen- und Schlagwortnormdateien, Klassifikationen etc., die ebenfalls unter den Begriff bibliographischer Daten fallen."
  14. Oehlschläger, S.: Ist das Glas halb leer oder halb voll? : Eine subjektive Einschätzung der US-amerikanischen Entscheidung für RDA (2011) 0.01
    0.009169876 = product of:
      0.036679503 = sum of:
        0.036679503 = weight(_text_:und in 1185) [ClassicSimilarity], result of:
          0.036679503 = score(doc=1185,freq=14.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.32416478 = fieldWeight in 1185, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1185)
      0.25 = coord(1/4)
    
    Abstract
    Gespannt hat die weltweite Bibliothekscommunity die Ergebnisse des groß angelegten Tests des neuen Erschließungsstandards Resource Description and Access (RDA) in den USA erwartet. Barbara Tillett, die Repräsentantin der Library of Congress im Joint Steering Committee for Development of RDA (JSC), stellte während des 100. Deutschen Bibliothekartages in Berlin die Vorgehensweise der amerikanischen Bibliotheken' vor. Über das Testergebnis konnte sie zu diesem Zeitpunkt nicht berichten, da es erst nach der Tagung, kurz vor der ALA Annual Conference am 15. Juni 2011 veröffentlicht wurde. Der Test der RDA war eine Folge aus dem Bericht, den die LC Working Group on the Future of Bibliographic Control 2008 vorgelegt hatte, in dem empfohlen wurde, die Arbeit an den RDA einzustellen. Stattdessen beschlossen die Library of Congress, die National Agricultural Library und National Library of Medicine die RDA einem Test zu unterziehen und nach dem Vorliegen der Ergebnisse über die Implementierung des Standards zu entscheiden. Mitte Juni 2011 haben die Verantwortlichen der beteiligten Bibliotheken ihre Entscheidung über die Einführung der RDA auf Grundlage des Berichts des U.S. RDA Test Coordinating Committee' bekannt gegeben. Demnach beabsichtigen die Library of Congress, die National Library of Medicine und die National Agricultural Library die RDA einzuführen .4 Bis es soweit sein kann, sollen bestimmte Anpassungen vorgenommen werden und Voraussetzungen erfüllt sein, sodass der tatsächliche Beginn der Katalogisierung mit dem neuen Standard nicht vor dem 1. Januar 2013 liegen soll. Dazu gehören neben anderem die Formulierung des Regelwerkstextes in verständlichem und einfachem Englisch, die Verbesserung der Funktionalitäten des RDA-Toolkits, erkennbare Fortschritte im Hinblick auf eine Ablösung des Datenformates MARC 21 und Untersuchungen zu prototypischen Verfahren und Systemen unter Nutzung des RDA Element Sets, inklusive der RDA Relationships.
  15. Eberhardt, J.: Was ist (bibliothekarische) Sacherschließung? (2012) 0.01
    0.009169876 = product of:
      0.036679503 = sum of:
        0.036679503 = weight(_text_:und in 1477) [ClassicSimilarity], result of:
          0.036679503 = score(doc=1477,freq=14.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.32416478 = fieldWeight in 1477, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1477)
      0.25 = coord(1/4)
    
    Abstract
    Museen, Archive, Bibliotheken sind Gedächtnisinstitutionen, die das kulturelle Erbe in ihren Sammlungen bewahren. Sie begegnen derselben Aufgabe, ihr Sammlungsgut nicht nur zu erhalten, sondern auch nutzbar und zugänglich zu machen. Der erste Schritt dahin ist, das Gesammelte zu untersuchen, es zu benennen und einzuordnen und diese Erkenntnisse in einem Verzeichnis zu sammeln. Über das Verzeichnis ist dann das Magazinierte erreichbar. Je größer die Menge der verzeichneten Objekte, desto mehr kommt es darauf an, unterschiedliche Ordnungen, das heißt: unterschiedliche Zugänge für die verschiedenen Interessen anzubieten. So mag ein Verzeichnis der Objekte chronologisch nach ihrem Entstehungszeitraum geordnet sein, ein anderes geografisch, ein drittes nach Personen, die für ein Objekt von Bedeutung sind. Weil Bibliotheken im Unterschied zu Museen und Archiven in der Regel nicht mit Einzelstücken, sondern mit Exemplaren befasst sind, die außerdem - wieder: in der Regel - als textliche Objekte gute Voraussetzung für eine sprachliche Beschreibung bieten, haben sie schon recht früh eine ausgefeilte und wohlgeordnete Praxis der Verzeichnung entwickelt. Die folgenden Überlegungen gelten einem Aspekt dieser Verzeichnung, der in der bibliothekarischen Fachsprache "Sacherschließung" heißt. "Sacherschließung" ist ein wohldefinierter Begriff, der noch dazu eine Tätigkeit bezeichnet, die traditionell für eine Kernaufgabe des wissenschaftlichen Bibliothekars gehalten wird. Betrachtet man jedoch die klassische Definition genauer, dann zeigt sich, dass sie längst nicht mehr umfasst, was als zeitgemäße bibliothekarische Angebote in die Bibliothekskataloge Eingang findet, so dass Praxis und Theorie auseinanderlaufen. Daher gilt es, das Defizit des überkommenen Verständnisses zu analysieren, eine Neudefinition vorzuschlagen und sich daraus ergebende Anregungen für die bibliothekarische Praxis zu reflektieren.
  16. BIBFRAME Model Overview (2013) 0.01
    0.009169876 = product of:
      0.036679503 = sum of:
        0.036679503 = weight(_text_:und in 1763) [ClassicSimilarity], result of:
          0.036679503 = score(doc=1763,freq=14.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.32416478 = fieldWeight in 1763, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1763)
      0.25 = coord(1/4)
    
    Content
    Vgl. Kommentar Eversberg: Wer dranbleiben will am Puls der Zeit und speziell an der sich dynamisierenden Evolution eines neuen Datenformatkonzepts, der sollte sich langsam beeilen, sich mit BIBFRAME vertraut zu machen: http://bibframe.org Diese Startseite organisiert nun den Zugang zu allem, was schon vorliegt und präsentabel ist, und das ist allerhand. Wer erst mal nur schnuppern will und schauen, wie denn BIBFRAME-Daten wohl aussehen, gehe zur "demonstration area", wo man u.a. auch aufbereitete Daten der DNB findet. Es gibt ferner Online Tools, und darunter einen "Transformation service", dem man eigenes MARC-XML übergeben kann, damit er was draus mache. [Exporte mit unserem MARCXML.APR klappen nicht unmittelbar, man muß zumindest die in der Datei schon vorhandenen zwei Kopfzeilen aktivieren und ans Ende noch </collection> setzen. Und hierarchische Daten machen noch Probleme, die wir uns vornehmen müssen.] Wer jetzt denkt, "Was geht uns das alles an?", der lese die letzte Zeile, die da lautet: "BIBFRAME.ORG is a collaborative effort of US Library of Congress, Zepheira and you!"
  17. Janowitz, K.M.: Netnographie : Ethnographische Methoden im Internet und posttradtionale Vergemeinschaftungen (2013) 0.01
    0.009169876 = product of:
      0.036679503 = sum of:
        0.036679503 = weight(_text_:und in 1931) [ClassicSimilarity], result of:
          0.036679503 = score(doc=1931,freq=14.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.32416478 = fieldWeight in 1931, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1931)
      0.25 = coord(1/4)
    
    Abstract
    Geht es um qualitative Forschung im Internet, gelangt man schnell zu den Methoden der Ethnographie. Während in den frühen Jahren des internets (als die "Neuen Medien" noch "neu" waren) das forschende Interesse v.a. dem Internet als einer eigenen - virtuellen - Welt ,in its own terms' galt, steht in den neueren Arbeiten der kulturelle Kontext, in dem Online-Interaktionen stattfinden und Sinn machen, im Vordergrund. Unabhängig voneinander wurden mehrfach auf das Internet anwendbare ethnographische Ansätze entwickelt. Die bekanntesten stammen von der britischen Soziologin Christine Hine ("Virtual Ethnography") und dem kanadischen Marketer Robert Kozinets ("Netnography"). Die Ansätze unterscheiden sich wenig in ihren Konzepten, mehr in ihren Anwendungsfeldern, die den unterschiedlichen Herkunftsfeldern ihrer Protagonisten entsprechen. Eng verbunden ist das Thema posttraditionaler Vergemeinschaftungen, die über das Internet entstehen, bzw. vorangetrieben werden. Die Teilhabe an Kommunikationsnetzwerken ermöglicht mehr und mehr deterritoriale Vergemeinschaftungen, wenn auch Vergemeinschaftung und soziale Bezüge nie ganz von räumlicher Nähe losgelöst sind. Posttraditionale Vergemeinschaftungen beruhen oft auf ästhetischen Präferenzen, einem als gemeinsam empfundenen Arbeits- und Lebensstil. ALs Prototypen im Internet können Fan-Communities gelten, aber auch translokale Arbeits- und Wissensgemeinschaften. Theoretischer Bezugsrahmen ist u.a. das Konzept des Neotribalismus von Michel Maffesoli ("Le temps des tribus"). In der Marktforschung wurden einzelne Spezikationen zur Netnographie entwickelt.
  18. Information literacy : infiltrating the agenda, challenging minds (2011) 0.01
    0.009169876 = product of:
      0.036679503 = sum of:
        0.036679503 = weight(_text_:und in 2028) [ClassicSimilarity], result of:
          0.036679503 = score(doc=2028,freq=14.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.32416478 = fieldWeight in 2028, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2028)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: Mitt VÖB 66(2013) H.2, S.396-388 (K. Niedermair): "Das Thema des vorliegenden Sammelbandes ist Informationskompetenz, sein Ziel ist (so ließe sich der Untertitel paraphrasieren) zweifach. Einerseits zu berichten über den state of art der Vermittlung von Informationskompetenz im tertiären Bildungssektor in Großbritannien, detaillierte Einblicke zu geben in Initiativen, Projekte und best practices. Andererseits theoretische Grundlagen und Perspektiven zu formulieren für künftige Projektaktivitäten und -anträge. Denn - das ist die Kernaussage des Buches - im Kontext der Informationsgesellschaft und des sich verändernden Bildungs- und Hochschulwesens erfordert die Vermittlung von Informationskompetenz neue Strategien und Konzepte, in inhaltlicher Hinsicht, in politischer, aber auch was didaktische Herangehensweisen betrifft. ... Das Buch greift die Herausforderungen auf, die für die Vermittlung von lnformationskompetenz angesichts der weltweiten Veränderungen im Hochschulwesen entstehen. Das Buch setzt auf neue Lehr-/Lernmethoden, es mahnt im Sinne eines "call to the arms" (S. 10) Initiativen und Projekte ein, denen man Aufmerksamkeit schenken sollte, um die Kernaufgabe der Bibliothek, lnformationskompetenz zu vermitteln, im 21. Jahrhundert neu gestalten zu können. Dazu ein abschließendes Zitat: "We cannot predict the future but we believe that defining the 21st century librarian is about being a teacher and educator not a custodian and keeper of the tomes; it is about, through teaching, turning information into knowledge." (S. 12)"
  19. Niedermair, K.; Habersam, M.: ¬Die Bibliothek im Zeitalter ihrer Automatisierbarkeit : Die Aufgaben der Bibliothek und die Darlegung ihrer Qualität (2015) 0.01
    0.009169876 = product of:
      0.036679503 = sum of:
        0.036679503 = weight(_text_:und in 2707) [ClassicSimilarity], result of:
          0.036679503 = score(doc=2707,freq=14.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.32416478 = fieldWeight in 2707, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2707)
      0.25 = coord(1/4)
    
    Abstract
    In diesem als Gespräch konzipierten Beitrag geht es um zwei Fragen: Welche Aufgaben soll die universitäre Bibliothek haben und wie ist eine Darlegung der Qualität ihrer Dienstleistung möglich? Es zeigt sich, dass für die Beantwortung dieser Fragen gerade die Automatisierbarkeit der bibliothekarischen Dienstleistung ein entscheidender Punkt ist. Zukunftsfähig sind vor allem jene Aufgaben der Bibliothek, die sich, im Gegensatz z.B. zu Suchmaschinen, gerade nicht automatisieren lassen. Dazu zählen primär Beratung und Schulung im Sinne einer aktiven, an Nutzer/innen orientierten Informationserschließung. Automatisierung kann hier nicht möglich sein, wenn man davon ausgeht, dass das Ziel des (universitären) Lehrens und Lernens nicht nur in Ausbildung, sondern v.a. auch in Bildung besteht. Mit selbstbestimmter kritischer Reflexion von Wissen, als Sinn von Bildung, ist z.B. eine automatisierte Informationsrecherche unvereinbar, da sie auf informationelle Selbstbestimmtheit verzichtet. Die Automatisierbarkeit hat auch Relevanz für die Frage, wie die Qualität der bibliothekarischen Dienstleistung dargelegt, gesichert und argumentiert werden kann. Eine nicht automatisierbare bibliothekarische Arbeit entzieht sich einer ausschließlichen Quantifizierung durch Leistungskennzahlen, sie ist Teil eines immateriellen, Wissen schaffenden Prozesses. Umgekehrt sind es vermutlich v.a. automatisierbare Dienstleistungen, deren Effizienz und Qualität quantifizierend darstellbar sind. Darin zeigen sich die Grenzen einer rein quantitativen Abbildung von Qualität. Abschließend wird die Möglichkeit einer am qualitativen Forschungsparadigma orientierten Beschreibung der Dienstleistungsqualität der Bibliothek skizziert, die auch immaterielle Werte sichtbar machen kann.
    Source
    Die Bibliothek in der Zukunft. Regional - Global: Lesen, Studieren und Forschen im Wandel. Festschrift für Hofrat Dr. Martin Wieser anlässlich sei­ner Versetzung in den Ruhestand. Hrsg.: Klaus Niedermair, Dietmar Schuler
  20. Balakrishnan, U.; Krausz, A,; Voss, J.: Cocoda - ein Konkordanztool für bibliothekarische Klassifikationssysteme (2015) 0.01
    0.009169876 = product of:
      0.036679503 = sum of:
        0.036679503 = weight(_text_:und in 3030) [ClassicSimilarity], result of:
          0.036679503 = score(doc=3030,freq=14.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.32416478 = fieldWeight in 3030, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=3030)
      0.25 = coord(1/4)
    
    Abstract
    Cocoda (Colibri Concordance Database for library classification systems) ist ein semi-automatisches, webbasiertes Tool für die Erstellung und Verwaltung von Konkordanzen zwischen bibliothekarischen Klassifikationssystemen. Das Tool wird im Rahmen des Teilprojektes "coli-conc" (Colibri-Konkordanzerstellung) des VZG-Projektes Colibri/DDC als eine Open-Source-Software an der Verbundzentrale des Gemeinsamen Bibliotheksverbundes (VZG) entwickelt. Im Fokus des Projektes "coli-conc" steht zunächst die Konkordanzbildung zwischen der Dewey Dezimal Klassifikation (DDC) und der Regensburger Verbundklassifikation (RVK). Die inhärenten strukturellen und kulturellen Unterschiede von solch fein gegliederten bibliothekarischen Klassifikationssystemen machen den Konkordanzerstellungsprozess bei rein intellektuellem Ansatz aufwendig und zeitraubend. Um diesen zu vereinfachen und zu beschleunigen, werden die intellektuellen Schritte, die im Teilprojekt "coli-conc" eingesetzt werden, z. T. vom Konkordanztool "Cocoda" automatisch durchgeführt. Die von Cocoda erzeugten Konkordanz-Vorschläge stammen sowohl aus der automatischen Analyse der vergebenen Notationen in den Titeldatensätzen verschiedener Datenbanken als auch aus der vergleichenden Analyse der Begriffswelt der Klassifikationssysteme. Ferner soll "Cocoda" als eine Plattform für die Speicherung, Bereitstellung und Analyse von Konkordanzen dienen, um die Nutzungseffizienz der Konkordanzen zu erhöhen. In dieser Präsentation wird zuerst das Konkordanzprojekt "coli-conc", das die Basis des Konkordanztools "Cocoda" bildet, vorgestellt. Danach werden Algorithmus, Benutzeroberfläche und technische Details des Tools dargelegt. Anhand von Beispielen wird der Konkordanzerstellungsprozess mit Cocoda demonstriert.

Languages

  • d 1631
  • e 212
  • a 1
  • More… Less…

Types

  • a 1374
  • el 403
  • m 279
  • x 74
  • s 60
  • r 26
  • n 8
  • i 3
  • b 2
  • p 2
  • v 2
  • ms 1
  • More… Less…

Themes

Subjects

Classifications