Search (1872 results, page 54 of 94)

  • × year_i:[2010 TO 2020}
  1. Jaklitsch, M.: Informationsvisualisierung am Beispiel des Begriffs Informationskompetenz : eine szientometrische Untersuchung unter Verwendung von BibExcel und VOSviewer (2016) 0.01
    0.009299952 = product of:
      0.037199806 = sum of:
        0.037199806 = weight(_text_:und in 4067) [ClassicSimilarity], result of:
          0.037199806 = score(doc=4067,freq=10.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.3287631 = fieldWeight in 4067, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=4067)
      0.25 = coord(1/4)
    
    Abstract
    Zielsetzung - Aufgrund der rasch wachsenden Anzahl an Publikationen zur Informationskompetenz ergibt sich eine zunehmende Notwendigkeit von Überblicksarbeiten. Dieser Betrag hat das Ziel, mittels Science Mapping einen Überblick über die wissenschaftliche Literatur zu schaffen. Forschungsmethoden - Unter Verwendung von BibExcel und VOSviewer wurden 1589 wissenschaftliche Artikel analysiert und drei verschiedene Visualisierungen erstellt. Ergebnisse - Es gibt ein relativ großes internationales Autorennetzwerk, in welchem die meisten Hauptakteure miteinander in Verbindung stehen. Die wichtigsten Schwerpunkte sind: Vermittlung von Informationskompetenz im Hochschulbereich, Prozessmodelle zum Informationssuchverhalten, Phänomenographie und Informationskompetenz im beruflichen Umfeld. Schlussfolgerungen - Viele der Schwerpunkte wurden schon vereinzelt in Review-Artikeln genannt, aber noch nie via Science Mapping zusammen visualisiert. Somit ermöglicht diese Arbeit erstmalig ein »big picture« der Produktionslandschaft. Künftige Arbeiten könnten die Literatur mit anderen Science Mapping Tools bzw. Visualisierungstechniken untersuchen.
    Content
    Vgl.: https://yis.univie.ac.at/index.php/yis/article/view/1417/1251. Diesem Beitrag liegt folgende Abschlussarbeit zugrunde: Jaklitsch, Markus: Informationsvisualisierung am Beispiel des Begriffs Informationskompetenz: Eine szientometrische Untersuchung unter Verwendung von BibExcel und VOSviewer. Masterarbeit (MSc), Karl-Franzens-Universität Graz, 2015. Volltext: http://resolver.obvsg.at/urn:nbn:at:at-ubg:1-90404.
  2. Knoll, A.: Kompetenzprofil von Information Professionals in Unternehmen (2016) 0.01
    0.009299952 = product of:
      0.037199806 = sum of:
        0.037199806 = weight(_text_:und in 4069) [ClassicSimilarity], result of:
          0.037199806 = score(doc=4069,freq=10.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.3287631 = fieldWeight in 4069, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=4069)
      0.25 = coord(1/4)
    
    Abstract
    Zielsetzung - Information Professionals sind in Unternehmen für den professionellen und strategischen Umgang mit Informationen verantwortlich. Da es keine allgemeingültige Definition für diese Berufsgruppe gibt, wird in der vorliegenden Arbeit eine Begriffsbestimmung unternommen. Methode - Mit Hilfe dreier Methoden - einer Auswertung von relevanter Fachliteratur, der Untersuchung von einschlägigen Stellenausschreibungen und dem Führen von Experteninterviews - wird ein Kompetenzprofil für Information Professionals erstellt. Ergebnisse - Die 16 wichtigsten Kompetenzen in den Bereichen Fach-, Methoden-, Sozial- und persönliche Kompetenzen sind IT-Kenntnisse, Sprachkenntnisse, Quellenkenntnisse, Recherchekenntnisse, Projektmanagement, Darstellungskompetenz, Problemlösungskompetenz, selbständiges Arbeiten, Kommunikationsfähigkeit, Teamfähigkeit, Servicementalität, Interkulturelle Kompetenz, Analytische Fähigkeiten, Eigenmarketing, Veränderungsbereitschaft und Stressresistenz. Schlussfolgerung - Die Kompetenzen geben eine Orientierung über vorhandene Fähigkeiten dieser Berufsgruppe für Personalfachleute, Vorgesetzte und Information Professionals selbst. Ein Kompetenzrad kann als Visualisierung dienen.
  3. Pfeffer, M.; Schöllhorn, K.: Praktische Nutzung von Klassifikationssystemen (2018) 0.01
    0.009299952 = product of:
      0.037199806 = sum of:
        0.037199806 = weight(_text_:und in 4131) [ClassicSimilarity], result of:
          0.037199806 = score(doc=4131,freq=10.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.3287631 = fieldWeight in 4131, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=4131)
      0.25 = coord(1/4)
    
    Abstract
    Ist der Medienbestand einer Informationseinrichtung klassifikatorisch erschlossen, kann diese Information auf vielfältige Weise verwendet werden: Die hierarchische Struktur eines Klassifikationssystems kann mit Hilfe eines geeigneten Notationssystems als Basis für die Signaturvergabe genutzt werden und so die Anordnung der physischen Medien in Regalen inhaltlich strukturieren. In Katalogen und anderen Suchsystemen dienen Klassifikationssysteme als systematischer Zugang, zur inhaltlichen Eingrenzung von Treffermengen oder als Hilfsmittel, um thematisch verwandte Medien zu einem vorhandenen Medium zu finden. Etliche Visualisierungsmethoden bauen ebenfalls auf hierarchischen Strukturen von Klassifikationssystemen auf und können für eine Analyse der inhaltlichen Zusammensetzung von (Teil-)Beständen oder Treffermengen eingesetzt werden. In diesem Kapitel werden diese unterschiedlichen Anwendungsgebiete vorgestellt und anhand von Beispielen aus der Praxis erläutert.
    Series
    Bibliotheks- und Informationspraxis; 53
  4. Mau, S.: ¬Das metrische Wir : über die Quantifizierung des Sozialen (2017) 0.01
    0.009299952 = product of:
      0.037199806 = sum of:
        0.037199806 = weight(_text_:und in 4819) [ClassicSimilarity], result of:
          0.037199806 = score(doc=4819,freq=10.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.3287631 = fieldWeight in 4819, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=4819)
      0.25 = coord(1/4)
    
    Abstract
    Ob Bildung, Gesundheit oder Konsum: Über so ziemlich jeden Aspekt unserer Person und unseres Verhaltens werden inzwischen Daten gesammelt. Schritt für Schritt entsteht so eine Gesellschaft der Sternchen, Scores, Likes und Listen, in der alles und jeder ständig vermessen und bewertet wird. Das beginnt beim alljährlichen Hochschulranking, reicht über die Quantified-Self-Bewegung fitnessbegeisterter Großstädter, die über das Internet ihre Bestzeiten miteinander vergleichen, bis hin zur Beurteilung der Effizienz politischer Maßnahmen. Steffen Mau untersucht die Techniken dieser neuen Soziometrie und zeigt ihre Folgen auf. Die Bewertungssysteme der quantifizierten Gesellschaft, so sein zentraler Gedanke, bilden nicht einfach die Ungleichheiten in der Welt ab, sondern sind letztlich mitentscheidend bei der Verteilung von Lebenschancen.
  5. Rannharter, N.; Teetor, S.: Maintaining an image data base : a use case based on the Digital Research Archive for Byzantium (DIFAB) (2017) 0.01
    0.009299952 = product of:
      0.037199806 = sum of:
        0.037199806 = weight(_text_:und in 4914) [ClassicSimilarity], result of:
          0.037199806 = score(doc=4914,freq=10.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.3287631 = fieldWeight in 4914, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=4914)
      0.25 = coord(1/4)
    
    Abstract
    Mit Metadaten versehene, digital archivierte Bilder sind aufgrund ihrer hohen Komplexität eine ständige Herausforderung für den Aufbau von Metadatenstrukturen und für das Beibehalten von adäquaten Metadatenstandards in Bilddatenbanken. Besonders bei Bildern über eine materielle Kultur zeichnet sich diese Komplexität in den diversen Ebenen ab. Zur Verdeutlichung dieser Problematik dient ein einzelnes Monument mit seiner fotographischen Dokumentation als geisteswissenschaftliches Anwendungsbeispiel aus dem Digitalen Forschungsarchiv Byzanz (DiFAB) der Universität Wien. Unter der grundsätzlichen Berücksichtigung der künftigen Anforderungen und der einfachen Navigation von Metadaten beinhaltet dieser Beitrag u. a. die Herausforderungen mit den diversen analogen und digitalen Formen der Dokumentation, der historischen Geographie, der kulturspezifischen Terminologie sowie mit der kunsthistorischen Bedeutung einer exakten und unscharfen Datierung für Forschungsarchive.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 70(2017) H.2, S.208-224
  6. Wiesenmüller, H.; Horny, S.: Basiswissen RDA : eine Einführung für deutschsprachige Anwender (2015) 0.01
    0.009299952 = product of:
      0.037199806 = sum of:
        0.037199806 = weight(_text_:und in 3) [ClassicSimilarity], result of:
          0.037199806 = score(doc=3,freq=10.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.3287631 = fieldWeight in 3, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=3)
      0.25 = coord(1/4)
    
    Abstract
    Basiswissen RDA bietet eine Einführung in das neue, aus der angloamerikanischen Tradition stammende Katalogisierungsregelwerk RDA (Resource Description and Access), das das bisherige deutsche Regelwerk RAK ablöst. In verständlicher Sprache geschrieben und mit zahlreichen Beispielen illustriert, leistet dieses Lehrbuch praktische Hilfestellung, um den Schritt von der Theorie in die Umsetzung zu unterstützen.
    Content
    Vgl. auch: http://www.basiswissen-rda.de/. Im Laufe des Jahres 2015 wird das bisherige deutsche Katalogisierungsregelwerk, die "Regeln für die alphabetische Katalogisierung" (RAK), durch einen neuen, internationalen Standard abgelöst: "Resource Description and Access" (RDA). Das am 27. März 2015 im Verlag De Gruyter erschienene Lehrbuch Basiswissen RDA von Heidrun Wiesenmüller und Silke Horny führt in das neue Regelwerk ein. Die Begleitwebsite ergänzt das Lehrbuch durch Aktualisierungen und zusätzliche Materialien und bietet außerdem in einem Blog Neuigkeiten und Informationen rund um das Thema RDA. 2. Aufl. 2017.
  7. Kuberek, M.; Fürste, F.: Datenmanagementpläne leicht gemacht : TUB-DMP, das Web-Tool der TU Berlin für Datenmanagementpläne (2018) 0.01
    0.009299952 = product of:
      0.037199806 = sum of:
        0.037199806 = weight(_text_:und in 345) [ClassicSimilarity], result of:
          0.037199806 = score(doc=345,freq=10.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.3287631 = fieldWeight in 345, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=345)
      0.25 = coord(1/4)
    
    Abstract
    Das Web-Tool TUB-DMP ist ein weiterer Baustein in der Forschungsdaten-Infrastruktur der Technischen Universität Berlin, die vom "Servicezentrum Forschungsdaten und -publikationen" (SZF) betrieben wird. TUB-DMP ergänzt das Repositorium für Forschungsdaten und Publikationen "Deposit-Once", das die langfristige Verfügbarkeit, Verifizierung, Zitierbarkeit und Nachnutzbarkeit der Forschungsergebnisse gewährleistet. Forschungsdatenmanagement und ForschungsdatenInfrastruktur der TU Berlin sind nach den FAIR Data Principles (Findable, Accessible, Interoperable, Re-usable) ausgerichtet. Dieser Maßgabe entsprechend wurde auch TUB-DMP entwickelt, um den Wissenschaftlerinnen und Wissenschaftlern der TU Berlin ein Dokumentationswerkzeug an die Hand zu geben, das ein FAIRes Management ihrer Forschungsdaten ermöglicht. TUB-DMP wurde gemeinsam mit Pilotpartnern aus der TU Berlin entwickelt. Die erste Version wurde im September 2015 in Betrieb genommen, Version 2 mit einer Reihe von Erweiterungen im Dezember 2017.
  8. Dierkes, J.; Curdt, C.: Von der Idee zum Konzept : Forschungsdatenmanagement an der Universität zu Köln (2018) 0.01
    0.009299952 = product of:
      0.037199806 = sum of:
        0.037199806 = weight(_text_:und in 358) [ClassicSimilarity], result of:
          0.037199806 = score(doc=358,freq=10.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.3287631 = fieldWeight in 358, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=358)
      0.25 = coord(1/4)
    
    Abstract
    Die Universität zu Köln, als eine der größten Hochschulen Deutschlands, nähert sich dem Thema universitätsweites systematisches Forschungsdatenmanagement (FDM) über eine Machbarkeitsstudie an. Im Laufe eines Jahres wurde der Status quo des Umgangs mit Forschungsdaten an der Universität, den Fakultäten, Instituten und Forschungsprojekten ermittelt. Als Grundlage für die weiteren Arbeiten wurde eine Leitlinie zum Umgang mit Forschungsdaten erarbeitet und seitens der Universität verabschiedet. Ausgehend von einem umfänglichen FDM-Service-Portfolio wurden erste Maßnahmenpakete entwickelt, die mit einer realistischen Aufwandsabschätzung eine Grundlage für ein universitätsweites FDM innerhalb der nächsten drei Jahre legen sollen. Die Maßnahmen basieren im Wesentlichen auf dem Aufbau von Informations-, Beratungs- und Schulungsangeboten und sollen die Vernetzung der FDM-Akteure stärken. Ein weiteres Arbeitsgebiet liegt im Aufbau digitaler Services im Bereich Speicherung und Sichtbarmachung von Forschungsergebnissen.
  9. Woppowa, B.; Wiesenmüller, H.: Öffentliche Bibliotheken und Katalogisierung : eine Analyse der aktuellen Praxis in Deutschland (2018) 0.01
    0.009299952 = product of:
      0.037199806 = sum of:
        0.037199806 = weight(_text_:und in 482) [ClassicSimilarity], result of:
          0.037199806 = score(doc=482,freq=10.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.3287631 = fieldWeight in 482, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=482)
      0.25 = coord(1/4)
    
    Abstract
    Der Beitrag gibt einen Überblick über den aktuellen Stand der Katalogisierungspraxis öffentlicher Bibliotheken in Deutschland. Mithilfe einer Online-Befragung wurden repräsentativ ausgewählte öffentliche Bibliotheken zu ihrem Vorgehen bei der Katalogisierung befragt, z.B. zur Fremddatenübernahme und zum eingesetzten Personal. Auch die Ansichten und Einschätzungen in Bezug auf die Bedeutung der Katalogisierung und die für die Katalogisierungstätigkeit benötigten Kenntnisse und Kompetenzen wurden abgefragt. Die Ergebnisse der 187 teilnehmenden Bibliotheken zeigen auf, wie vielfältig die Katalogisierungspraxis an deutschen öffentlichen Bibliotheken ist, machen dabei aber auch deutlich, dass die Bedeutung der Katalogisierung an öffentlichen Bibliotheken viel größer ist als oftmals angenommen.
  10. Ornes, S.: Mathematische Kunst (2019) 0.01
    0.009299952 = product of:
      0.037199806 = sum of:
        0.037199806 = weight(_text_:und in 739) [ClassicSimilarity], result of:
          0.037199806 = score(doc=739,freq=10.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.3287631 = fieldWeight in 739, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=739)
      0.25 = coord(1/4)
    
    Content
    Aus der Mathematik inspirierte Bilder und Skulpturen entfalten ihre atemberaubende Schönheit. Der US-Amerikaner Roman Verostko machte in den 1940er Jahren eine Kunstausbildung, wurde Priester, verließ diesen Beruf wieder, heiratete, zerlegte Computer und lernte in BASIC zu programmieren. Er ist einer der Ersten, der seine Werke mit selbst entwickelter Software erzeugte, und zählt daher zu den Pionieren der »algorithmischen Kunst«. Als Verostko 1998 das Buch »The Emperor's New Mind« des berühmten Physikers Roger Penrose las, ließ ihn ein darin beschriebener Aspekt nicht mehr los. Penrose definiert in seinem Werk eine universelle Version der nach dem britischen Wissenschaftler Alan Turing benannten Maschinen, die die Arbeitsweise eines Computers modellieren. Ihre universelle Version sollte Penrose zufolge jede Funktion einer spezialisierten Turing-Maschine nachahmen können. Demnach kann eine universelle Turing-Maschine (UTM) alles berechnen, was berechenbar ist. Dieses Konzept begeisterte Verostko außerordentlich. Daher entschied er, dass die UTM eine prachtvolle Aufmachung verdient. Wegen seiner theologischen Studien orientierte er sich dabei an handschriftlichen mittelalterlichen Texten, die aufwändig mit goldenen und silbernen Illustrationen verziert sind. Mit einem Plotterstift schuf Verostko die abstrakten Figuren, mit denen er die binäre Definition der UTM - eine lange Folge aus Nullen und Einsen - geschmückt hat.
  11. Lewandowski, D.; Sünkler, S.: ¬Das Relevance Assessment Tool : eine modulare Software zur Unterstützung bei der Durchführung vielfältiger Studien mit Suchmaschinen (2019) 0.01
    0.009299952 = product of:
      0.037199806 = sum of:
        0.037199806 = weight(_text_:und in 26) [ClassicSimilarity], result of:
          0.037199806 = score(doc=26,freq=10.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.3287631 = fieldWeight in 26, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=26)
      0.25 = coord(1/4)
    
    Abstract
    In diesem Artikel stellen wir eine Software vor, mit der sich Studien zu Such- und Informationssystemen realisieren lassen. Das Relevance Assessment Tool (RAT) soll umfangreiche Untersuchungen mit Daten von kommerziellen Suchmaschinen unterstützen. Die Software ist modular und webbasiert. Es lassen sich damit automatisiert Daten von Suchmaschinen erfassen. Dazu können Studien mit Fragen und Skalen flexibel gestaltet und die Informationsobjekte anhand der Fragen durch Juroren bewertet werden. Durch die Modularität lassen sich die einzelnen Komponenten für eine Vielzahl von Studien nutzen, die sich auf Web-Inhalte beziehen. So kann die Software auch für qualitative Inhaltsanalysen eingesetzt werden oder durch das automatisierte Scraping eine große Datenbasis an Web-Dokumenten liefern, die sich quantitativ in empirischen Studien analysieren lassen.
    Source
    Information - Wissenschaft und Praxis. 70(2019) H.1, S.46-56
  12. Hartmann, S.; Pampel, H.: GND und ORCID : Brückenschlag zwischen zwei Systemen zur Autorenidentifikation (2017) 0.01
    0.009299952 = product of:
      0.037199806 = sum of:
        0.037199806 = weight(_text_:und in 115) [ClassicSimilarity], result of:
          0.037199806 = score(doc=115,freq=10.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.3287631 = fieldWeight in 115, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=115)
      0.25 = coord(1/4)
    
    Abstract
    Die Uneindeutigkeit von Personennamen erschwert im Rahmen der bibliothekarischen Erschließung die eindeutige Zuordnung von Autorinnen und Autoren zu ihren Werken. Bibliotheken im deutschsprachigen Raum adressieren das Problem der Mehrdeutigkeit von Namen durch den Einsatz der Gemeinsamen Normdatei (GND). Die internationale Initiative ORCID (Open Researcher and Contributor ID) verfolgt das gleiche Ziel. Akteur ist hier jedoch die einzelne Wissenschaftlerin oder der einzelne Wissenschaftler. Das Projekt "ORCID DE - Förderung der Open Researcher and Contributor ID in Deutschland" hat sich, dank der Förderung der Deutschen Forschungsgemeinschaft (DFG), unter anderem zum Ziel gesetzt, einen Brückenschlag zwischen den beiden Systemen - GND und ORCID - zu schaffen, um damit die Datenqualität beider Systeme wechselseitig zu erhöhen. Der vorliegende Beitrag gibt einen Überblick über ORCID und das Projekt ORCID DE. Dabei wird insbesondere auf die angestrebte Verlinkung von GND und ORCID eingegangen.
  13. Laczny, J.: E-Tutorials zur Nutzerschulung in Bibliotheken : Stand der Technik und Trends (2018) 0.01
    0.009299952 = product of:
      0.037199806 = sum of:
        0.037199806 = weight(_text_:und in 694) [ClassicSimilarity], result of:
          0.037199806 = score(doc=694,freq=10.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.3287631 = fieldWeight in 694, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=694)
      0.25 = coord(1/4)
    
    Abstract
    Seit den 1990er Jahren stoßen Anwendungsmöglichkeiten von E-Tutorials zur Nutzerschulung an wissenschaftlichen Bibliotheken als Lehr-Lernumgebung auf das Interesse der Bibliothekswelt. Nicht nur wird in diesem Beitrag das Augenmerk auf die Auseinandersetzung mit der Begrifflichkeit E-Learning und deren didaktische Einordnung, sondern vor allem auf die Potentiale und Grenzen von technischen Lösungen zur Erstellung von E-Learning-Angeboten sowie von technischen Möglichkeiten zur Bereitstellung der E-Tutorials gelenkt. Eine Betrachtung von technischen Herausforderungen und Entwicklungstendenzen für E-Tutorials runden den Beitrag ab.
    Content
    "Im Jahr 1995 weckte auf dem 85. Deutschen Bibliothekartag in Göttingen, welcher sich thematisch der "Herausforderung der Bibliotheken durch elektronische Medien und neue Organisationsformen" widmete, der Beitrag zur Vorstellung neuer Informationsmöglichkeiten für Bibliotheksnutzende, wie digitale "Präsentationen zur Einführung in die Benutzung elektronischer Informationsmittel", "Handhabung von Online-Katalogen" sowie "Erkundung der Räumlichkeiten einer Bibliothek", das Interesse der Teilnehmenden." Vgl.: https://journals.ub.uni-heidelberg.de/index.php/bibliothek/article/view/57961. Vgl. auch: URN (PDF): https://journals.ub.uni-heidelberg.de/index.php/bibliothek/article/view/57961.
  14. Hampe, M.: ¬Die dritte Aufklärung (2018) 0.01
    0.009299952 = product of:
      0.037199806 = sum of:
        0.037199806 = weight(_text_:und in 1382) [ClassicSimilarity], result of:
          0.037199806 = score(doc=1382,freq=10.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.3287631 = fieldWeight in 1382, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1382)
      0.25 = coord(1/4)
    
    Abstract
    Wir haben zu allem eine Meinung, aber kaum noch Argumente es wird Zeit für eine neue Aufklärungsbewegung! Michael Hampe zeigt, warum auch die Dritte Aufklärung nur eine Bildungsbewegung sein kann. Wir brauchen wieder gemeinsame kulturelle Projekte, aus denen Sinn und nicht nur Reichtum entsteht, um weder Gewalt, Grausamkeit noch Illusionen als Ersatz-Intensitäten in unserer Lebenserfahrung zu verfallen. Solche kollektiven Projekte und die mit ihnen einhergehenden Erfahrungen von Intensität entstehen aus Bildungsprozessen. Dabei geht es Hampe nicht um Elitenbildung. Es geht um den Erwerb einer gemeinschaftlichen Kreativität, die uns den Mut und die Mündigkeit verleiht, die Zukunft nicht einfach nur zu beobachten, sondern zu gestalten. »Und Verkünder kommender Paradiese und Höllen nach Hause zu schicken.«
  15. Strecker, D.: Nutzung der Schattenbibliothek Sci-Hub in Deutschland (2019) 0.01
    0.009299952 = product of:
      0.037199806 = sum of:
        0.037199806 = weight(_text_:und in 1597) [ClassicSimilarity], result of:
          0.037199806 = score(doc=1597,freq=10.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.3287631 = fieldWeight in 1597, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1597)
      0.25 = coord(1/4)
    
    Abstract
    Anfang der 2000er Jahre entstanden in Reaktion auf unzureichende Zugangswege zu Fachliteratur und ausgelöst durch steigende Subskriptionsgebühren wissenschaftlicher Zeitschriften erste illegale Dokumentensammlungen, sogenannte Schattenbibliotheken. Schattenbibliotheken sind Internetdienste, die ohne Zustimmung der RechteinhaberInnen Datenbanken mit wissenschaftlichen Volltexten erstellen, betreiben und allen Interessierten dadurch den Zugriff auf wissenschaftliche Literatur ermöglichen. Zu den meistgenutzten Schattenbibliotheken zählt Sci-Hub. Der Dienst wurde 2011 von Alexandra Elbakyan entwickelt und umfasste zum Zeitpunkt der Untersuchung mehr als 74 Millionen Dokumente. Die Akzeptanz dieser Dienste unter Forschenden und anderen Personengruppen, verschwimmende Grenzen in der öffentlichen Wahrnehmung zu Open Access sowie mögliche Konsequenzen für bestehende legale Zugänge zu Fachliteratur beschäftigen nicht nur InformationswissenschaftlerInnen weltweit. In diesem Beitrag wird die Rolle des Phänomens Schattenbibliothek bei der wissenschaftlichen Informationsversorgung in Deutschland untersucht, insbesondere im Hinblick auf regionale Verteilungen von Downloads, Zugriffszeiten, Zusammenhängen zwischen der Größe bestimmter Personengruppen (Bevölkerungszahl, Anzahl wissenschaftlicher Mitarbeitender an Hochschulen) und den Downloadzahlen eines Bundeslands sowie den Eigenschaften der angefragten Dokumente (Themen, Verlage, Publikationsalter beim Zugriff).
  16. Mittermaier, B.; Schmiedicke, H.: ¬Die Einführung des Bibliothekssystems Symphony in der Zentralbibliothek des Forschungszentrums Jülich : ein Erfahrungsbericht (2010) 0.01
    0.009196038 = product of:
      0.036784153 = sum of:
        0.036784153 = weight(_text_:und in 482) [ClassicSimilarity], result of:
          0.036784153 = score(doc=482,freq=22.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.32508966 = fieldWeight in 482, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=482)
      0.25 = coord(1/4)
    
    Abstract
    Das Forschungszentrum Jülich ist eine der 16 Großforschungseinrichtungen in der "Hermann von Helmholtz-Gemeinschaft Deutscher Forschungszentren e.V." (HGF). Ursprünglich als "Kernforschungsanlage Jülich" gegründet, betreibt das Forschungszentrum Jülich heute interdisziplinäre Spitzenforschung zur Lösung großer gesellschaftlicher Herausforderungen in den Bereichen Gesundheit, Energie und Umwelt sowie Information. Einmalig ist dabei die Verknüpfung mit den beiden Schlüsselkompetenzen Physik und Supercomputing. In Jülich werden sowohl langfristig angelegte, grundlagenorientierte Arbeiten als auch konkrete technologische Anwendungen erarbeitet. Mit rund 4.400 Mitarbeiterinnen und Mitarbeitern gehört Jülich zu den größten Forschungszentren Europas. Die Zentralbibliothek (im Folgenden kurz "ZB" genannt) ist verantwortlich für eine umfassende und hochwertige Literatur- und Informationsversorgung für die Mitarbeiterinnen und Mitarbeiter des Forschungszentrums. Sie leistet Dienste in den Bereichen Dokumentation, Publikation, Informationsmanagement und Informationswissenschaft. Sie ist als einschichtiges Bibliothekssystem konzipiert. Neben der Zentralbibliothek gibt es allerdings ca. 60 Institutsbibliotheken, die im Umfang vom Handapparat bis zu mehreren tausend Bänden reichen. Die Verwaltung der Institutsbibliotheken erfolgt über die ZB. Die Automatisierung der Geschäftsabläufe in der ZB begann bereits in den 1970er Jahren mit Batchprogrammen, die über Großrechner liefen, und einem Ausleihsystem von Nixdorf. Von 1987 bis 1997 wurde das Datenbanksystem DOMESTIC der Firma KTS, München, eingesetzt. Hierbei handelte es sich um eine typische Mainframe-Anwendung, die auf dem zentralen IBM-Rechner des Forschungszentrums betrieben wurde. Der Online-Zugriff auf den zeilenorientierten Bibliothekskatalog erfolgte campusweit über Terminals oder IBM-PCs mit 3270-Emulation.
    Zu Beginn der 1990er Jahre erarbeitete die ZB ein Konzept mit dem Ziel der schrittweisen Einführung eines zentralen Informationssystems, das den Benutzern über offene Netze einen Zugriff auf elektronische Dienste aller Art liefern sollte. In diesem sollte ein leistungsfähiges Bibliothekssystem eine zentrale Rolle spielen. Die Realisierung eines solchen Konzeptes war mit der existierenden Software kaum möglich, so dass eine diesbezügliche Neuorientierung notwendig wurde. Nach einer umfassenden Marktsichtung, die abschließend durch diverse Produktpräsentationen, Testinstallationen, der Auswertung von Kostenvoranschlägen sowie der Beurteilung der technischen Details und der Möglichkeiten der Einbindung in bestehende Netzwerke geprägt war, entschied sich die ZB schließlich für das integrierte Bibliothekssystem Dynix Marquis (später: Horizon). Vom Vertragsabschluss im Dezember 1994 bis zur Inbetriebnahme Mitte 1997 vergingen zweieinhalb Jahre, und auch danach waren noch einige Nachbesserungen nötigt. Die Zentralbibliothek war seinerzeit einer der ersten Anwender des Horizon-Systems in Deutschland und damit Pilot-Anwender der modernen Client-Server-Architektur, die mit einer Standard-SQL-Datenbank arbeitet. Ein damals moderner Web-OPAC sowie internationaler Z39.50 Zugriff rundeten den Technologie-Sprung ab.
  17. Bormann, F.-J.: Verantwortung und Verdrängung : Was ist Willensfreiheit (6): Die theologische Ethik versucht, menschliche Spielräume realistisch zu vermessen (2010) 0.01
    0.009196038 = product of:
      0.036784153 = sum of:
        0.036784153 = weight(_text_:und in 895) [ClassicSimilarity], result of:
          0.036784153 = score(doc=895,freq=88.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.32508966 = fieldWeight in 895, product of:
              9.380832 = tf(freq=88.0), with freq of:
                88.0 = termFreq=88.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.015625 = fieldNorm(doc=895)
      0.25 = coord(1/4)
    
    Content
    " Wer glaubt, dass die Frage nach dem rechten Verständnis von Freiheit, Schuld und Verantwortung nur die Strafrechtswissenschaft und die Hirnforschung angeht, der irrt. In Wahrheit stehen hier nämlich wenigstens drei verschiedene Problemfelder zur Debatte, von denen bestenfalls das erste vorwiegend akademischer Natur ist, während die beiden anderen durchaus von gesamtgesellschaftlichem Interesse sein dürften. Ein erster Kristallisationspunkt in diesem schon lange schwelenden Streit betrifft die Zuständigkeitsbereiche der einzelnen Wissenschaften und die Spielregeln, nach denen das interdisziplinäre Gespräch ablaufen sollte. Ist die Hirnforschung überhaupt zuständig für die Klärung des Freiheitsproblems und wenn ja, in welcher Form können ihre empirischen Befunde dazu beitragen, die Existenz und das Ausmaß möglicher Freiheitsspielräume genau zu bestimmen? Reichen ihre Daten tatsächlich dazu aus, die Annahme der menschlichen Willensfreiheit ein für alle mal ins Unrecht zu setzen oder sind derartige Behauptungen vielmehr das Ergebnis einer wissenschaftstheoretisch unreflektierten Hybris, die die Reichweite bestimmter naturwissenschaftlicher Tatsachen heillos überschätzt? Dass eher letzteres der Fall ist, dürfte sich mittlerweile nicht nur in Philosophenkreisen herumgesprochen haben. Der schlichte Umstand, dass auch freie Entscheidungen von hirnphysiologischen Vorgängen begleitet und insofern "zerebral bedingt" sind, kann weder deren Freiwilligkeit erschüttern noch ist er geeignet, einen strengen Determinismus zu begründen. Philosophen wie Geert Keil haben besonders lautstarken Verfechtern der modernen Hirnforschung wie Wolf Singer und Gerhard Roth daher zu Recht vorgeworfen, sie verwechselten die zeitgleiche Verwirklichung von mentalen und physiologischen Phänomenen mit einer zeitversetzten Determination der einen Phänomenklasse durch die andere. Da die wirklich fundamentalen Naturgesetze zudem keine Gesetze über die zeitliche Abfolge von Ereignissen seien, sondern vielmehr die Korrelation zwischen bestimmten physikalischen Kräften betreffen, könnten diese Gesetze den Weltlauf auch nicht deterministisch fixieren. Gerade von naturwissenschaftlicher Seite dürfte man daher der Behauptung einer freiheitsgefährdenden Wirkung der physikalischen Naturgesetze sehr kritisch gegenüberstehen.
    In dieselbe Richtung weist der immer wieder erhobene Vorwurf des Kategorienfehlers. Diesem zufolge sind die Ebene bestimmter, sich auf das handelnde Subjekt beziehender Deutungsbegriffe wie z.B. "entscheiden", "beabsichtigen" oder "überlegen" strikt zu unterscheiden von der Ebene der naturwissenschaftlichen Beschreibungsbegriffe, z.B. bestimmter quantifizierbarer Bereitschaftspotenziale in verschiedenen Gehirnarealen. Ein zweites Problemknäuel der Debatte betrifft die Frage, was unter "Freiheit" überhaupt zu verstehen ist. Auch wenn sich der Gesetzgeber aus guten Gründen philosophischer Spekulationen über das Wesen der Freiheit enthält und stattdessen formale Beweislastregelungen statuiert, haben Roth und Grischa Merkel in der Frankfurter Rundschau zutreffend darauf hingewiesen, dass der die individuelle Schuldfähigkeit wegen seelischer Störungen regelnde Paragraf 20 des Strafgesetzbuches implizit von der Annahme ausgeht, dass der schuldfähige Täter die Fähigkeit besitzen muss, sich so oder anders zu entscheiden und entsprechend zu handeln. Doch ist diese "Möglichkeit zum Andershandelnkönnen in der konkreten Tatsituation" nur ein Element jener vielschichtigen Kompetenz, die wir gemeinhin unter dem Begriff der Willensfreiheit subsumieren. Nicht minder bedeutsam sind die Fähigkeit, Handlungsabläufe zu entwerfen, zu verfeinern und zu revidieren, eigene Wünsche und Sehnsüchte auf ihre Berechtigung und Realisierbarkeit zu überprüfen und notfalls zu korrigieren und das Resultat all dieser praktischen Reflexionen schließlich in konkreten Vollzügen handlungswirksam werden zu lassen. Es versteht sich von selbst, dass alle diese Teilkompetenzen vielfach bedingt und begrenzt sind. Eine absolute Freiheit, die keinerlei Beschränkungen unterworfen ist, gibt es nur bei Gott. Menschliche Freiheit ist dagegen immer aufgrund ihrer kreatürlichen Verfasstheit begrenzte Freiheit. Doch ändern all diese Bedingtheiten und Begrenzungen nicht das Geringste daran, dass die Freiheit tief in unser personales Selbstverständnis und in die sozialen Verhaltenserwartungen unseres alltäglichen Miteinanders eingeschrieben ist.
    Nur deswegen darf der Mensch ja einen besonderen Status jenseits der bloßen Dingwelt für sich reklamieren und gar eine unveräußerliche Würde in Anspruch nehmen, weil er kraft seiner Freiheitsbegabung dazu im Stande ist, sich nicht nur streng determiniert zu verhalten, sondern eigenverantwortlich zu handeln. Wer daher die menschliche Freiheit grundsätzlich leugnet, der entfernt - wie Winfried Hassemer zu Recht betont hat - "einen Schlussstein nicht nur aus unserer Rechtsordnung, sondern aus unserer Welt". Dies gilt übrigens auch im religiösen Sinne. Die jüdisch-christliche Anthropologie beruht wesentlich darauf, dass der Mensch keine bloße Marionette Gottes ist. Die Bibel sieht den Menschen vielmehr als handlungs- und entscheidungsfähigen freien Partner und Bundesgenossen Gottes, der sich gerade in dieser eigenständigen Handlungsmächtigkeit als Ebenbild seines Schöpfers auch moralisch zu bewähren hat. Es ist ein theologischer Irrglaube zu meinen, die Größe Gottes ließe sich am besten dadurch steigern, dass man die Hinfälligkeit und Schwäche des Menschen besonders drastisch zur Geltung bringt. Das Gegenteil ist der Fall. Da zwischen Schöpfer und Geschöpf kein Konkurrenz-, sondern ein Bedingungsverhältnis besteht, kann gerade die menschliche Freiheitserfahrung zum Ort der Gotteserfahrung werden, während die religiöse Unmündigkeitserklärung des Menschen nicht nur dessen Verantwortung negiert, sondern auch die Größe des Schöpfers untergräbt. Damit kommt freilich ein drittes Problemfeld in den Blick, das den näheren Zusammenhang zwischen Freiheit und Verantwortung betrifft. Offenbar gehören beide Begriffe zusammen und sind doch voneinander zu unterscheiden. Der uns erfahrungsmäßig zugänglichere Begriff ist der der Verantwortung. Philosophen haben deshalb gerne betont, die Verantwortung sei der Erkenntnisgrund der Freiheit, während die Freiheit ihrerseits der Seinsgrund der Verantwortung sei. Verantwortung ist bekanntlich ein dreistelliger Begriff, der eine Beziehung zwischen einem Subjekt, einem Gegenstandsbereich und einer Instanz bezeichnet, vor der sich das Subjekt für sein Handeln zu verantworten hat und gegebenenfalls zur Rechenschaft gezogen werden kann.
    Hinsichtlich jedes dieser drei Pole besteht nun die Gefahr einer gezielten Sinnverkürzung: Bezüglich des Subjekts der Verantwortung denke wir gerne nur an den einzelnen womöglich privaten Akteur und blenden damit von vorneherein alle institutionellen und kollektiven Handlungssubjekte aus, o0bwohl deren Handeln etwa im Bereich von Politik und Wirtschaft mittlerweile die viel größeren Gefahrenpotentiale enthält. Hinsichtlich des Gegenstandsbereichs schränken wir den Verantwortungsbegriff gerne rückblickend auf die Folgenhaftung ein und übersehen dabei, dass an die Stelle einer bloß nachsorgenden Schadensbeseitigungsverantwortung zunehmend auch eine vorausschauende Vorsorgeverantwortung treten muss. Auch im Bereich der Verantwortungsüberwachung sind massive Defizite und Leerstellen zu beklagen. Grob vereinfachend gesagt, wird die tatsächliche Wahrnehmung von Verantwortung gegenwärtig um so besser kontrolliert und sanktioniert, je individueller ihr jeweiliger Träger und je lokal begrenzter der Raum ihrer jeweiligen Handlungsreichweite ist. Alle diese Sinnverkürzungen des Verantwortungsbegriffs mögen auf den ersten Blick weniger gravierend erscheinen als der Versuch der Hirnforschung, mit der prinzipiellen Leugnung der Freiheit auch der Verantwortung die Grundlage zu entziehen. Doch laufen alle diese Strategien ebenso wie der komplementäre Versuch, dem Einzelnen eine völlig übersteigerte moralische Allzuständigkeit aufzubürden, darauf hinaus, den Blick für die jeweils begrenzten, aber durchaus realen Verantwortlichkeiten unserer alltäglichen Handlungsbereiche zu trüben. Die theologische Ethik hat daher stets Einspruch gegen die verschiedenen Verdrängungsmechanismen menschlicher Verantwortung erhoben und sich etwa durch die begriffliche Unterscheidung von moralisch "Bösem" und außermoralischem "Übel" darum bemüht, den Raum der Freiheit und Verantwortung des Menschen realistisch auszumessen. An der Dringlichkeit dieser Aufgabe dürfte sich auch durch die Erkenntnisfortschritte der modernen Hirnforschung wenig geändert haben."
    Footnote
    Bezugnahme auf: Hassemer, W.: Haltet den geborenen Dieb! In: FAZ vom 15.06.2010. Erwiderung auf: Roth, G., G. Merkel: Haltet den Richter!: Schuld und Strafe. In: Frankfurter Rundschau. Nr.xxx vom 26.06.2010, S.xx. Walter, M.: Unzulässige Überinterpretation: Schuld und Strafe. In: Frankfurter Rundschau. Nr.xxx vom 05.07.2010, S.xx. Janich, P.: Stillschweigende Hirngespinste: Die FR-Debatte zur Willensfreiheit. In: Frankfurter Rundschau. Nr.158 vom 12.07.2010, S.20-21. Lüderssen, K.: Wer determiniert die Hirnforscher?: Was ist Willensfreiheit (4) [Interview]. In: Frankfurter Rundschau. Nr.164 vom 19.07.2010, S.20-21. Pauen, M.: Das Schuldprinzip antasten, ohne es abzuschaffen: Was ist Willensfreiheit (5) oder: Wer ist verantwortlich für die Abschaffung von Verantwortung?. In: Frankfurter Rundschau. Nr.170 vom 26.07.2010, S.22-23. Fortsetzung: Wingert, L.: An der Realität vorbei: Was ist Willensfreiheit (7): Weder Oberhoheit noch Separatismus: Über die Hirnforschung und ihre Ansprüche. In: Frankfurter Rundschau. Nr.182 vom 9.8.2010, S.20-21. Vgl. auch: Dahl, E., M. Pauen: Schuld und freier Wille. In: Spektrum der Wissenschaft. 2010, H.6, S.72-79. Vgl.: http://www.fr-online.de/kultur/verantwortung-und-verdraengung/-/1472786/4522900/-/index.html.
  18. Jötten, F.: Im Handumdrehen : 30 Jahre Rubik's Cube (2010) 0.01
    0.009196038 = product of:
      0.036784153 = sum of:
        0.036784153 = weight(_text_:und in 906) [ClassicSimilarity], result of:
          0.036784153 = score(doc=906,freq=22.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.32508966 = fieldWeight in 906, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=906)
      0.25 = coord(1/4)
    
    Abstract
    Er ist 30 Jahre alt und wieder da: der Zauberwürfel. Jetzt hat die Wissenschaft auch noch sein größtes Rätsel gelöst.
    Content
    "Er ist 30 Jahre alt und wieder da: der Zauberwürfel. Jüngst sah man immer öfter Kinder und Jugendliche, die an ihm drehten, um ihn so zu ordnen, dass alle seine Seiten eine Farbe haben. Jetzt hat die Wissenschaft auch noch sein größtes Rätsel gelöst - und es muss jeden frustrieren, der sich je in dem Knobelspiel versucht hat: Egal, wie der Würfel verdreht ist, man kann ihn mit höchstens 20 Zügen wieder in die Ausgangsstellung bringen. Selbst Menschen, die im Würfeldrehen geübt sind, brauchen in der Regel um die 40 Züge. Die Wissenschaftler um den Kalifornier Tom Rokicki und den Darmstädter Herbert Kociemba aber bewiesen mit einem trickreichen Computerprogramm und Hochleistungscomputern, dass im Idealfall 20 Drehbewegungen reichen. Außer im Deutschen heißt der Zauberwürfel in aller Welt "Rubik's Cube", benannt nach seinem Erfinder. 1974 hat der ungarische Architekt und Bauingenieur Ernö Rubik ihn entwickelt - um seinen Studenten räumliches Denkvermögen beizubringen. 1975 ließ Rubik ihn patentieren, aber erst 1979 bekam eine US-Firma von der kommunistischen Führung Ungarns eine Lizenz zur Herstellung. 1981, ein Jahr nach der Markteinführung, war die Euphorie auf dem Höhepunkt. 160 Millionen Stück wurden bis dahin verkauft. Magazine veröffentlichten erste Anleitungen zur Lösung.
    Heute liegen die Verkaufszahlen bei insgesamt 350 Millionen, damit ist der Zauberwürfel wohl das meistverkaufte Spielzeug aller Zeiten. Eben erlebt er eine Renaissance. Man kann T-Shirts, Lautsprecher und Taschen kaufen, die sein Muster tragen, der US-Songwriter Adam Green singt, dass er mit dem Würfel begraben werden möchte. Der Weltrekord im beidhändigen Lösen eines zufällig verdrehten Würfels beträgt 7,08, einhändig 11,97, mit den Füßen 36,72 und mit verbundenen Augen 23,06 - Sekunden! In diesen Disziplinen gibt es Welt- und Europameisterschaften und offizielle Rekordlisten der "World Cube Association". Aber es gibt auch inoffizielle Weltrekorde, zum Beispiel im betrunkenen Zustand (angeblich 11,84 Sekunden) oder während eines Fallschirmsprungs (47 Sekunden). Ob es daran liegt, dass er in einer Welt, in der Spiele virtueller werden, ein haptischer Gegenentwurf ist - der Zauberwürfel begeistert die Menschen in aller Welt. "Jeder versteht ihn intuitiv", sagte sein Erfinder Ernö Rubik, 66, der zurückgezogen in Budapest lebt, vor zwei Jahren der Wochenzeitung Die Zeit. Ihn interessiere im Übrigen die schnelle Lösung nicht. Auch die kleinstmögliche Anzahl der Züge, die Forscher jetzt ermittelt haben, sei ihm nicht wichtig. "Der kürzeste Weg ist nicht unbedingt der schönste", sagte er."
  19. Alvers, M.R.: Semantische wissensbasierte Suche in den Life Sciences am Beispiel von GoPubMed (2010) 0.01
    0.009196038 = product of:
      0.036784153 = sum of:
        0.036784153 = weight(_text_:und in 262) [ClassicSimilarity], result of:
          0.036784153 = score(doc=262,freq=22.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.32508966 = fieldWeight in 262, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=262)
      0.25 = coord(1/4)
    
    Abstract
    Nie zuvor war der Zugriff auf Informationen so einfach und schnell wie heute. Die Suchmaschine Google ist dabei mit einem Marktanteil von 95 Prozent in Deutschland führend. Aber reicht der heutige Status Quo aus? Wir meinen nein - andere meinen ja. Die Verwendung von Stichworten für die Suche ist sehr begrenzt, nicht intelligent und der Algorithmus zum ranking der Suchergebnisse fragwürdig. Wir zeigen neue Wege der semantischen Suche mittels der Verwendung von Hintergrundwissen. Die (semi)automatische Generierung von Ontologien wird ebenfalls als zentraler Bestandteil einer universellen Wissensplattform vorgestellt und gezeigt, wie Anwender mit dieser Technologie signifikant Zeit sparen und deutlich relevantere Informationen finden.
    Content
    "Im Vortrag werden Aspekte der Suche nach Informationen und Antworten aus dem breiten Spektrum von der Suche nach einer Telefonnummer bis zur Frage nach dem "Sinn des Lebens" (deren Antwort auch im Vortrag leider nicht gegeben werden kann) angesprochen. Die Verwendung von Hintergrundwissen in Form von semantischen Begriffsnetzwerken, sogenannten Ontologien, hilft enorm, der Beantwortung von Fragen näher zu kommen. Sie garantieren Vollständigkeit der Suchergebnisse und schnelles Fokussieren auf Relevantes. Das bedeutungs-getriebene Einsortieren oder das Klassifizieren von Informationen aus Dokumenten oder von Internetinhalten, ermöglicht die Disambiguierung von Begriffen wie Salz und 01, " Cyclooxygenase Inhibitoren" - eher bekannt als Aspirin - oder das Auffinden aller Dokumente, die zum Thema CO2 - Sequestrierung gehören - also auch solcher, in den Begriff CO2 - Sequestrierung nicht direkt enthalten aber solche, die für das Thema relevant sind. Die Technologie hinter GoPubMed automatisiert schwierige Analysen, die normaler Weise von Wissenschaftlern getätigt werden. Dabei werden die notwendigen Informationen, wie sie von ausgefeilten Algorithmen ([DS05]) vorausgesagt wurden, mit einer deutlich höheren Genauigkeit bereitgestellt. Transinsights semantische Suchtechnologien wurde als erstes Beispiel der nächsten Generation der Suche entwickelt. Die Stärke liegt in der Fähigkeit, große Textkorpora (> 500 Millionen Dokumente) mit großen Ontologien (> 15 Millionen Konzepte) zu verknüpfen. In GoPubMed wird die Gene Ontology und MeSH verwendet, die zusammen mit einer Geo-Ontologie und allen Autoren ca. 15 Millionen Konzepte beinhalten.m"
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis ; Bd. 14) (DGI-Konferenz ; 1
    Source
    Semantic web & linked data: Elemente zukünftiger Informationsinfrastrukturen ; 1. DGI-Konferenz ; 62. Jahrestagung der DGI ; Frankfurt am Main, 7. - 9. Oktober 2010 ; Proceedings / Deutsche Gesellschaft für Informationswissenschaft und Informationspraxis. Hrsg.: M. Ockenfeld
  20. Capurro, R.; Treude, L.: Information, Zeichen, Kompetenz : Fragen an Rafael Capurro zu aktuellen und grundsätzlichen Fragen der Informationswissenschaft von Linda Treude (2011) 0.01
    0.009196038 = product of:
      0.036784153 = sum of:
        0.036784153 = weight(_text_:und in 306) [ClassicSimilarity], result of:
          0.036784153 = score(doc=306,freq=22.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.32508966 = fieldWeight in 306, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=306)
      0.25 = coord(1/4)
    
    Abstract
    Information ist zu einem omnipräsenten Begriff geworden. Wir begegnen ihm in der Wissenschaft ebenso wie in unserem Alltag. Man spricht von der Informationsgesellschaft, von Informationsprozessen, von Informatik und wahlweise von Informationsflut oder -mangel. Information wird als Ding, als Eigenschaft, als Relation oder Ware betrachtet. Aber was meinen wir (jeweils), wenn wir von Information sprechen? Der Philosoph und Informationswissenschaftler Rafael Capurro beschäftigte sich bereits in seiner 1978 erschienenen Dissertation mit dem Titel "Information. Ein Beitrag zur etymologischen und ideengeschichtlichen Begründung des Informationsbegriffs" mit den verschiedenen Dimensionen des Informationsbegriffs. Die Motivation zu einer solchen Arbeit gab Capurro vor allem die fehlende philosophische Auseinandersetzung mit dem Informationsbegriff in Deutschland. Der konkrete Anlass jedoch war die Lektüre der Schriften Carl Friedrich von Weizsäckers, bei der er auf Sätze stieß, die ihm die Bedeutung des Problems klar vor Augen stellten. Weizsäcker formulierte es wie folgt: "Man beginnt sich [...] heute daran zu gewöhnen, daß Information als eine dritte, von Materie und Bewußtsein verschiedene Sache aufgefaßt werden muß. Was man aber damit entdeckt hat, ist an neuem Ort eine alte Wahrheit. Es ist das platonische Eidos, die aristotelische Form, so eingekleidet, daß auch ein Mensch des 20. Jahrhunderts etwas von ihnen ahnen lernt." Dieser ideengeschichtliche Rückgriff gab Capurros Werk seine besondere Ausrichtung. Rafael Capurro setzt sich seitdem besonders mit Problemen der Informationsethik auseinander. Angesichts der technischen Entwicklung und ihrer Folgen ist heute zu fragen, wie Begriffsklärung, Anwendungsmöglichkeit und gesellschaftliche Bedeutung in Bezug gesetzt werden können. Im Umgang, vor allem mit digitalen Medien ist scheinbar eine neue Kompetenz oder sogar eine neue Kulturtechnik erforderlich. Als Reaktion darauf entstehen im bibliothekarischen Bereich immer neue Projekte, die den Begriff der "Informationskompetenz" im Titel tragen. Derartige Vermittlungskonzepte, welche eine steigende Konjunktur erfahren, sind mit der angesprochenen terminologischen Unklarheit konfrontiert und zeigen so eine Lücke zwischen Theorie und Praxis im informationswissenschaftlichen Diskurs auf. Welche Forderungen an die Informationswissenschaft ergeben sich daraus? Die Diskussion dieser Problematik und deren Lösungsansätze, wie sie beispielsweise die Semiotik bieten könnte, bilden den Hintergrund für das folgende Interview.
    Source
    Information - Wissenschaft und Praxis. 62(2011) H.1, S.37-42

Languages

  • d 1631
  • e 212
  • a 1
  • More… Less…

Types

  • a 1374
  • el 403
  • m 279
  • x 74
  • s 60
  • r 26
  • n 8
  • i 3
  • b 2
  • p 2
  • v 2
  • ms 1
  • More… Less…

Themes

Subjects

Classifications