Search (1873 results, page 56 of 94)

  • × year_i:[2010 TO 2020}
  1. Balakrishnan, U.; Krausz, A,; Voss, J.: Cocoda - ein Konkordanztool für bibliothekarische Klassifikationssysteme (2015) 0.01
    0.010303412 = product of:
      0.041213647 = sum of:
        0.041213647 = weight(_text_:und in 3030) [ClassicSimilarity], result of:
          0.041213647 = score(doc=3030,freq=14.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.32416478 = fieldWeight in 3030, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=3030)
      0.25 = coord(1/4)
    
    Abstract
    Cocoda (Colibri Concordance Database for library classification systems) ist ein semi-automatisches, webbasiertes Tool für die Erstellung und Verwaltung von Konkordanzen zwischen bibliothekarischen Klassifikationssystemen. Das Tool wird im Rahmen des Teilprojektes "coli-conc" (Colibri-Konkordanzerstellung) des VZG-Projektes Colibri/DDC als eine Open-Source-Software an der Verbundzentrale des Gemeinsamen Bibliotheksverbundes (VZG) entwickelt. Im Fokus des Projektes "coli-conc" steht zunächst die Konkordanzbildung zwischen der Dewey Dezimal Klassifikation (DDC) und der Regensburger Verbundklassifikation (RVK). Die inhärenten strukturellen und kulturellen Unterschiede von solch fein gegliederten bibliothekarischen Klassifikationssystemen machen den Konkordanzerstellungsprozess bei rein intellektuellem Ansatz aufwendig und zeitraubend. Um diesen zu vereinfachen und zu beschleunigen, werden die intellektuellen Schritte, die im Teilprojekt "coli-conc" eingesetzt werden, z. T. vom Konkordanztool "Cocoda" automatisch durchgeführt. Die von Cocoda erzeugten Konkordanz-Vorschläge stammen sowohl aus der automatischen Analyse der vergebenen Notationen in den Titeldatensätzen verschiedener Datenbanken als auch aus der vergleichenden Analyse der Begriffswelt der Klassifikationssysteme. Ferner soll "Cocoda" als eine Plattform für die Speicherung, Bereitstellung und Analyse von Konkordanzen dienen, um die Nutzungseffizienz der Konkordanzen zu erhöhen. In dieser Präsentation wird zuerst das Konkordanzprojekt "coli-conc", das die Basis des Konkordanztools "Cocoda" bildet, vorgestellt. Danach werden Algorithmus, Benutzeroberfläche und technische Details des Tools dargelegt. Anhand von Beispielen wird der Konkordanzerstellungsprozess mit Cocoda demonstriert.
  2. Renker, L.: Exploration von Textkorpora : Topic Models als Grundlage der Interaktion (2015) 0.01
    0.010303412 = product of:
      0.041213647 = sum of:
        0.041213647 = weight(_text_:und in 3380) [ClassicSimilarity], result of:
          0.041213647 = score(doc=3380,freq=14.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.32416478 = fieldWeight in 3380, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=3380)
      0.25 = coord(1/4)
    
    Abstract
    Das Internet birgt schier endlose Informationen. Ein zentrales Problem besteht heutzutage darin diese auch zugänglich zu machen. Es ist ein fundamentales Domänenwissen erforderlich, um in einer Volltextsuche die korrekten Suchanfragen zu formulieren. Das ist jedoch oftmals nicht vorhanden, so dass viel Zeit aufgewandt werden muss, um einen Überblick des behandelten Themas zu erhalten. In solchen Situationen findet sich ein Nutzer in einem explorativen Suchvorgang, in dem er sich schrittweise an ein Thema heranarbeiten muss. Für die Organisation von Daten werden mittlerweile ganz selbstverständlich Verfahren des Machine Learnings verwendet. In den meisten Fällen bleiben sie allerdings für den Anwender unsichtbar. Die interaktive Verwendung in explorativen Suchprozessen könnte die menschliche Urteilskraft enger mit der maschinellen Verarbeitung großer Datenmengen verbinden. Topic Models sind ebensolche Verfahren. Sie finden in einem Textkorpus verborgene Themen, die sich relativ gut von Menschen interpretieren lassen und sind daher vielversprechend für die Anwendung in explorativen Suchprozessen. Nutzer können damit beim Verstehen unbekannter Quellen unterstützt werden. Bei der Betrachtung entsprechender Forschungsarbeiten fiel auf, dass Topic Models vorwiegend zur Erzeugung statischer Visualisierungen verwendet werden. Das Sensemaking ist ein wesentlicher Bestandteil der explorativen Suche und wird dennoch nur in sehr geringem Umfang genutzt, um algorithmische Neuerungen zu begründen und in einen umfassenden Kontext zu setzen. Daraus leitet sich die Vermutung ab, dass die Verwendung von Modellen des Sensemakings und die nutzerzentrierte Konzeption von explorativen Suchen, neue Funktionen für die Interaktion mit Topic Models hervorbringen und einen Kontext für entsprechende Forschungsarbeiten bieten können.
    Footnote
    Masterthesis zur Erlangung des akademischen Grades Master of Science (M.Sc.) vorgelegt an der Fachhochschule Köln / Fakultät für Informatik und Ingenieurswissenschaften im Studiengang Medieninformatik.
    Imprint
    Gummersbach : Fakultät für Informatik und Ingenieurswissenschaften
  3. Schnalke, M.: ¬Die Anfänge der digitalen Revolution : der Einzug der Computertechnik in das wissenschaftliche Bibliothekswesen am Beispiel der baden-württembergischen Universitätsbibliotheken Konstanz und Ulm (2014) 0.01
    0.010303412 = product of:
      0.041213647 = sum of:
        0.041213647 = weight(_text_:und in 3462) [ClassicSimilarity], result of:
          0.041213647 = score(doc=3462,freq=14.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.32416478 = fieldWeight in 3462, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=3462)
      0.25 = coord(1/4)
    
    Abstract
    Die in den 60er Jahren gegründeten Universitätsbibliotheken in Konstanz und Ulm waren die Vorreiter bei der Einführung der Bibliotheks-EDV in Baden-Württemberg. Den größten Bedarf an maschineller Unterstützung sah man bei der Monographienkatalogisierung. Daher entwickelte man dafür die ersten EDV-Systeme. Zuerst wurden die Daten allerdings nur in maschinenlesbare Lochkarten gestanzt, anhand derer von externen Dienstleistern Bandkataloge oder Katalogkarten gedruckt wurden. In den Folgejahren wurde die Verarbeitung schrittweise sowohl elektronischer als auch automatisierter und verlagerte sich zunehmend in die Universitätsrechenzentren, die erst zum Ende der 60er Jahre entstanden. Nachdem die Katalogisierung und Kataloggenerierung der Monographien und Zeitschriften mithilfe der EDV hinreichend unterstützt war, widmete man sich vermehrt der Ausleihverbuchung. Mit der EDV-Systemen für die Erwerbung und dem Aufkommen von OPACs vollzog sich schließlich die Zusammenführung zu den heute üblichen integrierten Bibliothekssystemen. Die Bibliotheks-EDV verbesserte sowohl die Arbeit innerhalb der Bibliotheken, die Kooperation zwischen ihnen als auch die Serviceleistung für die Nutzer. Gleichzeitig galt es bei der Einführung aber auch technische und soziale Schwierigkeiten zu überwinden, auch diese werden in dieser Arbeit behandelt.
  4. Lemke, M.: Wie lernwirksam sind Online-Tutorials? : Lernerfolgskontrolle und Evaluation bibliothekarischer E-Learningangebote (2014) 0.01
    0.010303412 = product of:
      0.041213647 = sum of:
        0.041213647 = weight(_text_:und in 3464) [ClassicSimilarity], result of:
          0.041213647 = score(doc=3464,freq=14.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.32416478 = fieldWeight in 3464, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=3464)
      0.25 = coord(1/4)
    
    Abstract
    Immer mehr wissenschaftliche Bibliotheken, insbesondere Hochschulbibliotheken, erweitern ihre E-Learningangebote um sogenannte Online-Tutorials. Solche interaktiven, multi-medialen Lernprogramme bieten den Nutzern die Möglichkeit, sich zeit- und ortsunabhängig selbständig grundlegende Themen der Bibliotheks- und Informationskompetenz anzueignen. In der bibliothekarischen Fachliteratur finden sich aber keine Aussagen darüber, in welchem Umfang und wie lerneffektiv diese - meist mit hohem Aufwand erstellte - Angebote tatsächlich genutzt werden. Um die Lernwirksamkeit überprüfen zu können, bedarf es Online-Tutorials, die über einen automatisierten elektronischen Test verfügen, anhand dessen Nutzer eigenständig den Erwerb der Lerninhalte kontrollieren können. Die vorliegende Arbeit versteht sich als ein Beitrag zur Konzeption evaluierbarer Online-Tutorials. Skizziert wird eine strukturierte Vorgehensweise zur Umsetzung von Tutorials, die statistisch auswertbare Daten zur Lerneffektivität generieren. Im Fokus stehen hierbei didaktische Bedingungen automatisierter Lernerfolgskontrollen und deren Umsetzung anhand sogenannter geschlossener Aufgaben. Da sich mit diesem Aufgabentypus nur bestimmte kognitive Leistungsbereiche messen lassen, ist im Vorfeld zu prüfen, dass ein Tutorial nur Lerninhalte vermittelt, deren Erwerb anschließend auch mit geschlossenen Aufgaben überprüft werden kann. Unter Rückgriff auf eine spezifische E-Learning-Taxonomie wird offensichtlich, dass mindestens Reproduktions-, Verständnis- und Anwendungsleistungen umsetzbar sind. Wie entsprechende Aufgabenstellungen in bibliothekarischen Online-Tutorials aussehen können, wird an Beispielfragen zur Überprüfung von Fakten-, Konzept- und Prozedurenwissen demonstriert.
  5. Boiger, W.: Entwicklung und Implementierung eines MARC21-MARCXML-Konverters in der Programmiersprache Perl (2015) 0.01
    0.010303412 = product of:
      0.041213647 = sum of:
        0.041213647 = weight(_text_:und in 3466) [ClassicSimilarity], result of:
          0.041213647 = score(doc=3466,freq=14.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.32416478 = fieldWeight in 3466, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=3466)
      0.25 = coord(1/4)
    
    Abstract
    Aktuell befinden sich im Datenbestand des gemeinsamen Katalogs des Bibliotheksverbundes Bayern und des Kooperativen Bibliotheksverbundes Berlin-Brandenburg (B3Kat) etwa 25,6 Millionen Titeldatensätze. Die Bayerische Verbundzentrale veröffentlicht diese Daten seit 2011 im Zuge der bayerischen Open-Data-Initiative auf ihrer Webpräsenz. Zu den Nachnutzern dieser Daten gehören die Deutsche Digitale Bibliothek und das Projekt Culturegraph der DNB. Die Daten werden im weitverbreiteten Katalogdatenformat MARCXML publiziert. Zur Erzeugung der XML-Dateien verwendete die Verbundzentrale bis 2014 die Windows-Software MarcEdit. Anfang 2015 entwickelte der Verfasser im Rahmen der bayerischen Referendarsausbildung einen einfachen MARC-21-MARCXML-Konverter in Perl, der die Konvertierung wesentlich erleichert und den Einsatz von MarcEdit in der Verbundzentrale überflüssig macht. In der vorliegenden Arbeit, die zusammen mit dem Konverter verfasst wurde, wird zunächst die Notwendigkeit einer Perl-Implementierung motiviert. Im Anschluss werden die bibliographischen Datenformate MARC 21 und MARCXML beleuchtet und für die Konvertierung wesentliche Eigenschaften erläutert. Zum Schluss wird der Aufbau des Konverters im Detail beschrieben. Die Perl-Implementierung selbst ist Teil der Arbeit. Verwendung, Verbreitung und Veränderung der Software sind unter den Bedingungen der GNU Affero General Public License gestattet, entweder gemäß Version 3 der Lizenz oder (nach Ihrer Option) jeder späteren Version.[Sie finden die Datei mit der Perl-Implementierung in der rechten Spalte in der Kategorie Artikelwerkzeuge unter dem Punkt Zusatzdateien.]
  6. Herb, U.: Open Access zwischen Revolution und Goldesel : eine Bilanz fünfzehn Jahre nach der Erklärung der Budapest Open Access Initiative (2017) 0.01
    0.010303412 = product of:
      0.041213647 = sum of:
        0.041213647 = weight(_text_:und in 4551) [ClassicSimilarity], result of:
          0.041213647 = score(doc=4551,freq=14.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.32416478 = fieldWeight in 4551, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4551)
      0.25 = coord(1/4)
    
    Abstract
    Die Erklärungen und Positionierungen zu Open Access anfangs der 2000er Jahre waren von Umbruchstimmung, Euphorie und Idealismus getragen, eine Revolution des wissenschaftlichen Publizierens wurde vielfach vorhergesagt. Die Erwartungen an Open Access lagen auf der Hand und waren umrissen: Wissenschaftlern war an rascher Verbreitung ihrer eigenen Texte gelegen sowie an der Verfügbarkeit der Texte ihrer Kollegen, Bibliothekaren an einer Abhilfe für stark steigende Journalpreise, den Wissenschaftseinrichtungen an effizienter und freier Verbreitung ihrer Inhalte. Einzig die Position der kommerziellen Wissenschaftsverlage zu Open Access war überwiegend zögerlich bis ablehnend. Der Artikel versucht sich 15 Jahre nach dem Treffen der Budapest Open Access Initiative 2001 an einer Bilanz zum Open Access. 2016 muss festgehalten werden, dass die von den maßgeblichen Open-Access-Advokaten früherer Tage erhoffte Revolution wohl ausbleiben wird. Vielmehr scheint aktuell die Entwicklung des Open Access weitgehend von den vormals in Open-Access-Szenarien kaum erwähnten kommerziellen Verlagen angetrieben. Zwar findet sich auch Open Access in wissenschaftlicher Selbstverwaltung, dennoch bleiben die Akteure im wissenschaftlichen Publizieren bislang die gleichen wie 2001 und die schon damals bekannten Konzentrationseffekte am Publikationsmarkt setzen sich fort.
    Source
    Information - Wissenschaft und Praxis. 68(2017) H.1, S.1-10
  7. Busch, U.: Aspekte der Geldkritik von Aristoteles bis heute (2017) 0.01
    0.010303412 = product of:
      0.041213647 = sum of:
        0.041213647 = weight(_text_:und in 4660) [ClassicSimilarity], result of:
          0.041213647 = score(doc=4660,freq=14.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.32416478 = fieldWeight in 4660, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4660)
      0.25 = coord(1/4)
    
    Abstract
    Geld ist allgegenwärtig. Es bestimmt den Alltag des Einzelnen ebenso wie den Erfolg von Unternehmen und das Schicksal von Staaten. Es ist so alt wie die menschliche Zivilisation und mit dem Kapitalismus besonders eng verbunden. Gleiches gilt für die Geldkritik. Auch sie gibt es seit der Antike - und nicht selten tritt die Kritik am Kapitalismus prononciert als Geldkritik in Erscheinung. Dies gilt heutzutage mehr denn je. In welchen Formen offenbart sich die Kritik am Geld in der Gegenwart? Und zu welchen Missverständnissen kommt es dabei? Ist die Fokussierung linker Gesellschaftskritik auf das Geld wissenschaftlich begründet? Welche Zukunft haben Geld und Finanzen in einer postkapitalistischen Gesellschaft? Diesen Fragen wird sich Ulrich Busch widmen, dessen Buch "Die Welt des Geldes. Zehn Essays zur monetären Ökonomie" gerade erschienen ist. Der Vortrag ist zugleich Auftakt und Einstieg in eine kleine Reihe zum Thema Geld, der sich die Veranstaltungsreihe "Vielfalt sozialistischen Denkens" 2017 widmen wird.
    Content
    Das vorliegende Heft enthält die überarbeitete und ergänzte Fassung eines Vortrages, den Dr. Ulrich Busch zu diesem Thema im Rahmen einer Veranstaltung der Hellen Panke am 6. März 2017 in Berlin gehalten hat. In den Anhang wurde ein 2014 in "Das Blättchen" veröffentlichter Beitrag des Referenten sowie die Zusammenstellung einer Auswahl von Veröffentlichungen des Autors zu dieser Thematik aufgenommen.
  8. Bredemeier, W.: ¬Das Entschwinden der Branche (2017) 0.01
    0.010303412 = product of:
      0.041213647 = sum of:
        0.041213647 = weight(_text_:und in 4685) [ClassicSimilarity], result of:
          0.041213647 = score(doc=4685,freq=14.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.32416478 = fieldWeight in 4685, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4685)
      0.25 = coord(1/4)
    
    Abstract
    Von ergriffenen, vertanen und immer wieder neuen Chancen und von der Entwicklung der Information Professionals zu den, ja was? Monitoring the Information Industry 1988 - 2007 und 2000 - 2007. Jetzt eingeleitet als: "Der Mutmacher" mit dem Text: Als ich vor zehn Jahren mein Referat zum "Entschwinden der Branche" anlässlich der Buchmesse 2007 redigierte und fortschrieb und zum "Trend des Jahres" erhob, hatte ich so etwas, wiewohl mit den Jahren skeptischer geworden, wie "Aufrütteln", "Anpacken" und "Die Ärmel hochkrempeln" im Sinn. Wenn ich diesen Beitrag heute nach einem Jahrzehnt noch einmal veröffentliche, so deshalb, weil seine Aktualität durch den Zahn der Zeit kaum geschmälert worden ist. Damit verbunden ist die Lage der Branche nicht besser geworden. Was vor allem würde ich heute anders schreiben? Heute würde ich eher versuchen, Trost zu spenden und Mut zu machen: Ja, wir haben Potenziale. Ja, wir können etwas bewegen, wenn nicht allein, dann doch zu zweit oder zu dritt. Die Chancen liegen 2017 immer noch auf der Straße. Wir müssen sie nur ergreifen.
  9. Capulcu redaktionskollektiv: DISRUPT! : Widerstand gegen den technologischen Angriff (2017) 0.01
    0.010303412 = product of:
      0.041213647 = sum of:
        0.041213647 = weight(_text_:und in 62) [ClassicSimilarity], result of:
          0.041213647 = score(doc=62,freq=14.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.32416478 = fieldWeight in 62, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=62)
      0.25 = coord(1/4)
    
    Abstract
    DISRUPT! beschreibt die Versuche, das menschliche Dasein den Anforderungen einer reduktionistischen künstlichen Intelligenz zu unterwerfen. Der Anpassungsdruck des Menschen an die Maschine wirkt bereits jetzt - weit vor einer vollständigen Vernetzung aller mit allem. Das redaktionskollektiv çapulcu dechiffriert diese - oft unhinterfragte - Entwicklung als Angriff auf unsere Autonomie und analysiert seine endsolidarisierende Wirkung. Denn Technologie ist nie neutral, sondern immanent politisch. Mit Macht vorangetriebene technologische Schübe sind schwer und selten umkehrbar, sobald sie gesellschaftlich erst einmal durchgesetzt sind und der darüber geprägte >Zeitgeist< selbstverstärkend für die notwendige Stabilisierung gesorgt hat. Warten wir, bis sämtliche Erscheinungsformen und Konsequenzen dieses Angriffs auf unsere Sozialität (all-)gegenwärtig geworden sind, haben wir verloren. Es bliebe uns dann nur noch eine Analyse der vermeintlichen >Entwicklung< in Retrospektive. Ein Gegenangriff auf die Praxis und die Ideologie der totalen Erfassung erscheint deshalb zwingend notwendig. Die Autor*innen plädieren für die Wiederbelebung einer praktischen Technologiekritik zwischen Verweigerung und widerständiger Aneignung spezifischer Techniken.
    Content
    Vgl.: https://www.unrast-verlag.de/neuerscheinungen/disrupt-detail. Das capulcu redaktionskollektiv ist eine Gruppe von technologie-kritischen Aktivist*innen und Hacktivist*innen. Mehr Informationen auf capulcu.blackblogs.org
  10. Jasberg, K.; Sizov, S.: Unsicherheiten menschlicher Entscheidungsfindung in Empfehlungssystemen : oder: Was wir von den klassischen Naturwissenschaften übernehmen können (2018) 0.01
    0.010303412 = product of:
      0.041213647 = sum of:
        0.041213647 = weight(_text_:und in 237) [ClassicSimilarity], result of:
          0.041213647 = score(doc=237,freq=14.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.32416478 = fieldWeight in 237, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=237)
      0.25 = coord(1/4)
    
    Abstract
    Eines der wichtigsten Anliegen adaptiver Informationssysteme ist die Modellierung menschlichen Verhaltes, um unter anderem Benutzerpersonalisierung und Empfehlungen anbieten zu können. Dies geschieht gewöhnlich durch die Beobachtung der Nutzerinteraktionen und durch das direkte Befragen der Benutzer selbst. Wie im Alltag, so auch im Umgang mit Informationssystemen, erweisen sich Menschen in ihren Entscheidungen als unbeständig und sprunghaft; komplexe Kognitionen führen nicht immer zu demselben Ergebnis, sodass sich Wahrscheinlichkeiten für eine Vielzahl möglicher Entscheidungen ergeben. Dieses Phänomen besitzt einen großen Einfluss auf heutige Informationssysteme. Daher stellt sich die Frage nach einer effektiven Modellierung dieser Unsicherheit in der menschlichen Entscheidungsfindung. In diesem Beitrag betrachten wir die Grundidee der Unsicherheit aus drei verschiedenen Perspektiven: der Mensch-Maschine-Interaktion, der Metrologie bzw. Physik sowie der Neurowissenschaft. Durch das Zusammenführen dieser Theorien bzw. der Übertragung ihrer spezifischen Methoden können wir eine wichtige Quelle der Unsicherheit menschlicher Entscheidungsfindung identifizieren und die begrenzte Möglichkeit ihrer Vermessung thematisieren. Der Einfluss dieser Unsicherheit wird dabei exemplarisch am Beispiel der komparativen Bewertung von Empfehlungsdiensten illustriert. Basierend auf unseren Ergebnissen diskutieren wir die möglichen Auswirkungen auf Informationssysteme im Allgemeinen und geben einen kurzen Überblick über mögliche Lösungsstrategien.
    Footnote
    Teil eines Themenheftes: Themenheft: Düsseldorfer und Grazer Informationswissenschaft / Gastherausgeber: Wolfgang G. Stock, Christian Schlögl.
    Source
    Information - Wissenschaft und Praxis. 69(2018) H.1, S.21-30
  11. Vogl, A.: Wer hat das bessere Bild? : der Wettbewerb um mediale Aufmerksamkeit in der Astronomie (2018) 0.01
    0.010303412 = product of:
      0.041213647 = sum of:
        0.041213647 = weight(_text_:und in 238) [ClassicSimilarity], result of:
          0.041213647 = score(doc=238,freq=14.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.32416478 = fieldWeight in 238, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=238)
      0.25 = coord(1/4)
    
    Abstract
    Big Data in der Astronomie ist die Folge systematischen Sammelns von Informationen, die durch neue Möglichkeiten digitaler Bilderfassung gewonnen werden. Durch aufwendige Bildverarbeitungsprozesse entstehen so imposante astronomische Bilder mit hoher Informationsdichte. Mit der Zeit haben diese Bilder das Feld der Wissenschaftscommunity in zunehmendem Maße verlassen und Einzug in populäre Massenmedien gehalten. Neben ihrer ursprünglich rein epistemischen Funktion wird offenbar, welch hohen Authentizitätsanspruch und Faszinationsgehalt diese bisweilen aufsehenerregenden Bilder bei einem breiten Laienpublikum auslösen können. Zeigen sich in Originalaufnahmen noch komplexe visuelle Informationen wissenschaftlicher Relevanz, so werden diese nicht selten mit dem Argument der "besseren Verständlichkeit" in den PR-Abteilungen der Forschungszentren stark vereinfacht und modifiziert, um den kulturellen Sehgewohnheiten einer wissenschaftsaffinen Öffentlichkeit zu entsprechen. In Zeiten knapper Forschungsbudgets werden wiederholt diese digital aufgeputzten Bilder einem staunenden Laien-Publikum präsentiert, um so die eigene Forschungsarbeit besser legitimieren zu können. Bei der Analyse dieser Bildmedien wird ein überstrapazierter Einsatz von Falschfarbendarstellungen, Kontrastverstärkungen und fragwürdigen Kontextualisierungen offenkundig, der das ungeschulte Auge in die Irre führt. Um medienethischen Anforderungen gerecht zu werden, ist es daher angebracht, in Publikationen diese verborgenen Bildentstehungsprozesse deutlicher als bisher zu kommunizieren und von rein illustrativen und unwissenschaftlichen Darstellungsformen mit fotorealistischem Anmutungscharakter Abstand zu nehmen.
    Source
    Information - Wissenschaft und Praxis. 69(2018) H.2/3, S.95-114
  12. Vier bibliometrische Kennzahlen auf Grundlage von zbMATH-Daten (2017) 0.01
    0.010303412 = product of:
      0.041213647 = sum of:
        0.041213647 = weight(_text_:und in 315) [ClassicSimilarity], result of:
          0.041213647 = score(doc=315,freq=14.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.32416478 = fieldWeight in 315, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=315)
      0.25 = coord(1/4)
    
    Abstract
    Die Karte stellt für die deutschen Universitäten und einige zu Vergleichszwecken ausgewählte außeruniversitäre Forschungseinrichtungen vier bibliometrische Kennzahlen auf Grundlage von zbMATH-Daten dar: Die Zahl der 2010 publizierten Arbeiten (links oben) und ihre gesamten zugehörigen Zitationen (links unten) sowie die Zahl der 2014 publizierten Arbeiten (rechts oben) und ihre gesamten zugehörigen Zitationen (rechts unten). Die Zusammenfassung auf Universitätsebene begründet sich damit, dass mathematische Arbeiten an einer Universität ggf. von Mitgliedern verschiedener Einrichtungen und/oder Fakultäten geschrieben werden. Die unterschiedliche Struktur der einzelnen Universitäten macht einen Vergleich von Einzeleinrichtungen sehr aufwändig. Zu beachten ist auch, dass die inhärente Fehlerquote sowohl bei der Zuordnung von Referenzstrings zu Arbeiten als auch von Arbeiten zu Autoren und Institutionen sich bei den Gesamtzahlen zu einer Abweichung von bis zu 20 % kumulieren kann. Die Jahre 2010 und 2014 wurden gewählt, da zum einen nach vier Jahren ein signifikanter Anteil der Zitationen relativ zum Publikationswachstum verfügbar ist (vgl. Abb. 4 auf S. 211), zum anderen für 2014 zumindest die Publikationsdaten einschließlich gedruckter Konferenzbände weitgehend vollständig erfasst sind (s. Anmerkung 2 auf Seite S. 213).
    Footnote
    Die Karte wurde nachträglich per Mail vom 19.04.2018 korrigiert und in dem Mitt DMV 2018, H.1, S.4 abgedruckt.
  13. Lembke, G.; Leipner, I.: ¬Die Lüge der digitalen Bildung : warum unsere Kinder das Lernen verlernen (2018) 0.01
    0.010303412 = product of:
      0.041213647 = sum of:
        0.041213647 = weight(_text_:und in 319) [ClassicSimilarity], result of:
          0.041213647 = score(doc=319,freq=14.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.32416478 = fieldWeight in 319, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=319)
      0.25 = coord(1/4)
    
    Abstract
    Die Panikmache geht weiter: Unisono fordern Politiker und Industrie, dass Schüler mit allerlei Technik überhäuft werden, um den Anschluss ans digitale Zeitalter nicht zu verpassen. Diese Digitalisierung der Bildung erfolgt jedoch fast nur technologie- und ökonomiegetrieben. Pädagogische Konzepte? Fehlanzeige! Die Autoren üben nicht nur Kritik an dieser Art von Digitalisierung, sondern nehmen in dieser Neuauflage gezielt auch die wirtschaftlichen Verflechtungen aufs Korn, die zwischen IT-Industrie und Bildungspolitik bestehen. Sie greifen zentrale Mythen der Digital-Befürworter an und entlarven die Anstrengungen für eine »Lernfabrik 4.0«, in der Computer allmählich Lehrer ersetzen sollen. Die Autoren danken insbesondere auch der FDP für ihr inspirierendes Wahlplakat »Digital first. Bedenken second«. Und zeigen, dass gerade das Gegenteil richtig ist.
    BK
    81.68 Computereinsatz in Unterricht und Ausbildung
    Classification
    81.68 Computereinsatz in Unterricht und Ausbildung
  14. Rapp, F.; Kombrink, S.; Kushnarenko, V.; Fratz, M.; Scharon, D.: SARA-Dienst : Software langfristig verfügbar machen (2018) 0.01
    0.010303412 = product of:
      0.041213647 = sum of:
        0.041213647 = weight(_text_:und in 356) [ClassicSimilarity], result of:
          0.041213647 = score(doc=356,freq=14.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.32416478 = fieldWeight in 356, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=356)
      0.25 = coord(1/4)
    
    Abstract
    Software spielt in vielen Disziplinen eine wichtige Rolle im Forschungsprozess. Sie ist entweder selbst Gegenstand der Forschung oder wird als Hilfsmittel zur Erfassung, Verarbeitung und Analyse von Forschungsdaten eingesetzt. Zur Nachvollziehbarkeit der durchgeführten Forschung sollte Software langfristig verfügbar gemacht werden. Im SARA-Projekt zwischen der Universität Konstanz und der Universität Ulm wird ein Dienst entwickelt, der versucht die Einschränkungen bereits bestehender Angebote aufzuheben. Dies beinhaltet u.a. die Möglichkeit, die gesamte Entwicklungshistorie auf einfache Weise mitzuveröffentlichen und für Dritte zur Online-Exploration anzubieten. Zudem bestimmen die Forschenden den Zeitpunkt und Umfang der zu archivierenden/veröffentlichenden Software-Artefakte selbst. Der SARA-Dienst sieht auch die Möglichkeit vor, eine Archivierung ohne Veröffentlichung vorzunehmen. Der geplante Dienst verbindet bereits bestehende Publikations- und Forschungsinfrastrukturen miteinander. Er ermöglicht aus der Arbeitsumgebung der Forschenden heraus eine Archivierung und Veröffentlichung von Software und unterstützt Forschende dabei, bereits prozessbegleitend Zwischenstände ihrer Forschung festzuhalten. Aufgrund seines modularen Aufbaus kann der SARA-Dienst in unterschiedlichen Szenarien zum Einsatz kommen, beispielsweise als kooperativer Dienst für mehrere Einrichtungen. Er stellt eine sinnvolle Ergänzung zu bestehenden Angeboten im Forschungsdatenmanagement dar.
  15. Koch, M.: ¬Das Wissen der Welt : vor 300 Jahren wurde der Mathematiker und Enzyklopädist Jean-Baptiste le Rond d'Alembert geboren (2017) 0.01
    0.010303412 = product of:
      0.041213647 = sum of:
        0.041213647 = weight(_text_:und in 688) [ClassicSimilarity], result of:
          0.041213647 = score(doc=688,freq=14.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.32416478 = fieldWeight in 688, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=688)
      0.25 = coord(1/4)
    
    Abstract
    Bis heute findet sich der Name des französischen Gelehrten und Mathematikers Jean-Baptiste le Rond d'Alembert in vielen Geschichtsbüchern. Das hat vor allem einen Grund: Gemeinsam mit dem Philosophen Denis Diderot gab d'Alembert eines der wichtigsten Werke der Aufklärung heraus. Dessen etwas ausladender Titel lautet: »Enzyklopädie oder ein durchdachtes Wörterbuch der Wissenschaften, Künste und Handwerke«. Ziel der Herausgeber war es, »ein allgemeines Bild der Anstrengungen des menschlichen Geistes auf allen Gebieten und in allen Jahrhunderten zu entwerfen«. An der Abfassung der mehr als 70 000 Enzyklopädie-Artikel beteiligte sich fast die gesamte geistige Elite Frankreichs, darunter Jean-Jacques Rousseau, Voltaire und Montesquieu. Der erste Band erschien 1751 und enthielt ein viel beachtetes Vorwort von d'Alembert, der gelegentlich erklärte: Das Wissen der Menschheit stamme nicht von einem Monarchen oder aus Rom, sondern vom individuellen Sinn und Verstand. Erwartungsgemäß stand der französische König Ludwig XV. dem Werk ebenso ablehnend gegenüber wie Papst Clemens XIII., der die Enzyklopädie 1759 auf den Index der verbotenen Bücher setzen ließ. Doch alle Versuche, den Fortgang des Projekts zu verhindern, scheiterten. Zuletzt umfasste das aufklärerische Mammutwerk 35 Bände; den Schluss bildete 1780 ein zweibändiges Register.
  16. Jaeger, L.: Diskussion um die Gestaltung des technologischen Fortschritts am Beispiel der Künstlichen Intelligenz (2019) 0.01
    0.010303412 = product of:
      0.041213647 = sum of:
        0.041213647 = weight(_text_:und in 963) [ClassicSimilarity], result of:
          0.041213647 = score(doc=963,freq=14.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.32416478 = fieldWeight in 963, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=963)
      0.25 = coord(1/4)
    
    Content
    "Wie das konkret aussehen kann, könnte eine Initiative der EU-Kommission mit der Gründung einer Experten-Gruppe (High-Level Expert Group on Artificial Intelligence, AI HLEG) aufzeigen, die sich im Dezember 2018 mit einem Beitrag "Ethische Grundlagen für eine vertrauenswürdige KI" an die Öffentlichkeit wandte. "Künstliche Intelligenz (KI) ist eine der transformativsten Kräfte unserer Zeit und wird das Gewebe der Gesellschaft verändern", heißt es darin gleich zu Beginn. Die Experten nennen daraufhin die Prinzipien auf dem Weg zu einer verantwortungsvollen Entwicklung der KI-Technologien. Insbesondere sei hier ein "anthropo-zentrischer" Ansatz vonnöten, so die Gruppe unisono. Ziel ist es, die Entwicklung der KI derart zu gestalten, dass der einzelne Mensch, seine Würde und seine Freiheit geschützt werde, Demokratie, Recht und Gesetz sowie Bürgerrechte aufrecht erhalten werden und Gleichheit, Minderheitenschutz und Solidarität gefördert werden. Grundlegende Richtlinien für jede KI-Technologie müssen daher sein: 1. Den Menschen Gutes zukommen zu lassen; 2. kein menschliches Leid zu verursachen; 3. die menschliche Autonomie zu fördern; 4. das Prinzip der Fairness gelten zu lassen; und 5. Transparenz und Nachvollziehbarkeit in allen Wirkungen zu erreichen." Vgl. auch: https://ec.europa.eu/digital-single-market/en/high-level-expert-group-artificial-intelligence.
  17. Paech, N: Befreiung vom Überfluss : auf dem Weg in die Postwachstumsökonomie (2018) 0.01
    0.010303412 = product of:
      0.041213647 = sum of:
        0.041213647 = weight(_text_:und in 18) [ClassicSimilarity], result of:
          0.041213647 = score(doc=18,freq=14.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.32416478 = fieldWeight in 18, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=18)
      0.25 = coord(1/4)
    
    Abstract
    Noch ist die Welt nicht bereit, von der Droge »Wachstum« zu lassen. Aber die Diskussion über das Ende der Maßlosigkeit nimmt an Fahrt auf. Der Umweltökonom Niko Paech liefert dazu die passende Streitschrift, die ein »grünes« Wachstum als Mythos entlarvt. Nach einer vollen Arbeitswoche möchte man sich auch mal etwas gönnen: ein neues Auto, ein iPad, einen Flachbildfernseher. Ruckzuck steckt man im Teufelskreis aus Konsumwunsch und Zeitmangel. Und nicht nur das: der stete Ruf nach »mehr« lässt Rohstoffe schwinden und treibt die Umweltzerstörung voran. Dabei gelten »grünes« Wirtschaftswachstum und »nachhaltiger« Konsum als neuer Königsweg. Doch den feinen Unterschied - hier »gutes«, dort »schlechtes« Wachstum - hält Niko Paech für Augenwischerei. In seinem Gegenentwurf, der Postwachstumsökonomie, fordert er industrielle Wertschöpfungsprozesse einzuschränken und lokale Selbstversorgungsmuster zu stärken. Das von Paech skizzierte Wirtschaften wäre genügsamer, aber auch stabiler und ökologisch verträglicher. Und es würde viele Menschen entlasten, denen im Hamsterrad der materiellen Selbstverwirklichung schon ganz schwindelig wird.
  18. Hobohm, H.-C.: PI (Philosophy of Information), SE (Social Epistemology) oder Natur, Leben und Evolution : Andere Disziplinen als Orientierungshilfen für die Informationswissenschaft. Was die benachbarten Wissenschaften für die Informationswissenschaft tun können (2019) 0.01
    0.010303412 = product of:
      0.041213647 = sum of:
        0.041213647 = weight(_text_:und in 260) [ClassicSimilarity], result of:
          0.041213647 = score(doc=260,freq=14.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.32416478 = fieldWeight in 260, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=260)
      0.25 = coord(1/4)
    
    Abstract
    Es handelt sich hier um einen aus Krankheitsgründen nicht gehaltenen und erweiterten Beitrag zu einer Podiumsdiskussion auf der diesjährigen iConference in Sheffield (März 2018), die unter dem Titel "Curating the Infosphere" den Ansatz von Luciano Floridi zu einer umfassenden philosophisch-logischen Informationswissenschaft kritisch diskutierte. Während Floridi an seinem sehr weitreichenden Konzept der PI (Philosophy of Information) auf der Basis seiner GDI (General Definition of Information) arbeitet, ist außerhalb unseres Feldes die Social Epistemology der BibliothekswissenschaftlerInnen Margeret Egan und Jesse Shera wieder in den Blick der Erkenntnistheorie geraten. Ferner ist zu beobachten, dass sich andere Wissenschaften in großem Maße des Phänomens Information bemächtigen und es in ihr Wissenschaftsgebäude einbauen. Der vorliegende Text ist ein Plädoyer, genauer hinzuschauen, worum es der Informationswissenschaft ursprünglich ging und dafür, dass sie bei dem großen transdisziplinären Projekt mitwirken sollte, das andere Wissenschaften betreiben.
    Footnote
    Fortsetzung als Teil 2: Pedauque - Philosophie of Information - Mathematik und Kybernetik. Unter: Open Password. 2019, Nr.559 vom 14. Mai 2019 [https://www.password-online.de/?wysija-page=1&controller=email&action=view&email_id=706&wysijap=subscriptions&user_id=1045]. Fortsetzung als Teil 3: Naturwissenschaften und Evolution: Die Rolle der Informationswissenschaft. Unter: Open Password. 2019, Nr.564 vom 23. Mai 2019 [https://www.password-online.de/?wysija-page=1&controller=email&action=view&email_id=709&wysijap=subscriptions&user_id=1045].
  19. Westphalen, A. von: ¬Die Wiederentdeckung des Menschen : warum Egoismus, Gier und Konkurrenz nicht unserer Natur entsprechen (2019) 0.01
    0.010303412 = product of:
      0.041213647 = sum of:
        0.041213647 = weight(_text_:und in 700) [ClassicSimilarity], result of:
          0.041213647 = score(doc=700,freq=14.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.32416478 = fieldWeight in 700, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=700)
      0.25 = coord(1/4)
    
    Abstract
    "Menschen sind halt so..." Der Mensch ist von Natur aus egoistisch und faul. Generell ist er darauf aus, den größten Nutzen für sich selbst herauszuschlagen und bringt seine beste Leistung nur unter Konkurrenzdruck. So zumindest die herrschende Meinung in Wissenschaft, Wirtschaft und Politik - mit weitreichenden Folgen, die wir alle zu spüren bekommen: zum Beispiel in der verfehlten Bildungs- und Sozialpolitik oder in einer zunehmend kontrollierten Arbeitswelt. Das Menschenbild im Kapitalismus ist nichts weiter als eine von der Wirtschaft verbreitete Mär. In diesem Buch widerlegt Andreas von Westphalen die These des egoistischen Nutzenmaximierers und beweist anhand vieler spannender Beispiele, dass wir ganz anders ticken. Ein reichhaltiges Angebot an guten Argumenten gegen die Besserwisser aus den Chefetagen, den Beraterfirmen und den Stammtischrunden.
  20. Schildt, J.: Konkreter Perspektivismus : Selbstverhältnisse, Beziehungen zum Anderen und die Frage nach dem Verstehen im interkulturellen Kontext (2010) 0.01
    0.010303412 = product of:
      0.041213647 = sum of:
        0.041213647 = weight(_text_:und in 1510) [ClassicSimilarity], result of:
          0.041213647 = score(doc=1510,freq=14.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.32416478 = fieldWeight in 1510, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1510)
      0.25 = coord(1/4)
    
    Abstract
    Warum und wie sollen wir fremde Kulturen verstehen? Interkulturelle Verständigung zählt im globalen Zeitalter nicht mehr nur zum guten Ton, denn wo Kulturen aufeinandertreffen, stoßen oft auch unterschiedliche politische Überzeugungen, sittliche Einstellungen und soziale Ansprüche zusammen. Erfolgreiche Vermittlungsprozesse sind "Dealmaker" und Garant auf globalisierten Handelspfaden und Verhandlungswegen. Diesem Tatbestand trägt Judith Schildt Rechnung, indem sie sich der Frage nach der Möglichkeit eines spezifisch auf fremde Kulturen bezogenen Verstehens widmet. In Auseinandersetzung mit einschlägigen Positionen der Philosophiegeschichte entfaltet sie das Konzept eines 'konkreten Perspektivismus', in welchem sich eine Offenheit gegenüber anderen Kulturen mit asymmetrischen Beziehungen zum Fremden verschränkt sieht. Während die Autorin mit Gottfried Wilhelm Leibniz das Problem von Universalismus und Relativismus diskutiert, bestimmt sie mit Søren Kierkegaard das individuelle Selbst als perspektivischen Dreh- und Angelpunkt jeglichen Verstehens. Mit Bernhard Waldenfels konturiert sie den Bezug auf Fremdes als ordnungskulturellen Hiatus, während sie im Anschluss an Niklas Luhmann funktionalistische Effekte des Verstehens bestimmt. Kultur entfaltet sich so als Einspruch gegen interpretative Verstarrungstendenzen. Den auf dieser Grundlage gewonnenen Erkenntnissen schließt die Autorin eine Fallstudie zur zeitgenössischen chinesischen Technikphilosophie an.

Languages

  • d 1631
  • e 213
  • a 1
  • More… Less…

Types

  • a 1375
  • el 403
  • m 279
  • x 74
  • s 60
  • r 26
  • n 8
  • i 3
  • b 2
  • p 2
  • v 2
  • ms 1
  • More… Less…

Themes

Subjects

Classifications