Search (1872 results, page 41 of 94)

  • × year_i:[2010 TO 2020}
  1. Vom Buch zur Datenbank : Paul Otlets Utopie der Wissensvisualisierung (2012) 0.01
    0.00980301 = product of:
      0.03921204 = sum of:
        0.03921204 = weight(_text_:und in 4074) [ClassicSimilarity], result of:
          0.03921204 = score(doc=4074,freq=16.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.34654674 = fieldWeight in 4074, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4074)
      0.25 = coord(1/4)
    
    Abstract
    Gegen Ende des 19. Jahrhunderts geriet das Dokumentationswesen in eine Krise: wie lässt sich das kulturelle Wissen nachhaltiger organisieren? Paul Otlet (1868-1944), ein belgischer Industriellenerbe und studierter Rechtsanwalt, entwickelte zusammen mit Henri La Fontaine ab 1895 ein Ordnungs- und Klassifikationssystem, das das millionenfach publizierte "Weltwissen" dokumentieren sollte. Otlets Anspruch war die Schaffung eines "Instrument d'ubiquité", das zur "Hyper-Intelligence" führen sollte. Jahrzehnte vor Web und Wikis weisen diese Ideen auf eine globale Vernetzung des Wissens hin. Der vorliegende Titel erinnert an den Pionier Paul Otlet mit einer ausführlichen Einleitung von Frank Hartmann (Bauhaus-Universität Weimar), Beiträgen von W. Boyd Rayward (University of Illinois), Charles van den Heuvel (Königlich Niederländische Akademie der Wissenschaften) und Wouter Van Acker (Universität Gent).
    BK
    06.01 Geschichte des Informations- und Dokumentationswesens
    Classification
    06.01 Geschichte des Informations- und Dokumentationswesens
    RSWK
    Otlet, Paul / Wissensorganisation / Klassifikation / Information und Dokumentation / Geschichte 1895-1944 / Aufsatzsammlung
    Subject
    Otlet, Paul / Wissensorganisation / Klassifikation / Information und Dokumentation / Geschichte 1895-1944 / Aufsatzsammlung
  2. Ball, R.: Digitale Disruption (2016) 0.01
    0.00980301 = product of:
      0.03921204 = sum of:
        0.03921204 = weight(_text_:und in 4114) [ClassicSimilarity], result of:
          0.03921204 = score(doc=4114,freq=4.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.34654674 = fieldWeight in 4114, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=4114)
      0.25 = coord(1/4)
    
    Content
    Vgl.: http://www.forschung-und-lehre.de/wordpress/?p=21891&print=1.
    Source
    Forschung und Lehre. 23(2016) H.9, S.xx-xx
  3. Toepfer, M.; Kempf, A.O.: Automatische Indexierung auf Basis von Titeln und Autoren-Keywords : ein Werkstattbericht (2016) 0.01
    0.00980301 = product of:
      0.03921204 = sum of:
        0.03921204 = weight(_text_:und in 4209) [ClassicSimilarity], result of:
          0.03921204 = score(doc=4209,freq=16.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.34654674 = fieldWeight in 4209, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4209)
      0.25 = coord(1/4)
    
    Abstract
    Automatische Verfahren sind für Bibliotheken essentiell, um die Erschliessung stetig wachsender Datenmengen zu stemmen. Die Deutsche Zentralbibliothek für Wirtschaftswissenschaften - Leibniz-Informationszentrum Wirtschaft sammelt seit Längerem Erfahrungen im Bereich automatischer Indexierung und baut hier eigene Kompetenzen auf. Aufgrund rechtlicher Restriktionen werden unter anderem Ansätze untersucht, die ohne Volltextnutzung arbeiten. Dieser Beitrag gibt einen Einblick in ein laufendes Teilprojekt, das unter Verwendung von Titeln und Autoren-Keywords auf eine Nachnormierung der inhaltsbeschreibenden Metadaten auf den Standard-Thesaurus Wirtschaft (STW) abzielt. Wir erläutern den Hintergrund der Arbeit, betrachten die Systemarchitektur und stellen erste vielversprechende Ergebnisse eines dokumentenorientierten Verfahrens vor.
    Im Folgenden erläutern wir zunächst den Hintergrund der aktuellen Arbeit. Wir beziehen uns auf Erfahrungen mit maschinellen Verfahren allgemein und an der Deutschen Zentralbibliothek für Wirtschaftswissenschaften (ZBW) - Leibniz-Informationszentrum Wirtschaft im Speziellen. Im Anschluss geben wir einen konkreten Einblick in ein laufendes Teilprojekt, bei dem die Systemarchitektur der Automatik gegenüber früheren Arbeiten Titel und Autoren-Keywords gemeinsam verwendet, um eine Nachnormierung auf den Standard-Thesaurus Wirtschaft (STW) zu erzielen. Im Gegenssatz zu einer statischen Verknüpfung im Sinne einer Crosskonkordanz bzw. Vokabularabbildung ist das jetzt verfolgte Vorgehen dokumentenorientiert und damit in der Lage, kontextbezogene Zuordnungen vorzunehmen. Der Artikel stellt neben der Systemarchitektur auch erste experimentelle Ergebnisse vor, die im Vergleich zu titelbasierten Vorhersagen bereits deutliche Verbesserungen aufzeigen.
    Content
    Beitrag in einem Themenschwerpunkt 'Computerlinguistik und Bibliotheken'. Vgl.: http://0277.ch/ojs/index.php/cdrs_0277/article/view/156/354.
  4. Delahaye, J.-P.: Intelligenz bei Mensch und Maschine (2016) 0.01
    0.00980301 = product of:
      0.03921204 = sum of:
        0.03921204 = weight(_text_:und in 4256) [ClassicSimilarity], result of:
          0.03921204 = score(doc=4256,freq=4.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.34654674 = fieldWeight in 4256, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=4256)
      0.25 = coord(1/4)
    
    Abstract
    Manche Computer vollbringen zweifellos intelligente Leistungen - aber nur sehr spezielle und stets auf anderem Weg als der Mensch. Ein neuer theoretischer Ansatz zielt darauf ab, diese Kluft zu überbrücken.
  5. Fenner, M.; Hartmann, S.; Müller, U.; Pampel, H.; Reimer, T.; Scholze, F.; Summann, F.: Autorenidentifikation für wissenschaftliche Publikationen : Bericht über den Workshop der DINI-AG Elektronisches Publizieren auf dem 6. Bibliothekskongress (2016) 0.01
    0.00980301 = product of:
      0.03921204 = sum of:
        0.03921204 = weight(_text_:und in 4309) [ClassicSimilarity], result of:
          0.03921204 = score(doc=4309,freq=16.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.34654674 = fieldWeight in 4309, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4309)
      0.25 = coord(1/4)
    
    Abstract
    Identifikationssysteme für Autorinnen und Autoren spielen für das wissenschaftliche Publizieren eine zentrale Rolle. Sie erlauben die eindeutige Zuordnung von Publikationen zu ihren Urheberinnen und Urhebern, ermöglichen - auch auf übergreifenden Plattformen - gezielte Rechercheeinstiege und unterstützen die semantische Verknüpfung im Netz. Darüber hinaus können Autorenidentifikationssysteme zur einfachen Pflege von Publikationslisten und für die Forschungsevaluation genutzt werden. Neben zahlreichen proprietären Systemen von Verlagen und Datenbankbetreibern widmet sich im Wissenschaftsbereich die global agierende Initiative ORCID (Open Researcher and Contributer ID) der Vergabe einer eindeutigen ID für Forschende. Im deutschen Bibliothekswesen kommt zur Erschließung mit Personenbezug vor allem der Gemeinsamen Normdatei (GND) entscheidende Bedeutung zu. In den Open-Access-Repositorien deutscher Hochschulen und Forschungseinrichtungen hat sich die Verwendung übergreifender Autorenidentifikationssystemen dagegen bislang kaum durchgesetzt. Im Rahmen des 6. Bibliothekskongresses veranstaltete die AG Elektronisches Publizieren der Deutschen Initiative für Netzwerkinformation (DINI) am 15.03.2016 einen Workshop zu diesem Themenfeld. Die Referentinnen und Referenten haben das Thema Autorenidentifikation und deren Anwendungsszenarien aus unterschiedlichen Blickwinkeln beleuchtet. Der vorliegende Beitrag gibt einen Überblick über die Themen des Workshops.
  6. Deaton, A.: Gespaltene Gesellschaft : Ungleichheit (2017) 0.01
    0.00980301 = product of:
      0.03921204 = sum of:
        0.03921204 = weight(_text_:und in 4457) [ClassicSimilarity], result of:
          0.03921204 = score(doc=4457,freq=4.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.34654674 = fieldWeight in 4457, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=4457)
      0.25 = coord(1/4)
    
    Abstract
    In den Industrienationen wächst die Sorge über die wachsende Kluft zwischen Arm und Reich. Soziale Spannungen, verschärft durch Zuzug, Flucht und Migration, gefährden den Zusammenhalt der Zivilgesellschaft.
  7. Pseudo Journale : worum es sich handelt und wie die Wissenschaft gegensteuert (2018) 0.01
    0.00980301 = product of:
      0.03921204 = sum of:
        0.03921204 = weight(_text_:und in 4466) [ClassicSimilarity], result of:
          0.03921204 = score(doc=4466,freq=4.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.34654674 = fieldWeight in 4466, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=4466)
      0.25 = coord(1/4)
    
    Source
    https://www.sciencemediacenter.de/alle-angebote/fact-sheet/details/news/pseudo-journale-worum-es-sich-handelt-und-wie-die-wissenschaft-gegensteuert/
  8. Brantl, M.; Ceynowa, K.; Meiers, T.; Wolf, T.: Visuelle Suche in historischen Werken (2017) 0.01
    0.00980301 = product of:
      0.03921204 = sum of:
        0.03921204 = weight(_text_:und in 4467) [ClassicSimilarity], result of:
          0.03921204 = score(doc=4467,freq=16.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.34654674 = fieldWeight in 4467, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4467)
      0.25 = coord(1/4)
    
    Abstract
    Die Bayerische Staatsbibliothek (BSB) zählt mit ihrem Bestand von knapp 11 Mio. Bänden zu den bedeutendsten Universalbibliotheken der Welt. Bereits 1,2 Mio. Werke sind digitalisiert, was die BSB zur größten digitalen Kulturinstitution in Deutschland macht. Dieser digitale Bestand umfasst vorwiegend urheberrechtsfreie Werke vom 8. bis ins 20. Jahrhundert, von der mittelalterlichen Bibelhandschrift bis zur Boulevardzeitung der 1920er-Jahre. Diese Vielfalt des zu digitalisierenden schriftlichen Kulturerbes und das hohe Tempo der Massendigitalisierung in den letzten Jahren haben ihren Preis - die inhaltliche Erschließung der Werke hinkt hinterher, insbesondere bei Werken, die nicht mittels Optical Character Recognition-Verfahren (OCR) automatisiert maschinenlesbar transformiert und zugänglich gemacht werden können. Dies gilt insbesondere für mittelalterliche Handschriften, Alte Druck- und Spezialbestände. Deshalb blieb auch der reichhaltige, in diesen Werken verborgene Bildbestand für den Nutzer weitestgehend verborgen und konnte lediglich durch das Durchblättern am Bildschirm entdeckt werden. Dies war Motivation für die Bayerische Staatsbibliothek, gemeinsam mit dem Fraunhofer Heinrich-Hertz-Institut in Berlin ein System zur ähnlichkeitsbasierten Bildsuche aufzubauen, welches sämtliche Bildinhalte aller 1,2 Mio. Digitalisate automatisch identifiziert. Hierbei werden mittels morphologischer Verfahren Bilder aus den Buchseiten extrahiert, die danach aufgrund von Farb- und Kantenmerkmalen klassifiziert werden. Bilder "ohne Informationswert" werden mit Hilfe von Methoden aus dem Bereich des maschinellen Lernens herausgefiltert. Damit konnten aus den digitalisierten Werken der BSB bislang mehr als 43 Mio. einzelne Bilder identifiziert werden, die mittels einer hochperformanten Suchmaschine über eine frei verfügbare Web-Applikation dem Anwender direkt zur Verfügung stehen. Dank der Vielfalt und Reichhaltigkeit der indexierten Bestände spricht dieses Angebot nicht nur Historiker und Buchwissenschaftler an, sondern Interessierte aus den unterschiedlichsten Fachrichtungen. Die Ähnlichkeitssuche stellt dabei unbekannte, ungewöhnliche und oftmals überraschende Bezüge zwischen unterschiedlichsten Werken her.
  9. Quattrociocchi, W.: "Fake news" in sozialen Netzwerken (2017) 0.01
    0.00980301 = product of:
      0.03921204 = sum of:
        0.03921204 = weight(_text_:und in 4630) [ClassicSimilarity], result of:
          0.03921204 = score(doc=4630,freq=4.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.34654674 = fieldWeight in 4630, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=4630)
      0.25 = coord(1/4)
    
    Abstract
    Internetnutzer verbreiten in großem Umfang Falschmeldungen und abwegige Verschwörungstheorien. Statistische Untersuchungen von Inhalten auf Facebook zeigen das enorme Ausmaß der Entwicklung und liefern neue Einsichten zu den Mechanismen dieses beunruhigenden Phänomens.
  10. Rötzer, F.: Pentagon will wissenschaftliche Forschung durch KI-Systeme ersetzen (2018) 0.01
    0.00980301 = product of:
      0.03921204 = sum of:
        0.03921204 = weight(_text_:und in 4631) [ClassicSimilarity], result of:
          0.03921204 = score(doc=4631,freq=4.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.34654674 = fieldWeight in 4631, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=4631)
      0.25 = coord(1/4)
    
    Abstract
    Die Darpa sucht nach Vorschlägen, wie KI-Systeme selbst Daten sammeln, Hypothesen entwicklen, Modelle erzeugen und überprüfen können - und das möglichst schnell.
  11. Mühlbauer, P.: Konzeptueller Penis als Ursache für den Klimawandel (2017) 0.01
    0.00980301 = product of:
      0.03921204 = sum of:
        0.03921204 = weight(_text_:und in 4663) [ClassicSimilarity], result of:
          0.03921204 = score(doc=4663,freq=4.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.34654674 = fieldWeight in 4663, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=4663)
      0.25 = coord(1/4)
    
    Abstract
    Ein Philosoph und ein Mathematiker haben den Sokal-Hoax wiederholt und dabei festgestellt, dass einige akademische Bereiche auch 20 Jahre danach nichts daraus gelernt haben.
  12. Wiesenmüller, H.: ¬Das neue Sacherschließungskonzept der DNB in der FAZ (2017) 0.01
    0.00980301 = product of:
      0.03921204 = sum of:
        0.03921204 = weight(_text_:und in 4777) [ClassicSimilarity], result of:
          0.03921204 = score(doc=4777,freq=16.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.34654674 = fieldWeight in 4777, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4777)
      0.25 = coord(1/4)
    
    Abstract
    "Im Mai veröffentlichte die DNB ein neues Sacherschließungskonzept unter dem Titel Grundzüge und erste Schritte der künftigen inhaltlichen Erschließung von Publikationen in der Deutschen Nationalbibliothek (vgl. außerdem die Mitteilung zu den Änderungen ab September 2017 auf der DNB-Website). Ich hatte bisher den Eindruck, dass die dort angekündigten, durchaus einschneidenden Änderungen in der bibliothekarischen Öffentlichkeit bisher kaum zur Kenntnis genommen worden sind."
    Content
    Vgl. auch: Im " Newsletter Standardisierung und Erschließung Nr. 35, August 2017 [http://d-nb.info/1137843217/34] wird auf das GND-Entwicklungsprogramm 2017-2021 verwiesen: https://wiki.dnb.de/download/attachments/125418325/GND_Entwicklungsprogramm17-21_2017-06.pdf?version=1&modificationDate=1496747446000&api=v2 Ab Seite 12: "....zurück in die spartenspezifischen Standardisierungsgremien gespielt werden. Ein weiterer ungeklärter Bereich ist der Umgang mit automatisierter Datenerzeugung: Bei GND-Partnern kommen zunehmend auch maschinelle Verfahren zum Einsatz. Die GND muss sich zu dieser Entwicklung positionieren und klären, auf welche Weise sie automatisierte Prozesse unterstützen kann, ohne dabei die Verlässlichkeit und Qualität der GND zu verwässern. Wichtigstes Konzept, um den unterschiedlichen Interessen gerecht zu werden, ist die Einführung von Anwendergruppen und gruppenspezifischer Bereiche und Sichten: Einige Datenbereiche sind Teil eines von allen Anwendern spartenübergreifend gepflegten und redaktionell bearbeiteten Datensets (GND-CORE), andere Teile werden von den verschiedenen Anwendergruppen gegenseitig als optionale Ergänzungen begriffen, die genutzt werden können, aber redaktionell unabhängig sind (GND-PLUS). Weiterhin müssen ausgefeilte Bearbeitungsrichtlinien und Workflows geschaffen werden......" [Posting Inetbib von A. Meyer vom 09.08.2017].
  13. Siems, R.: Unser industrielles Erbe : Bibliotheken und die digitale Transformation (2017) 0.01
    0.00980301 = product of:
      0.03921204 = sum of:
        0.03921204 = weight(_text_:und in 4997) [ClassicSimilarity], result of:
          0.03921204 = score(doc=4997,freq=16.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.34654674 = fieldWeight in 4997, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4997)
      0.25 = coord(1/4)
    
    Abstract
    Im Verlauf des 20. Jahrhunderts erreichte die Industriearbeit Produktivitätsfortschritte größten Ausmaßes und wurde damit zum strukturellen Vorbild der Büroarbeit auch zu einer Zeit, als dort und nicht mehr in der Industriearbeit die meisten Arbeitsplätze versammelt waren. Die Anforderung, zur weiteren wirtschaftlichen Entwicklung nun in der Büroarbeit ähnliche Fortschritte in der Produktivitätsentwicklung zu erzielen, führt im 21. Jahrhundert zur sukzessiven Ablösung von routineorientierten zu kreativitätsorientierten Tätigkeiten in den Informations- und Dienstleistungsberufen, wobei die routineorientierten mit dem Anwachsen digitaler Möglichkeiten zunehmend automatisiert werden. Im hochschulischen Kontext fand dieser Paradigmenwechsel hin zur digital geformten Wissensarbeit in der Weise bislang nicht statt, da diese beiden Paradigmen schon zuvor nebeneinander existierten: In der Funktionsweise von Verwaltung und Bibliothekswesen lässt sich das industrielle Erbe erkennen, während die Wissenschaft, die das Internet begründete, seitdem einen eigenständigen Weg in die Wissensarbeit sucht. Dabei erweist sich allerdings die industriegesellschaftlich und vordigital geprägte hochschulische Governance als Hemmschuh sowohl für die Wissenschaft wie für die Bibliotheken. Für eine produktive Entwicklung der wissenschaftlichen Kommunikation ist daher eine Ablösung vom industriellen Erbe anzustreben, was für die Bibliotheken einen grundlegenden Wandel in Habitus und Dienstleistungsangebot bedeutete und für die Hochschulen eine Veränderung der Governance-Strukturen.
  14. Becker, M.: Auf dem Weg zum Psychotherapie-Bot (2018) 0.01
    0.00980301 = product of:
      0.03921204 = sum of:
        0.03921204 = weight(_text_:und in 70) [ClassicSimilarity], result of:
          0.03921204 = score(doc=70,freq=4.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.34654674 = fieldWeight in 70, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=70)
      0.25 = coord(1/4)
    
    Abstract
    Pharmafirmen und Wissenschaftler treiben mit Digitaltechnik die Automatisierung der Psychotherapie voran - zum Nutzen von psychisch Kranken? [Vgl. dazu die Ausführungen von Weizenbaum in: Die Macht der Computer und die Ohnemacht der Vernunft.
  15. Lipton, A.; Pentland, A.S.: Ausweg aus dem Bankenmonopol (2018) 0.01
    0.00980301 = product of:
      0.03921204 = sum of:
        0.03921204 = weight(_text_:und in 193) [ClassicSimilarity], result of:
          0.03921204 = score(doc=193,freq=4.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.34654674 = fieldWeight in 193, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=193)
      0.25 = coord(1/4)
    
    Abstract
    Weltweiter Handel kann stattfinden, ohne dass Banken als Vermittler auftreten und dabei reich und gefährlich mächtig werden. Aber die neuen Alternativen bedürfen sorgfältiger Planung. Bitcoin ist dabei nur ein erster, unvollkommener Schritt.
  16. Sieben Fragen zu Bibliometrie : Antworten von Ilka Agricola, Friedrich Götze, Martin Grötschel, Klaus Hulek, Peter Michor, Gabriele Nebe, Hans Jürgen Prömel, Jens Vygen, Gerhard Woeginger (2017) 0.01
    0.00980301 = product of:
      0.03921204 = sum of:
        0.03921204 = weight(_text_:und in 216) [ClassicSimilarity], result of:
          0.03921204 = score(doc=216,freq=16.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.34654674 = fieldWeight in 216, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=216)
      0.25 = coord(1/4)
    
    Abstract
    Wissenschaftliche Institutionen und einzelne WissenschaftlerInnen werden zunehmend nach bibliometrischen Daten beurteilt. Jeder Mathematiker hat Vorbehalte gegenüber dieser Praxis. Über diese beiden Dinge waren sich alle TeilnemerInnen und Wortmeldungen des Panels zur Bibliometrie auf der DMV-Jahrestagung in Salzburg einig. Für einzelne WissenschaftlerInnen hat die IMU bereits 2014 (tinyurl.com/ycd7wvh7) die Vorbehalte gegenüber rein bibliometrischen Beurteilungen klar formuliert. Universitätsleitungen, Politik und andere bis hin zur öffentlichen Diskussion verlassen sich aber teilweise aif diese Art der Bewertung. Konkret kann das so aussehen: Zur Beurteilung von Departements zählt eine Universität Publikationen und gewichtet sie nach ihrer Güte. Die Güte entnimmt man einer Einteilung von Fachzeitschriften etwa in A, B und C. Liegt eine solche Einteilung nicht vor, sind alle Journale des Faches mit 1 gewichtet, d.h. 'junk'. Die Diskrepanz zwischen unserer Einschätzung und der allgemeinen Wirkmächtigkeit von Biblimetrie wirft für die DMV als Fachgegsellschaft die Frage auf, wie sie Einfluss nehmen kann und soll. Die 'Mitteilungen' versuchen an dieser Stelle zunächst, ein möglichst breites Meinungsbild zu sammeln. Wir haben sieben Fragen an eine Reihe von Kolleginnen und Kollegen gestellt, die am Panel teilgenmmen haben oder aus anderen Gründen mit dem Thema besfasst sind.
  17. Gopnik, A.: Lernen wie die Kinder (2018) 0.01
    0.00980301 = product of:
      0.03921204 = sum of:
        0.03921204 = weight(_text_:und in 261) [ClassicSimilarity], result of:
          0.03921204 = score(doc=261,freq=16.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.34654674 = fieldWeight in 261, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=261)
      0.25 = coord(1/4)
    
    Abstract
    Neue Entwicklungen in der künstlichen Intelligenz folgen beim Wissenserwerb einem natürlichen Vorbild - und zwar dem der Ein- bis Fünfjährigen. Wie schaffen es kleine Kinder, in so kurzer Zeit so viel zu lernen? Seit Platons Zeiten zerbrechen sich Philosophen den Kopf daruber und finden keine befriedigende Antwort. Mein funfjahriger Enkel Augie weis jede Menge uber Pflanzen, Tiere und Uhren, von Dinosauriern und Raumschiffen ganz zu schweigen. Auserdem ist ihm klar, was andere Menschen von ihm erwarten, wie sie denken und fuhlen. Er nutzt dieses Wissen zur Einordnung dessen, was er mit seinen Sinnen aufnimmt, und zieht daraus neue Schlusse. So erklarte er mir vor Kurzem, die im American Museum of Natural History in New York ausgestellte neu entdeckte Art von Titanosauriern zahle ebenfalls zu den Pflanzenfressern - sei also eher als harmlos anzusehen. Dabei ist die Information, die Augie von seiner Umwelt aufnimmt, sehr abstrakt und transportiert von sich aus keine Bedeutung: Es sind nichts weiter als Photonen, die auf die Netzhaut seiner Augen treffen, und Schwingungen der Luft, die seine Trommelfelle in Bewegung versetzen. Gleichwohl schafft es der neuronale Computer, der sich hinter Augies blauen Augen verbirgt, von diesen begrenzten Sinneswahrnehmungen ausgehend Aussagen uber Pflanzen fressende Titanosaurier zu treffen. Da stellt sich die Frage: Konnen elektronische Rechner das auch?
  18. Taglinger, H.: Ausgevogelt, jetzt wird es ernst (2018) 0.01
    0.00980301 = product of:
      0.03921204 = sum of:
        0.03921204 = weight(_text_:und in 281) [ClassicSimilarity], result of:
          0.03921204 = score(doc=281,freq=16.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.34654674 = fieldWeight in 281, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=281)
      0.25 = coord(1/4)
    
    Abstract
    Das kennt der Sammler: Da fängt man an, sich für eine Sache zu interessieren und alles darüber zusammenzutragen, was man kriegen kann, und dann hat man sich verhoben, weil man die Sache ein wenig zu groß angegangen ist. So ist es zum Beispiel blöd, in der Wüste zu sitzen und sich zu überlegen, alle Kiefernnadeln weltweit zusammentragen zu wollen, weil das ja von dort aus gesehen nicht so viele sein können. Und dann beginnt man nach einiger Zeit diese Website über die Kiefernwälder weltweit zu finden und sich am Kopf zu kratzen. Also beschließt man nur noch "herausragende Kiefernnadeln" zu sammeln, was immer das sein mag. Aber auf jeden Fall hat man es satt, jeden Tag mehrere Tausend Säcke Bioabfall von schwitzenden Postboten vor die Tore gestellt zu bekommen. So ähnlich muss es der Library of Congress gehen, wenn sie im Dezember 2017 genau das beschließt. Also, nicht wirklich das Sammeln von Kiefernnadeln einzustellen. Vielmehr handelt es sich ja um die umfangreichste Bibliothek der Welt, die alle möglichen Inhalte in Büchern, auf Tonbändern und eben auch Tweets sammelt. Das ist ihr jetzt zu viel geworden. Kann man verstehen, kommen wir ja schon mit dem Lesen von Tweets eines kleinhändigen Präsidenten kaum noch nach, dann muss es da draußen ja auch noch eine ganze Menge anderes Zeugs geben. Die armen Bibliothekare in den dortigen Kellern weinen ja schon, wenn sie wieder tonnenweise kommentierte Retweets und diesen Mist auf den Tisch bekamen, alleine das Ausdrucken von bis zu 280 Zeichen und Bildern dauert ja ewig ... ganz zu schweigen vom Einsortieren.
  19. Bostrom, N.: Superintelligenz : Szenarien einer kommenden Revolution (2016) 0.01
    0.00980301 = product of:
      0.03921204 = sum of:
        0.03921204 = weight(_text_:und in 318) [ClassicSimilarity], result of:
          0.03921204 = score(doc=318,freq=16.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.34654674 = fieldWeight in 318, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=318)
      0.25 = coord(1/4)
    
    Abstract
    Was geschieht, wenn es uns eines Tages gelingt, eine Maschine zu entwickeln, die die menschliche Intelligenz auf so gut wie allen Gebieten übertrifft? Klar ist: Eine solche Superintelligenz wäre enorm mächtig und würde uns vor riesige Kontroll- und Steuerungsprobleme stellen. Mehr noch: Vermutlich würde die Zukunft der menschlichen Spezies in ihren Händen liegen, so wie heute die Zukunft der Gorillas von uns abhängt. Nick Bostrom nimmt uns mit auf eine faszinierende Reise in die Welt der Orakel und Genies, der Superrechner und Gehirnsimulationen, aber vor allem in die Labore dieser Welt, in denen derzeit fieberhaft an der Entwicklung einer künstlichen Intelligenz gearbeitet wird. Er skizziert mögliche Szenarien, wie die Geburt der Superintelligenz vonstattengehen könnte, und widmet sich ausführlich den Folgen dieser Revolution. Sie werden global sein und unser wirtschaftliches, soziales und politisches Leben tief greifend verändern. Wir müssen handeln, und zwar kollektiv, bevor der Geist aus der Flasche gelassen ist - also jetzt! Das ist die eminent politische Botschaft dieses so spannenden wie wichtigen Buches.
  20. Hauff-Hartig, S.: Fehl-, Falsch- und Desinformation aus dem Blickwinkel der Informationswissenschaften : Lassen sich Manipulationen im Internet durch informationswissenschaftliche Methoden identifizieren? (2018) 0.01
    0.00980301 = product of:
      0.03921204 = sum of:
        0.03921204 = weight(_text_:und in 341) [ClassicSimilarity], result of:
          0.03921204 = score(doc=341,freq=16.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.34654674 = fieldWeight in 341, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=341)
      0.25 = coord(1/4)
    
    Abstract
    Falsche Nachrichten sind keine Erscheinung der Neuzeit. Die Feststellung, dass es im Internet Falschinformationen gibt, ist eine Binsenweisheit. In welchem Umfang jedoch Politiker mit falschen Behauptungen Erfolge erreichen und verifizierte Informationen als Fake News misskreditieren, ist besonders im Jahr 2016 in den Blickpunkt der Öffentlichkeit gelangt. Zu Recht, denn die gesellschaftlichen Auswirkungen sind gravierend. Die Auseinandersetzung mit derartigen Informationspathologien ist ein Aufgabengebiet der Informationswissenschaften. Ziel der vorliegenden Arbeit soll die Beantwortung der Forschungsfrage sein, ob sich Manipulationen im Internet durch informationswissenschaftliche Methoden identifizieren lassen. Deshalb werden Falschinformationen zunächst in den informationswissenschaftlichen Kontext gestellt, unter besonderer Berücksichtigung der Sichtweisen von Reiner Kuhlen, Luciano Floridi und Don Fallis. Nach einem kurzen Exkurs zu Nachrichten und Medien werden Falschinformationen basierend auf einem Konzept von Giglietto et al. konkreter untersucht. Dazu wird auf die Besonderheiten der Informationsausbreitung im Web 2.0 eingegangen, der Begriff "irreführende Informationen" eingeführt und Faktoren, die für deren Weitergabe relevant sind, benannt. Für die Untersuchung, wie irreführende Informationen weitergegeben werden, steht statt einer akteurorientierten Betrachtung der Aspekt des Prozesses im Mittelpunkt. Dies erfolgt durch die Untersuchung von vier Typologien der Weitergabe irreführender Informationen. Durch das vorgestellte Verbreitungsmodell lassen sich Zusammenhänge und Abläufe bei der Verbreitung von Fake News und anderen irreführenden Informationen besser beschreiben und verstehen als bis zum jetzigen Zeitpunkt.

Languages

  • d 1631
  • e 212
  • a 1
  • More… Less…

Types

  • a 1374
  • el 403
  • m 279
  • x 74
  • s 60
  • r 26
  • n 8
  • i 3
  • b 2
  • p 2
  • v 2
  • ms 1
  • More… Less…

Themes

Subjects

Classifications