Search (11762 results, page 587 of 589)

  • × language_ss:"d"
  1. Hüsken, P.: Information Retrieval im Semantic Web (2006) 0.00
    0.004349109 = product of:
      0.017396435 = sum of:
        0.017396435 = weight(_text_:und in 333) [ClassicSimilarity], result of:
          0.017396435 = score(doc=333,freq=2.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.14702731 = fieldWeight in 333, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=333)
      0.25 = coord(1/4)
    
    Abstract
    Das Semantic Web bezeichnet ein erweitertes World Wide Web (WWW), das die Bedeutung von präsentierten Inhalten in neuen standardisierten Sprachen wie RDF Schema und OWL modelliert. Diese Arbeit befasst sich mit dem Aspekt des Information Retrieval, d.h. es wird untersucht, in wie weit Methoden der Informationssuche sich auf modelliertes Wissen übertragen lassen. Die kennzeichnenden Merkmale von IR-Systemen wie vage Anfragen sowie die Unterstützung unsicheren Wissens werden im Kontext des Semantic Web behandelt. Im Fokus steht die Suche nach Fakten innerhalb einer Wissensdomäne, die entweder explizit modelliert sind oder implizit durch die Anwendung von Inferenz abgeleitet werden können. Aufbauend auf der an der Universität Duisburg-Essen entwickelten Retrievalmaschine PIRE wird die Anwendung unsicherer Inferenz mit probabilistischer Prädikatenlogik (pDatalog) implementiert.
  2. Schimmel, A.: Morgenland und Abendland (2002) 0.00
    0.004349109 = product of:
      0.017396435 = sum of:
        0.017396435 = weight(_text_:und in 431) [ClassicSimilarity], result of:
          0.017396435 = score(doc=431,freq=2.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.14702731 = fieldWeight in 431, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=431)
      0.25 = coord(1/4)
    
  3. 80 years of Zentralblatt MATH : 80 footprints of distinguished mathematicians in Zentralblatt (2011) 0.00
    0.004349109 = product of:
      0.017396435 = sum of:
        0.017396435 = weight(_text_:und in 737) [ClassicSimilarity], result of:
          0.017396435 = score(doc=737,freq=2.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.14702731 = fieldWeight in 737, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=737)
      0.25 = coord(1/4)
    
    Abstract
    Founded in 1931 by Otto Neugebauer as the printed documentation service "Zentralblatt für Mathematik und ihre Grenzgebiete", Zentralblatt MATH (ZBMATH) celebrates its 80th anniversary in 2011. Today it is the most comprehensive and active reference database in pure and applied mathematics worldwide. Many prominent mathematicians have been involved in this service as reviewers or editors and have, like all mathematicians, left their footprints in ZBMATH, in a long list of entries describing all of their research publications in mathematics. This book provides one review from each of the 80 years of ZBMATH. Names like Courant, Kolmogorov, Hardy, Hirzebruch, Faltings and many others can be found here. In addition to the original reviews, the book offers the authors' profiles indicating their co-authors, their favorite journals and the time span of their publication activities. In addition to this, a generously illustrated essay by Silke Göbel describes the history of ZBMATH.
  4. Prätor, K.: Logik als Organisation von Handlungen (2013) 0.00
    0.004349109 = product of:
      0.017396435 = sum of:
        0.017396435 = weight(_text_:und in 1901) [ClassicSimilarity], result of:
          0.017396435 = score(doc=1901,freq=2.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.14702731 = fieldWeight in 1901, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1901)
      0.25 = coord(1/4)
    
    Abstract
    Kann Logik, die für Systeme der Wissensorganisation immer eine wichtige Rolle gespielt hat, auch einen Beitrag leisten, wenn man Organisation als Tätigkeit begreift? Diese Frage wird im Rückgriff auf zwei zunächst disparate Gebiete behandelt. Auf dem Gebiet der Planungskalküle (Planungsexpertensysteme) haben sich gewichtige Schwierigkeiten für den Einsatz von Logik für die Handlungsplanung ergeben. Deren Bewertung führt zu grundsätzlichen Fragen des Verständnisses von Logik und in diesem Zusammenhang zur konstruktiven Logik. Diese konzipiert Logik selbst als Planung oder auch Organisation von Handlungen. Werden gewisse Anschlussprobleme beseitigt, die sich aus ihrer dialogischen Form ergeben, so bietet sie die Grundlage für einen erfolgversprechenden Einsatz von logikbasierten Verfahren auch im Feld der als Aktivität verstandenen Wissensorganisation (Wissensverarbeitung).
  5. Sacherschließung : Zentrale Dienstleistungen und Nutzung von Fremdleistungen. Kolloquium des Dbi am 13.-14.2.1984 in Königstein (o.J.) 0.00
    0.004349109 = product of:
      0.017396435 = sum of:
        0.017396435 = weight(_text_:und in 3399) [ClassicSimilarity], result of:
          0.017396435 = score(doc=3399,freq=2.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.14702731 = fieldWeight in 3399, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=3399)
      0.25 = coord(1/4)
    
  6. Nida-Rümelin, J.: Über menschliche Freiheit (2005) 0.00
    0.004349109 = product of:
      0.017396435 = sum of:
        0.017396435 = weight(_text_:und in 4623) [ClassicSimilarity], result of:
          0.017396435 = score(doc=4623,freq=2.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.14702731 = fieldWeight in 4623, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=4623)
      0.25 = coord(1/4)
    
    Abstract
    Julian Nida-Rümelin, Professor für politische Theorie und Philosophie in München, widmet sich in fünf Kapiteln einem der großen klassischen Themen der Philosophie: Warum die Annahme menschlicher Freiheit begründet ist - Warum Entscheidungen notwenig frei sind - Warum es keine Verantwortung ohne Freiheit gibt - Warum der Zufall moralisch irrelevant ist - Warum Menschenwürde auf Freiheit beruht.
  7. Suominen, O.; Hyvönen, N.: From MARC silos to Linked Data silos? (2017) 0.00
    0.004349109 = product of:
      0.017396435 = sum of:
        0.017396435 = weight(_text_:und in 4732) [ClassicSimilarity], result of:
          0.017396435 = score(doc=4732,freq=2.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.14702731 = fieldWeight in 4732, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=4732)
      0.25 = coord(1/4)
    
    Abstract
    Seit einiger Zeit stellen Bibliotheken ihre bibliografischen Metadadaten verstärkt offen in Form von Linked Data zur Verfügung. Dabei kommen jedoch ganz unterschiedliche Modelle für die Strukturierung der bibliografischen Daten zur Anwendung. Manche Bibliotheken verwenden ein auf FRBR basierendes Modell mit mehreren Schichten von Entitäten, während andere flache, am Datensatz orientierte Modelle nutzen. Der Wildwuchs bei den Datenmodellen erschwert die Nachnutzung der bibliografischen Daten. Im Ergebnis haben die Bibliotheken die früheren MARC-Silos nur mit zueinander inkompatiblen Linked-Data-Silos vertauscht. Deshalb ist es häufig schwierig, Datensets miteinander zu kombinieren und nachzunutzen. Kleinere Unterschiede in der Datenmodellierung lassen sich zwar durch Schema Mappings in den Griff bekommen, doch erscheint es fraglich, ob die Interoperabilität insgesamt zugenommen hat. Der Beitrag stellt die Ergebnisse einer Studie zu verschiedenen veröffentlichten Sets von bibliografischen Daten vor. Dabei werden auch die unterschiedlichen Modelle betrachtet, um bibliografische Daten als RDF darzustellen, sowie Werkzeuge zur Erzeugung von entsprechenden Daten aus dem MARC-Format. Abschließend wird der von der Finnischen Nationalbibliothek verfolgte Ansatz behandelt.
  8. Kurzweil, R.: Menschheit 2.0 : die Singularität naht (2014) 0.00
    0.004349109 = product of:
      0.017396435 = sum of:
        0.017396435 = weight(_text_:und in 72) [ClassicSimilarity], result of:
          0.017396435 = score(doc=72,freq=2.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.14702731 = fieldWeight in 72, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=72)
      0.25 = coord(1/4)
    
    Abstract
    Das Jahr 2045 markiert einen historischen Meilenstein: Es ist das Jahr, in dem der Mensch seine biologischen Begrenzungen mithilfe der Technik überwinden wird. Diese als technologische Singularität bekannt gewordene Revolution wird die Menschheit für immer verändern. Googles Chefingenieur Ray Kurzweil, dessen wahnwitzigen Visionen in den vergangenen Jahrzehnten immer wieder genau ins Schwarze trafen, zeichnet in diesem Klassiker des Transhumanismus mit beispielloser Detailwut eine bunt schillernde Momentaufnahme der technischen Evolution und legt dar, weshalb diese so bald kein Ende finden, sondern im Gegenteil immer weiter an Dynamik gewinnen wird. Daraus ergibt sich eine ebenso faszinierende wie schockierende Vision für die Zukunft der Menschheit.
  9. Branz, M.: Zwischen der Furcht vor Zerstörung und der Hoffnung auf Erlösung : warum wir uns vor der Künstlichen Intelligenz nicht fürchten sollten (2018) 0.00
    0.004349109 = product of:
      0.017396435 = sum of:
        0.017396435 = weight(_text_:und in 112) [ClassicSimilarity], result of:
          0.017396435 = score(doc=112,freq=2.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.14702731 = fieldWeight in 112, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=112)
      0.25 = coord(1/4)
    
  10. Monyer, H.; Gessmann, M.: ¬Das geniale Gedächtnis : wie das Gehirn aus der Vergangenheit unsere Zukunft macht (2017) 0.00
    0.004349109 = product of:
      0.017396435 = sum of:
        0.017396435 = weight(_text_:und in 407) [ClassicSimilarity], result of:
          0.017396435 = score(doc=407,freq=2.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.14702731 = fieldWeight in 407, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=407)
      0.25 = coord(1/4)
    
    Abstract
    Unser Gedächtnis ist weniger zuverlässig als wir uns das wünschen, manchmal lässt es uns auch im Stich. Je älter wir werden, umso mehr. Dabei zeigt die neuste Forschung: Sich alles merken zu können, ist gar nicht so wichtig. Das Gedächtnis ist nämlich viel mehr als bloß ein Speicher für Erinnerungen. Es erweist sich als höchst aktives Zukunftsorgan. Seine radikal auf das Kommende ausgerichtete Funktionsweise bestimmt, was wir uns merken, wie wir lernen und wer wir sind.
  11. Thielicke, R.; Helmstaedter, M.: ¬"Ein völlig neues Kapitel der Künstlichen Intelligenz" : Interview mit Moritz Helmstaedter (2018) 0.00
    0.004349109 = product of:
      0.017396435 = sum of:
        0.017396435 = weight(_text_:und in 497) [ClassicSimilarity], result of:
          0.017396435 = score(doc=497,freq=2.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.14702731 = fieldWeight in 497, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=497)
      0.25 = coord(1/4)
    
    Abstract
    Moritz Helmstaedter erforscht den Schaltplan des menschlichen Gehirns. Künftig, so die Vorhersage des Managing Directors am Max-Planck-Institut für Hirnforschung, lassen sich wirkliche Gehirn-Computer bauen. Wie geht es weiter mit Deep Learning? Welche Ansätze in der Entwicklung künstlicher Intelligenzen sind vielversprechend, welche Architekturen führen in eine Sackgasse? Moritz Helmstaedter spricht Ende November auf dem Innovators Summit AI in München darüber, welche Erkenntnisse aus der aktuellen Hirnforschung hilfreich sind. Im Gespräch mit Technology Review gibt er einen Einblick. "Frage: Wenn wir es tatsächlich schaffen, Hirn-Computer zu bauen: Kann es passieren, dass sie nicht besser sind als die menschlichen? Antwort: Das ist natürlich Spekulation. Aber es kann durchaus sein, dass wir mit künstlichen Gehirnen an die gleichen Grenzen stoßen wie die Natur. Ein Einzelnes von ihnen wäre dann tatsächlich nicht besser. Aber dafür kann man sehr viele zusammenschalten, also skalieren. Und ein Problem fällt ohnehin weg: Die künstlichen Hirne müssen in keinen Schädel passen."
  12. Wallwitz, G. von: Meine Herren, dies ist keine Badeanstalt : wie ein Mathematiker das 20. Jahrhundert veränderte (2017) 0.00
    0.004349109 = product of:
      0.017396435 = sum of:
        0.017396435 = weight(_text_:und in 593) [ClassicSimilarity], result of:
          0.017396435 = score(doc=593,freq=2.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.14702731 = fieldWeight in 593, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=593)
      0.25 = coord(1/4)
    
    Abstract
    Ordnung muss sein. Beim Baden bitteschön streng nach Geschlechtern getrennt, doch in der Wissenschaft zählt nur, was auf der Tafel steht. Jedenfalls für den Mathematiker David Hilbert, der seine brillante Kollegin Emmy Noether in Göttingen als Professorin durchsetzen wollte. Doch nicht nur damit war er seiner Zeit voraus (der Antrag wurde natürlich abgelehnt) - Hilbert hatte für die moderne Naturwissenschaft etwas denselben Stellenwert wie Pablo Picasso für die moderne Kunst. In Göttingen gaben sich bei diesem merkwürdigen Genie die bedeutendsten Köpfe die Klinke in die Hand: Einstein, Bohr, Heisenberg, Gödels Sätze über die Unvollständigkeit der Mathematik und Alan Turings Weg zur universellen Rechenmaschine - alles lässt sich hierher zurückverfolgen
  13. Grün, S.; Poley, C: Statistische Analysen von Semantic Entities aus Metadaten- und Volltextbeständen von German Medical Science (2017) 0.00
    0.004349109 = product of:
      0.017396435 = sum of:
        0.017396435 = weight(_text_:und in 32) [ClassicSimilarity], result of:
          0.017396435 = score(doc=32,freq=2.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.14702731 = fieldWeight in 32, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=32)
      0.25 = coord(1/4)
    
  14. Becker, H.-G.: ¬Der Katalog als virtueller Navigationsraum (2020) 0.00
    0.004349109 = product of:
      0.017396435 = sum of:
        0.017396435 = weight(_text_:und in 1050) [ClassicSimilarity], result of:
          0.017396435 = score(doc=1050,freq=2.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.14702731 = fieldWeight in 1050, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1050)
      0.25 = coord(1/4)
    
    Abstract
    Der Katalog der Universitätsbibliothek Dortmund stellt nicht nur einen Verfügbarkeitsraum für alle relevanten Informationen dar, vielmehr soll er darüber hinaus ein Navigationsraum für eine zeitgemäße inhaltliche Suche sein. Die Aufgabe war daher, eine automatisierte Lösung mit einer maximalen Abdeckung der eigenen Bestände zu finden, die für möglichst viele Fächer eine anerkannte Systematik bereitstellt.Mittels der unter einer offenen Lizenz veröffentlichten CultureGraph-Daten der Deutschen Nationalbibliothek wurde eine navigationsfähige Systematik auf Basis der Regensburger Verbundklassifikation entwickelt, aus der heraus sowohl auf die gedruckt als auch auf die elektronisch verfügbaren Bestände der Universitätsbibliothek (UB) zugegriffen werden kann. Ferner wurde eine direkte Einbindung in das Discovery-System realisiert, in der die Systematik mit anderen Navigatoren und Suchfiltern kombiniert werden kann. Das so entstandene Suchinstrument führt dazu, dass in der UB Dortmund künftig auf die systematische Buchaufstellung verzichtet werden kann.
  15. Meyer, O.C.: Retrievalexperimente mit bibliothekarischen Daten : Historischer Überblick und aktueller Forschungsstand (2022) 0.00
    0.004349109 = product of:
      0.017396435 = sum of:
        0.017396435 = weight(_text_:und in 1656) [ClassicSimilarity], result of:
          0.017396435 = score(doc=1656,freq=2.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.14702731 = fieldWeight in 1656, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1656)
      0.25 = coord(1/4)
    
  16. Vierkant, P.: Entwurf des DataCite-Metadatenschemas 4.5 offen für Kommentierung (2022) 0.00
    0.004349109 = product of:
      0.017396435 = sum of:
        0.017396435 = weight(_text_:und in 1673) [ClassicSimilarity], result of:
          0.017396435 = score(doc=1673,freq=2.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.14702731 = fieldWeight in 1673, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1673)
      0.25 = coord(1/4)
    
    Abstract
    "In den letzten anderthalb Jahren hat die DataCite Metadata Working Group an Änderungen für die neue Version des DataCite Metadatenschemas gearbeitet, um die sich entwickelnden neuen Anwendungsfälle für DataCite DOIs zu unterstützen. Diese vorgeschlagenen Aktualisierungen sind eine Reaktion auf Anfragen von Mitgliedern der DataCite-Community. Wir möchten sicherstellen, dass diese Änderungen funktionieren, d. h. dass sie die Probleme lösen, die sie lösen sollen. Zum ersten Mal überhaupt stellen wir deshalb einen RFC-Entwurf zur Kommentierung bereit, bevor wir die nächste Version (4.5) des Metadatenschemas veröffentlichen. Dieser Entwurf beinhaltet: * Unterstützung für Instrumente * Unterstützung von pre-registrations und registration reports * Unterstützung für Verlagsidentifikatoren * Neues Distribution property * Erläuterungen zum RelatedItem property * Aktualisierte PhysicalObject-Definition Details zur Rückmeldung sind in dem Request for Comments enthalten: https://docs.google.com/document/d/1UyQQwtjnu-4_4zXE4TFZ74-mjLZI3NkEf8RrF0WeOdI/edit Eine Kopie des Vorschlags im PDF-Format ist ebenfalls verfügbar: https://datacite.org/documents/DataCite_Metadata_Schema_4.5_RFC.pdf Weitere Informationen finden Sie im DataCite Blog: https://doi.org/10.5438/q34f-c696."
  17. Mesa, N.: Uncanny Valley : warum uns KI das Fürchten lehrt (2023) 0.00
    0.004349109 = product of:
      0.017396435 = sum of:
        0.017396435 = weight(_text_:und in 2080) [ClassicSimilarity], result of:
          0.017396435 = score(doc=2080,freq=2.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.14702731 = fieldWeight in 2080, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=2080)
      0.25 = coord(1/4)
    
    Content
    "Wenn Aussehen und Verhalten von Künstlicher Intelligenz (KI) dem menschlichen in so starker Weise gleichen, dass sie ein ungutes, ängstliches Gefühl in uns auslösen, steckt dahinter das sogenannte Uncanny Valley. Das "Phänomen des unheimlichen Tals" ist bereits seit den Siebzigerjahren bekannt - doch noch immer hat die Wissenschaft keine konkrete Antwort auf die Frage gefunden, warum künstliche Figuren in uns Unbehagen auslösen. Für KI-Forschende, deren Ziel es ist, Roboter zu entwickeln, die sich in unseren sozialen Alltag integrieren lassen, ist die Überwindung des Uncanny Valleys eine der größten Herausforderungen. Bald schon sollen intelligente Maschinen uns im Restaurant bedienen, Aufgaben in der Altenpflege übernehmen oder Kindern das Lesen beibringen. Damit das funktioniert, dürfen sie uns keine Angst machen. Roboter aus dem unheimlichen Tal herauszuführen ist also wesentlich, wenn wir in Zukunft verstärkt mit ihnen interagieren sollen."
  18. Niemann, H.: Auch für das Gehirn gibt es ein Tempolimit : Göttinger Forscher entdecken Geschwindigkeitsbegrenzung des Denkens / Nervenzellen habe keine universale Schaltzentrale (2004) 0.00
    0.004100379 = product of:
      0.016401516 = sum of:
        0.016401516 = weight(_text_:und in 1445) [ClassicSimilarity], result of:
          0.016401516 = score(doc=1445,freq=4.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.1386187 = fieldWeight in 1445, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1445)
      0.25 = coord(1/4)
    
    Content
    "Neurophysiker des Göttinger Max-Planck-Instituts für Strömungsforschung und der Fakultät für Physik der Universität Göttingen haben herausgefunden, dass der Grund für das "Tempolimit" im Gehirn die komplizierte Struktur des Oberstübchens ist: Da nicht alle Nervenzellen direkt miteinander verbunden sind, sondern viele nur indirekt kommunizieren können, braucht es eine gewisse Zeit, bis elektrische Impulse an alle Adressaten gelangen. Je stärker die Vernetzung ist, desto höher ist auch die Denkgeschwindigkeit. Die Forschergruppe um Professor Theo Geisel, Direktor am Max-Planck-Institut für Strömungsforschung, hat an Modellen neuronaler Netzwerke im Hirn untersucht, wie schnell Nervenzellen ihre Aktivität koordinieren können. "Anders als im Telefonnetz gibt es im Gehirn keine Schaltzentrale"; erläutert der Neurophysiker Fred Wolf. Deshalb könne auch nicht jede Nervenzelle mit jeder anderen kommunizieren, sondern jede Zelle verfüge nur über eine begrenzte Zahl von direkten "Gesprächspartnern": Damit ihre in Form von elektrischen Impulsen abgesandten Signale auch bei anderen Zellen landen können, müssen sie über Vermittlungsstellen weitertransportiert werden, ehe es zu einer Synchronisation kommen kann. Bei ihren Untersuchungen benutzten die Göttinger Forscher das mathematische Modell der so genannten Zufalls-Matrizen. Dabei stellten sie fest, dass die Geschwindigkeit der Signalübertragung von der Ver schaltung der "Telefonleitungen" im Hirn abhängt: Je mehr Verbindungen bestehen und je komplexer die Verschaltung ist, umso schneller klappt die Verständigung. Dies bedeutet, dass nur eine hochgradige Vernetzung, wie sie beispielsweise in der menschlichen Großhirnrinde zu finden ist, einen schnellen Informationsaustausch ermöglicht. Allerdings lässt sich diese Dynamik des Denkens nicht ins Unendliche steigern, Selbst bei beliebig starken Synapsenverbindungen gebe es eine Tempo-Höchstgrenze, die nicht überschritten werden könne, sagt Wolf. Auch Denken braucht eben seine Zeit."
  19. Bauer, E.: Wissen griffbereit : Mediawiki & Wikipedia lokal installieren (2004) 0.00
    0.004100379 = product of:
      0.016401516 = sum of:
        0.016401516 = weight(_text_:und in 3906) [ClassicSimilarity], result of:
          0.016401516 = score(doc=3906,freq=4.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.1386187 = fieldWeight in 3906, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=3906)
      0.25 = coord(1/4)
    
    Abstract
    Man hat es sich irgendwo notiertdoch wo? Wenn man seine Notizen auf der Festplatte nicht mehr überblickt, schafft ein Wiki Abhilfe. Im Browser lassen sich die Infos von überall im lokalen Netz abrufen, ergänzen und miteinander verlinken.
    Content
    "Hallo! Sie haben da eine Riesensicherheitslücke! Ich kann alle Seiten auf Ihrer Homepage ändern." - solche Mails entlocken den Betreibern der Online-Enzyklopädie Wikipedia nur noch ein müdes Lächeln. Was dem einen eine Sicherheitslücke ist, hat sich mittlerweile eine ganze Reihe von Websites zum Prinzip gemacht. So genannte Wikis gestatten es jedem Besucher, die Inhalte einer Homepage im Browser zu bearbeiten. Was sich im ersten Moment verrückt anhört, funktioniert tatsächlich: Neben Wikipedia, die inzwischen über eine Million in Zusammenarbeit entstandene Artikel zählt, setzen auch immer mehr Open-Source-Projekte auf Wikis, um gemeinschaftlich Dokumentation zu verfassen. Wiki für den Hausgebrauch Auch zu Hause ist die Wiki-Software nützlich. Wer wollte nicht schon einmal die Stapel seiner Notizen und Dokumente untereinander verknüpfen? Mit einem Wiki ist das eine simple Sache: Eine spezielle Syntax verwandelt einen Begriff im Text in einen Link auf eine neue oder schon existierende Seite. Weit über 50 Wiki-Engines in den unterschiedlichsten Programmiersprachen umfasst mittlerweile die Liste im Ur-Wiki, dem Portland Pattern Repository. Eine der meistverbreiteten ist das ursprünglich für Wikipedia geschriebene, aber auch auf zahlreichen anderen Sites eingesetzte Mediawiki. Dieser Artikel erklärt, wie Sie Mediawiki selbst aufsetzen, sei es als Wiki für den Hausgebrauch oder - mit den importierten Datenbeständen der deutschen Wikipedia - als Enzyklopädie zum bequemen Offline-Lesen. Als Server-Applikation birgt Mediawiki gewisse Sicherheitsrisiken. Die hier vorgestellte Installation ist für einen durch eine Firewall geschützten Rechner zu Hause gedacht, nicht für den Betrieb im Internet, für den Sie zusätzliche Sicherheitsmaßnahmen treffen sollten."
  20. Schneider, G; Nestler, F.: Einführung in die Bibliographie (2005) 0.00
    0.004100379 = product of:
      0.016401516 = sum of:
        0.016401516 = weight(_text_:und in 5371) [ClassicSimilarity], result of:
          0.016401516 = score(doc=5371,freq=4.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.1386187 = fieldWeight in 5371, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=5371)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: BuB 58(2006) H.1, S.82-84 (H. Wiesenmüller): "Im Jahr 1999 legte Friedrich Nestler, der frühere Direktor des Instituts für Bibliothekswissenschaft an der Humboldt-Universität, eine viel beachtete Neubearbeitung von Georg Schneiders »Handbuch der Bibliographie« (1. Auflage 1923) vor. Konsequenterweise hat er nun auch Schneiders »Einführung in die Bibliographie« (1936) bearbeitet. Bei diesem Text handelte es sich ursprünglich um den theoretischen Teil des »Handbuchs«, der bei den Rezensenten auf wenig Anklang gestoßen war. Für die 4. Auflage (1930) wurde er gestrichen, erschien jedoch sechs Jahre später in umgearbeiteter Form als eigenständige Publikation. In Schneider sieht Nestler einen direkten Vorgänger für seine - nicht zuletzt durch die Forschung in der DDR geprägte - Sichtweise der Bibliographie als ein »soziales Phänomen« (Seite IX), das sich »aus der kommunikativen Funktion der verzeichneten Texte ergibt« (Seite 28). Theoretische Modelle der Bibliographie machen denn auch den größten Teil des ersten Hauptkapitels aus. Dieses trägt zwar noch dieselbe Überschrift (»Begriff der Bibliographie«) wie bei Schneider, ist aber von 5 auf über 60 Seiten angewachsen und beinhaltet nun weit mehr als nur die Wortgeschichte. In einem Abschnitt zur bibliothekarischen Ausbildung kritisiert Nestler - ganz zu Recht - die traditionelle Vermittlung des Themas Bibliographie als bloße Abfolge einer langen Reihe bibliographischer Hilfsmittel, deren Charakteristika Stück für Stück zu erlernen sind. Dass das Aufkommen der elektronischen Medien hier zu einem »Wechsel der Optik« (Seite 16) geführt habe und seitdem mehr Wert auf eine theoretische Grundlage gelegt werde, kann die Rezensentin aus ihrer eigenen Erfahrung allerdings nicht bestätigen. ... Insgesamt gesehen bleibt die Neubearbeitung an vielen Stellen unbefriedigend. Dennoch ist es zu begrüßen, dass sie überhaupt erschienen ist: Gerade weil man sich an manchem reiben kann, könnte Nestlers Arbeit Anlass sein, sich von neuem mit dem Thema Bibliographie zu beschäftigen."

Authors

Languages

  • e 32
  • m 3

Types

  • a 8484
  • m 1864
  • el 889
  • x 574
  • s 415
  • i 144
  • r 105
  • ? 60
  • b 39
  • n 38
  • l 23
  • p 21
  • h 16
  • d 15
  • u 14
  • fi 10
  • z 2
  • au 1
  • v 1
  • More… Less…

Themes

Subjects

Classifications