Search (11762 results, page 552 of 589)

  • × language_ss:"d"
  1. Schmidt, J.; Pellegrini, T.: ¬Das Social Semantic Web aus kommunikationssoziologischer Perspektive (2009) 0.01
    0.0073252046 = product of:
      0.029300818 = sum of:
        0.029300818 = weight(_text_:und in 877) [ClassicSimilarity], result of:
          0.029300818 = score(doc=877,freq=4.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.24258271 = fieldWeight in 877, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=877)
      0.25 = coord(1/4)
    
    Abstract
    Zwei Trends prägen derzeit die Gestalt des Internets: Auf der einen Seite finden sich Entwicklungen rund um das "Web 2.0" oder "Social Web", die dem einzelnen Nutzer neue Möglichkeiten des onlinegestützten Identitäts-, Beziehungs- und Informationsmanagements eröffnen. Auf der anderen Seite stehen die Innovationen des Semantic Web, die Relationen zwischen Datenbeständen strukturieren helfen, um so zu verbesserten maschinellen Repräsentationen von Wissen zu gelangen. Dieser Beitrag skizziert die Idee eines "Social Semantic Web", in dem beide Entwicklungen zusammenfließen. Als Scharnier dient dabei der Begriff der Prodnutzung, der die aktive Rolle des Nutzers bei der Erstellung, Verbreitung und Weiterentwicklung von Inhalten wie von strukturiertem Wissen betont.
  2. Geiger, J.; Seubert, K.: Qualitätsbewertung von Online-Informationsressourcen (2011) 0.01
    0.0073252046 = product of:
      0.029300818 = sum of:
        0.029300818 = weight(_text_:und in 906) [ClassicSimilarity], result of:
          0.029300818 = score(doc=906,freq=4.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.24258271 = fieldWeight in 906, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=906)
      0.25 = coord(1/4)
    
    Abstract
    Im Studiengang "Information Science & Engineering" der Hochschule Darmstadt untersuchten vier Studenten des vierten Semesters in der Lehrveranstaltung "Qualitätsbewertung von Informationsressourcen", betreut von Prof. Dr. Heide Gloystein, die Qualität von Online-Informationsressourcen anhand von standardisierten Suchanfragen zu einem festgelegten Thema. Die Suchergebnisse werden nach einem vorher definierten Bewertungskatalog untersucht. Die beispielhaft ausgewählten Informationsressourcen teilen sich in folgende Kategorien ein: Internet/Web 1.0, Datenbanken, Web 2.0, sowie Bibliografische Datenbanken/OPAC. Die Fachdatenbanken schneiden hierbei erwartungsgemäß am Besten ab. Weniger professionelle Informationsquellen, wie Web 2.0-Anwendungen sind ungeeignet als fachliche Informationsressource. Das Endergebnis wird zusammengefasst in einer Matrix präsentiert, die die Stärken und Schwächen der einzelnen Ressourcen durch einheitliche Bewertungskriterien vergleichbar machen.
    Source
    Information - Wissenschaft und Praxis. 62(2011) H.6/7, S.315-320
  3. Mayer, K.: Zur Soziometrik der Suchmaschinen : ein historischer Überblick der Methodik (2009) 0.01
    0.0073252046 = product of:
      0.029300818 = sum of:
        0.029300818 = weight(_text_:und in 1019) [ClassicSimilarity], result of:
          0.029300818 = score(doc=1019,freq=4.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.24258271 = fieldWeight in 1019, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1019)
      0.25 = coord(1/4)
    
    Abstract
    Der vorliegende Text rekonstruiert die wechselvolle Geschichte einer Methode, die allen heutigen Suchmaschinen zugrunde liegt: Die Bestimmung der Autorität eines Datensatzes über seine Verlinkung - und die mit dieser Methode verbundenen sozialen Visionen. Ausgehend von Referenzen, die die Konstrukteure der Suchmaschinen selbst zur historischen Verankerung ihrer Techniken angeben, folge ich multiplen Spuren auf der Suche nach der so vorgenommenen Bestimmung von Autorität. Ich werde fündig in Konzepten zu sozialen Beziehungen und deren Wandel zu soziotechnischen Kommunikationen, die heute selbstverständlich erscheinen.
  4. Spree, U.; Feißt, N.; Lühr, A.; Piesztal, B.; Schroeder, N.; Wollschläger, P.: Semantic search : State-of-the-Art-Überblick zu semantischen Suchlösungen im WWW (2011) 0.01
    0.0073252046 = product of:
      0.029300818 = sum of:
        0.029300818 = weight(_text_:und in 1345) [ClassicSimilarity], result of:
          0.029300818 = score(doc=1345,freq=4.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.24258271 = fieldWeight in 1345, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1345)
      0.25 = coord(1/4)
    
    Abstract
    In diesem Kapitel wird ein Überblick über bestehende semantische Suchmaschinen gegeben. Insgesamt werden 95 solcher Suchdienste identifiziert und im Rahmen einer Inhaltsanalyse verglichen. Es kann festgestellt werden, dass die Semantische Suche sich wesentlich von den im Rahmen des Semantic Web propagierten Technologien unterscheidet und Semantik in den betrachteten Suchmaschinen weiter zu fassen ist. Die betrachteten Suchmaschinen werden in ein Stufenmodell, welches nach dem Grad der Semantik unterscheidet, eingeordnet. Das Kapitel schließt mit 8 Thesen zum aktuellen Stand der semantischen Suche.
  5. Brinzing, A.: ¬Das Internationale Quellenlexikon der Musik (RISM) und die Erschließung der historischen Musikalienbestände in Deutschland (2012) 0.01
    0.0073252046 = product of:
      0.029300818 = sum of:
        0.029300818 = weight(_text_:und in 1577) [ClassicSimilarity], result of:
          0.029300818 = score(doc=1577,freq=4.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.24258271 = fieldWeight in 1577, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1577)
      0.25 = coord(1/4)
    
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 59(2012) H.3/4, S.146-151
  6. Meyer, A.: wiki2rdf: Automatische Extraktion von RDF-Tripeln aus Artikelvolltexten der Wikipedia (2013) 0.01
    0.0073252046 = product of:
      0.029300818 = sum of:
        0.029300818 = weight(_text_:und in 2017) [ClassicSimilarity], result of:
          0.029300818 = score(doc=2017,freq=4.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.24258271 = fieldWeight in 2017, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=2017)
      0.25 = coord(1/4)
    
    Abstract
    Im Projekt DBpedia werden unter anderem Informationen aus Wikipedia-Artikeln in RDF-Tripel umgewandelt. Dabei werden jedoch nicht die Artikeltexte berücksichtigt, sondern vorrangig die sogenannten Infoboxen, die Informationen enthalten, die bereits strukturiert sind. Im Rahmen einer Masterarbeit am Institut für Bibliotheks- und Informationswissenschaft der Humboldt-Universität zu Berlin wurde wiki2rdf entwickelt, eine Software zur regelbasierten Extraktion von RDF-Tripeln aus den unstrukturierten Volltexten der Wikipedia. Die Extraktion erfolgt nach Syntax-Parsing mithilfe eines Dependency-Parsers. Exemplarisch wurde wiki2rdf auf 68820 Artikel aus der Kategorie "Wissenschaftler" der deutschsprachigen Wikipedia angewandt. Es wurden 244563 Tripel extrahiert.
    Source
    Information - Wissenschaft und Praxis. 64(2013) H.2/3, S.115-126
  7. Retti, G.: "Schlagwortnormdatei" und "Regeln für den Schlagwortkatalog" (1995) 0.01
    0.0073252046 = product of:
      0.029300818 = sum of:
        0.029300818 = weight(_text_:und in 2354) [ClassicSimilarity], result of:
          0.029300818 = score(doc=2354,freq=4.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.24258271 = fieldWeight in 2354, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=2354)
      0.25 = coord(1/4)
    
    Abstract
    Es scheint naheliegend, daß der Unsicherheit, welche durch die "Vielfalt der möglichen sprachlichen Ausdrucksweisen für einen Sachverhalt" beim Beschlagworter ausgelöst wird, dadurch begegnet werden soll, "daß immer nur eine der möglichen Formen gewählt wird". Der Ruf nach einer "Standardisie- rung der Schlagwörter" geht damit Hand in Hand. Zwei Ergebnisse dieser Standardisierungsbemühungen werden im folgenden dargestellt; ein Punkt aber sollte dabei nicht übersehen werden: "Ein allgemein akzeptiertes Verfahren der Inhaltsanalyse gibt es bisher nicht und es ist offen, ob das Problem überhaupt gelöst werden kann." Standardisiert kann demnach nur das Schlagwortsystem werden, nicht aber seine konkrete Anwendung bei der inhaltlichen Erschließung von Dokumenten.
  8. Oberhauser, O.: ¬Das internationale CIPAC-Verzeichnis im 15. JAhr seines Bestehens (2015) 0.01
    0.0073252046 = product of:
      0.029300818 = sum of:
        0.029300818 = weight(_text_:und in 2838) [ClassicSimilarity], result of:
          0.029300818 = score(doc=2838,freq=4.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.24258271 = fieldWeight in 2838, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=2838)
      0.25 = coord(1/4)
    
    Abstract
    Die Webseite The International CIPAC List (http://cipacs.vfi-online.org/) besteht seit 2001. Sie verzeichnet "card-image public access catalogues" (CIPACs), also Online-Kataloge auf der Basis digitalisierter (gescannter) Zettel- bzw. Bandkataloge. Für Fernleihabteilungen sowie für wissenschaftlich Tätige, die an älterer Literatur interessiert sind, sind derartige Kataloge oft ein unverzichtbares Hilfsmittel, da sich viele Bibliotheken bisher nicht in der Lage sahen, ihre alten Kataloge einer "richtigen" Retrokonversion zu unterziehen. Sie griffen daher zu der vergleichsweise günstigen Alternative, die Katalogkarten zu scannen und mit Hilfe einer geeigneten Software im Web zur Suche anzubieten.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 68(2015) H.1, S.135-136
  9. Hirschmann, B.: Altmetrics - neue Formen der Impact-Messung auf dem Vormarsch? (2013) 0.01
    0.0073252046 = product of:
      0.029300818 = sum of:
        0.029300818 = weight(_text_:und in 3187) [ClassicSimilarity], result of:
          0.029300818 = score(doc=3187,freq=4.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.24258271 = fieldWeight in 3187, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=3187)
      0.25 = coord(1/4)
    
    Abstract
    Der oft zitierte Slogan "publish or perish" ist vielen ein Begriff. Er verweist darauf, dass Wissenschaftlerinnen und Wissenschaftler zunehmend danach bewertet werden, wo und wie viel sie publizieren. Auch Berufungskommissionen legen Wert auf eine umfangreiche Publikationsliste. Artikel in den "Top-Journals" eines Fachgebiets sind also die Währung, mit der in der wissenschaftlichen Community gehandelt wird. Doch woran lässt sich festmachen, welchen Einfluss eine Zeitschrift in der Fach-Community hat? In den letzten Jahrzehnten hat sich hierfür der Journal Impact Factor (JIF) als klassischer Vergleichswert etabliert. Der JIF berechnet den "Einfluss" einer Fachzeitschrift anhand der durchschnittlichen Anzahl von Zitaten, die ein darin veröffentlichter Artikel erreicht.
  10. Wiechmann, B.: Spartenübergreifende Nutzung der GND am Beispiel des Projekts IN2N (2015) 0.01
    0.0073252046 = product of:
      0.029300818 = sum of:
        0.029300818 = weight(_text_:und in 3477) [ClassicSimilarity], result of:
          0.029300818 = score(doc=3477,freq=4.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.24258271 = fieldWeight in 3477, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=3477)
      0.25 = coord(1/4)
    
    Abstract
    Die Gemeinsame Normdatei (GND) wird im deutschsprachigen Bibliothekswesen als Normdatei sowohl zur formalen als auch inhaltlichen Erschließung genutzt. Im Projekt IN2N (Institutionenübergreifende Integration von Normdaten) sollte die Einbindung eines nichtbibliothekarischen Partners erprobt werden, um damit beispielhaft die Nutzung dieser Normdatei für andere Kultureinrichtungen zu untersuchen. Das Projekt hat sich mit Inhalten, Formaten, Schnittstellen und Redaktionssystemen auseinandergesetzt und eine Kooperation ermöglicht, die wegweisend für andere Kultureinrichtungen sein kann.
  11. Malits, A.; Schäuble, P.: ¬Der Digitale Assistent : halbautomatisches Verfahren der Sacherschließung in der Zentralbibliothek Zürich (2014) 0.01
    0.0073252046 = product of:
      0.029300818 = sum of:
        0.029300818 = weight(_text_:und in 3562) [ClassicSimilarity], result of:
          0.029300818 = score(doc=3562,freq=4.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.24258271 = fieldWeight in 3562, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=3562)
      0.25 = coord(1/4)
    
    Abstract
    Seit Juni 2013 ist der Digitale As­sistent in den Workflow der Erschließungsprozesse der Zentralbibliothek Zürich integriert. Das System des Di­gitalen Assistenten kombiniert automatisch unterstützte Prozesse und intellektuelle Sacherschließung: Es werden Schlagwortvorschläge generiert, die danach intellektuell von den Fachreferenten überprüft werden. Im vorliegenden Beitrag wird die Entwicklung des Digitalen Assis­tenten im Kontext der Praxis der Sacherschließung im Allgemeinen und in der Zentralbibliothek Zürich im Speziellen skizziert. Im Anschluss werden die unterschied­lichen Prozesse der Datenverarbeitung des Systems näher erläutert, sodann wird auf Basis von Statistiken ein erstes Resümee gezogen. Ausführungen zu technischen Spezifikationen runden den Bericht ab.
  12. Oberhauser, O.: ¬Der VFI-Förderungspreis als Initiator wissenschaftlicher Publikationen : eine Übersicht (2015) 0.01
    0.0073252046 = product of:
      0.029300818 = sum of:
        0.029300818 = weight(_text_:und in 3613) [ClassicSimilarity], result of:
          0.029300818 = score(doc=3613,freq=4.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.24258271 = fieldWeight in 3613, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=3613)
      0.25 = coord(1/4)
    
    Abstract
    Seit 2006 vergibt der Verein zur Förderung der Informationswissenschaft (VFI), Wien, jährlich einen Förderungspreis für herausragende akademische Abschlussarbeiten auf bestimmten Teilgebieten der Informationswissenschaft. Da mit der Preisvergabe die Auflage der Veröffentlichung einer (Kurz-)Fassung der prämierten Arbeiten verbunden ist, wurde so im Laufe der Jahre der Anstoss zur einer Reihe interessanter Publikationen der jüngeren bibliothekarischen bzw. informationswissenschaftlichen Generation des deutschsprachigen Raumes gegeben. Der Beitrag gibt einen Überblick über diese Veröffentlichungen, die zum Teil in den "Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen & Bibliothekare" und zum Teil in anderen wissenschaftlichen bzw. professionellen Publikationsorganen erschienen sind.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 68(2015) H.3/4, S.472-484
  13. Djerassi, C.: ¬Das Bourbaki Gambit : Roman (1993) 0.01
    0.0073252046 = product of:
      0.029300818 = sum of:
        0.029300818 = weight(_text_:und in 3761) [ClassicSimilarity], result of:
          0.029300818 = score(doc=3761,freq=4.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.24258271 = fieldWeight in 3761, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=3761)
      0.25 = coord(1/4)
    
    Abstract
    Rückentext: "Vier anerkannte Wissenschaftler - der Amerikaner Max, der Österreicher Sepp, der Japaner Hiroshi und die Amerikanerin Charlea - werden vorzeitig eremitiert (!). Sie beschließen, sich am wissenschaftlichen Establishment zu rächen ..." "Djerassi vergaß weder in seiner neuen Karriere als Romancier noch damals als "Vater der Anti-Baby-Pille", daß komplizierte Texte oft unlesbar sind. Sein Buch ist daher auch kein schmuckloser Report. Vielmehr ein liebens- und lesenswertes Buch, in dem das paradiesische Ambiente am Golf von Neapel ebenso kundig beschrieben wird, wie die Paradiesvögel aus den Brutanstalten der Scientific Community." (Die Zeit)
  14. Hinrichs, I.; Milmeister, G.; Schäuble, P.; Steenweg, H.: Computerunterstützte Sacherschließung mit dem Digitalen Assistenten (DA-2) (2016) 0.01
    0.0073252046 = product of:
      0.029300818 = sum of:
        0.029300818 = weight(_text_:und in 4563) [ClassicSimilarity], result of:
          0.029300818 = score(doc=4563,freq=4.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.24258271 = fieldWeight in 4563, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=4563)
      0.25 = coord(1/4)
    
    Abstract
    Wir beschreiben den Digitalen Assistenten DA-2, den wir zur Unterstützung der Sacherschliessung im IBS-Verbund implementiert haben. Diese webbasierte Anwendung ist eine vollständige Neuimplementierung, welche die Erkenntnisse des Vorgängersystems bei der Zentralbibliothek Zürich berücksichtigt. Wir stellen Überlegungen zur Zukunft der Sacherschliessung an und geben eine Übersicht über Projekte mit ähnlichen Zielsetzungen, die Sacherschließung mit Computerunterstützung effizienter und besser zu gestalten.
  15. EBSCO - Brockhaus : struktureller Wandel vom Bildungs- und Wissensanbieter (2017) 0.01
    0.0073252046 = product of:
      0.029300818 = sum of:
        0.029300818 = weight(_text_:und in 4564) [ClassicSimilarity], result of:
          0.029300818 = score(doc=4564,freq=4.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.24258271 = fieldWeight in 4564, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=4564)
      0.25 = coord(1/4)
    
    Abstract
    Die Brockhaus Enzyklopädie wurde in den EBSCO Discovery Service integriert. Die Brockhaus Enzyklopädie als allgemeinbildendes Nachschlagewerk bietet den perfekten Startpunkt für jede Recherche. 1805 von Friedrich Arnold in Amsterdam gegründet, war Brockhaus über zwei Jahrhunderte hinweg der führende Herausgeber gedruckter Nachschlagewerke im deutschsprachigen Raum. 2002 startete Brockhaus seine erste digitale Enzyklopädier. 2008 wurde das Unternehmen an die Bertelsmann Gruppe verkauft, 2015 von der schwedischen NE Nationalencyklopedin AB übernommen. Dieses Unternehmen versorgt drei von vier schwedischen Schulen mit digitalen Diensten. Unter der Firmierung Brockhaus / NE GmbH wandelt sich das Unternehmen mit Nachschlagewerken und E-Learning-Angeboten vom Wissens- zum Bildungsanbieter.
  16. Randow, G. von: Er wollte die Welt mit Intelligenz in den Griff bekommen : ... die aber machte nicht mit. Was wir dennoch von Gottfried Wilhelm Leibniz lernen können - 300 Jahre nach dem Tod dieses letzten deutschen Universalgenies: Gottfried Wilhelm Leibniz (2016) 0.01
    0.0073252046 = product of:
      0.029300818 = sum of:
        0.029300818 = weight(_text_:und in 4673) [ClassicSimilarity], result of:
          0.029300818 = score(doc=4673,freq=4.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.24258271 = fieldWeight in 4673, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=4673)
      0.25 = coord(1/4)
    
    Abstract
    Großartig waren seine Projekte, ewigen Bestand haben einige seiner Erkenntnisse, und doch ist Gottfried Wilhelm Leibniz vor allem deswegen unser Zeitgenosse, weil seine Versuche vergeblich waren, der Wirklichkeit Vernunft beizubringen. Er starb vor 300 Jahren, die deutsche Wissenschaftswelt hat ein "Leibnizjahr" ausgerufen, das den vollendeten Gelehrten feiert, aber eigentlich wäre es ein Anlass, über den unvollendeten Leibniz nachzudenken und darüber, was sein Bemühen uns lehrt. .
  17. Ceynowa, K.: In Frankfurt lesen jetzt zuerst Maschinen : Deutsche Nationalbibliothek (2017) 0.01
    0.0073252046 = product of:
      0.029300818 = sum of:
        0.029300818 = weight(_text_:und in 4812) [ClassicSimilarity], result of:
          0.029300818 = score(doc=4812,freq=4.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.24258271 = fieldWeight in 4812, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=4812)
      0.25 = coord(1/4)
    
    Abstract
    Die Deutsche Nationalbibliothek sammelt alle deutschen Bücher - und erschließt sie mit Schlagworten. Diese Arbeit sollen künftig keine Menschen mehr verrichten. So macht die Digitalisierung Wissen unzugänglich. Das wirklich schlagende Schlagwort steht oft zwischen den Zeilen, wo ein Lesegerät es nicht finden kann. Bislang ist die Nationalbibliographie das Werk der Fachreferenten der Deutschen Nationalbibliothek.
    Content
    Vgl. auch: Henze, V., U. Junger u. E. Mödden: Grundzüge und erste Schritte der künftigen inhaltlichen Erschliessung von Publikationen in der Deutschen Nationalbibliothek unter: http://www.dnb.de/DE/Erwerbung/Inhaltserschliessung/grundzuegeInhaltserschliessungMai2017.html. Vgl. auch: Wiesenmüller, H.: Das neue Sacherschließungskonzept der DNB in der FAZ. Unter: https://www.basiswissen-rda.de/neues-sacherschliessungskonzept-faz/. Vgl. auch die Diskussion zu dem Komplex unter: https://www.basiswissen-rda.de/neues-sacherschliessungskonzept-faz/.
  18. O'Neil, C.: Angriff der Algorithmen : wie sie Wahlen manipulieren, Berufschancen zerstören und unsere Gesundheit gefährden (2017) 0.01
    0.0073252046 = product of:
      0.029300818 = sum of:
        0.029300818 = weight(_text_:und in 60) [ClassicSimilarity], result of:
          0.029300818 = score(doc=60,freq=16.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.24258271 = fieldWeight in 60, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=60)
      0.25 = coord(1/4)
    
    Abstract
    Algorithmen nehmen Einfluss auf unser Leben: Von ihnen hängt es ab, ob man etwa einen Kredit für sein Haus erhält und wie viel man für die Krankenversicherung bezahlt. Cathy O'Neil, ehemalige Hedgefonds-Managerin und heute Big-Data-Whistleblowerin, erklärt, wie Algorithmen in der Theorie objektive Entscheidungen ermöglichen, im wirklichen Leben aber mächtigen Interessen folgen. Algorithmen nehmen Einfluss auf die Politik, gefährden freie Wahlen und manipulieren über soziale Netzwerke sogar die Demokratie. Cathy O'Neils dringlicher Appell zeigt, wie sie Diskriminierung und Ungleichheit verstärken und so zu Waffen werden, die das Fundament unserer Gesellschaft erschüttern.
    BK
    54.08 (Informatik in Beziehung zu Mensch und Gesellschaft)
    Classification
    54.08 (Informatik in Beziehung zu Mensch und Gesellschaft)
  19. Klöckner, M.; Toepfer, G.: Viele interessante Begriffe haben eine Wanderungsgeschichte hinter sich : Interview (2018) 0.01
    0.0073252046 = product of:
      0.029300818 = sum of:
        0.029300818 = weight(_text_:und in 102) [ClassicSimilarity], result of:
          0.029300818 = score(doc=102,freq=4.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.24258271 = fieldWeight in 102, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=102)
      0.25 = coord(1/4)
    
    Abstract
    "Troika", "Rettungsschirm", "sozial" oder "Alternative": Das sind Begriffe, die uns allen bekannt sind. Insbesondere wer die Berichterstattung der Medien verfolgt, hört sie immer wieder. Aber was heißt bekannt? Kennen wir die Begriffe wirklich? Der Philosoph Georg Toepfer hat in dem vor kurzem veröffentlichten Buch "Wörter aus der Fremde: Begriffsgeschichte als Übersetzungsgeschichte" gemeinsam mit anderen Autoren bekannte Begriffe im Hinblick auf deren Geschichte und Bedeutung beleuchtet. Im Interview mit Telepolis erklärt Toepfer, was es bedeutet, sich mit der Übersetzungsgeschichte von Begriffen auseinanderzusetzen und greift exemplarisch Wörter auf, über die es sich lohnt, genauer nachzudenken.
  20. Becker, R.: Machine / Deep Learning : wie lernen künstliche neuronale Netze? (2017) 0.01
    0.0073252046 = product of:
      0.029300818 = sum of:
        0.029300818 = weight(_text_:und in 109) [ClassicSimilarity], result of:
          0.029300818 = score(doc=109,freq=4.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.24258271 = fieldWeight in 109, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=109)
      0.25 = coord(1/4)
    
    Abstract
    Ein wichtiges Merkmal von Systemen mit künstlicher Intelligenz ist die Fähigkeit, selbständig zu lernen. Anders als bei klassischer Software, die Probleme und Fragen auf Basis von vorher festgelegten Regeln abarbeitet, können selbstlernende Machine Learning Algorithmen die besten Regeln für die Lösung bestimmter Aufgaben selber lernen. In diesem Artikel wird am Beispiel von künstlichen neuronalen Netzen erklärt, was "lernen" in diesem Zusammenhang heißt, und wie es funktioniert. Ein künstliches neuronales Netz besteht aus vielen einzelnen Neuronen, die meistens in mehreren miteinander verbundenen Schichten (Layern) angeordnet sind. Die Zahl der Layer bestimmt unter anderem den Grad der Komplexität, den ein künstliches neuronales Netz abbilden kann. Viele Layer machen ein neuronales Netz "tief" - daher spricht man in diesem Zusammenhang auch vom Deep Learning als einer Unterkategorie des Machine Learning (Maschinenlernen bzw. maschinelles lernen).

Authors

Languages

  • e 32
  • m 3

Types

  • a 8484
  • m 1864
  • el 889
  • x 574
  • s 415
  • i 144
  • r 105
  • ? 60
  • b 39
  • n 38
  • l 23
  • p 21
  • h 16
  • d 15
  • u 14
  • fi 10
  • z 2
  • au 1
  • v 1
  • More… Less…

Themes

Subjects

Classifications