Search (1873 results, page 59 of 94)

  • × year_i:[2010 TO 2020}
  1. Hauer, M.: Collaborative Catalog Enrichment : Digitalisierung und Information Retrieval (2011) 0.01
    0.009539106 = product of:
      0.038156424 = sum of:
        0.038156424 = weight(_text_:und in 1160) [ClassicSimilarity], result of:
          0.038156424 = score(doc=1160,freq=12.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.30011827 = fieldWeight in 1160, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1160)
      0.25 = coord(1/4)
    
    Abstract
    Kurz nach 11 Uhr erscheint ein seltsamer Mensch am InfoDesk der Universitätsbibliothek und spricht die diensthabende Bibliothekarin an: "Frosch!". Mh, was meint der? Sonst sagt er nichts. Will er sich vorstellen? Herr Frosch? Wurde er im Eingangsbereich von einem Frosch erschreckt, der sich zufällig dorthin verirrte? Sucht er Literatur zu Fröschen? Märchen, mit dem Froschkönig? Will er Froschschenkel zum Mittagessen zubereiten? Ein Erstsemester, der in Biologie sich mit dem Tier befasst? Frosch als Fresser oder als gefressen werden? Ist das etwa der Autor Karl Frosch oder sucht er Literatur von diesem? Ein der Sprache nicht ganz mächtiger Ausländer? Ein Verrückter? Mh, Alter, Geschlecht, Kleidung, Sprache, Gestik - all dies wird schnell durchgeprüft. Ganz so kurz, kann man doch eine Dipl.-Bibl. nicht so einfach ansprechen. Unverschämt! ... Ungewöhnlich? Keineswegs, ist dies doch unsere normale Art, sich mit Suchmaschinen und OPACs zu unterhalten. Ebenso wenig wie eine Bibliothekarin hier eine zufriedenstellende Antwort bieten kann, weiß auch keine Suchmaschine, was das Anliegen dieser Person ist. Weit schneller als die Bibliothekarin kann sie aber in ihrem Index das Suchwort aufspüren und eine Treffermenge vermelden. Der Schlitz der Suchmaschine hat im Gegensatz zum "Schlitz" der Bibliothek, dem InfoDesk, keine Augen und Ohren, hat kein stimulierendes Lächeln, die Frage weiter erläutern zu lassen.
    Source
    ¬Die Kraft der digitalen Unordnung: 32. Arbeits- und Fortbildungstagung der ASpB e. V., Sektion 5 im Deutschen Bibliotheksverband, 22.-25. September 2009 in der Universität Karlsruhe. Hrsg: Jadwiga Warmbrunn u.a
  2. Waldhör, A.: Erstellung einer Konkordanz zwischen Basisklassifikation (BK) und Regensburger Verbundklassifikation (RVK) für den Fachbereich Recht (2012) 0.01
    0.009539106 = product of:
      0.038156424 = sum of:
        0.038156424 = weight(_text_:und in 1596) [ClassicSimilarity], result of:
          0.038156424 = score(doc=1596,freq=12.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.30011827 = fieldWeight in 1596, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1596)
      0.25 = coord(1/4)
    
    Abstract
    Ziel der vorliegenden Arbeit war die Erstellung einer Konkordanz zwischen der Regensburger Verbundklassifikation (RVK) und der Basisklassifikation (BK) für den Fachbereich Recht. Die Erstellung von Konkordanzen ist im bibliothekarischen Bereichmehrfach von Interesse, da einerseits Notationen verschiedener Klassifikationssysteme zusammengeführt werden und somit eine höhere Datendichte erreicht werden kann. Zum anderen können Konkordanzen in der Suchmaschinentechnologie Primo als "Werkzeug" bei der facettierten Suche eingesetzt werden. Die Arbeit gliedert sich in zwei Teile. Der erste (theoretische) Teil beschäftigt sich mit Klassifikationen als Hilfsmittel für die Freihandaufstellung und als Teil der klassifikatorischen Sacherschließung. Im Anschluss daran werden drei große Klassifikationssysteme, die im Rahmen der Sacherschließung in Österreich eine wesentliche Rolle spielen (Verbundklassifikationen des OBV), dargestellt. Die Basisklassifikation und die Regensburger Verbundklassifikation werden kurz beschrieben, es wird untersucht wie juristische Medien in diesen Klassifikationen abgebildet werden. In diesem Zusammenhang wird auch der aktuelle Stand der RVK Erweiterung betreffend österreichisches Recht erörtert. Die Dewey - Dezimal - Klassifikation (DDC) wird auf ihre generelle Eignung als Klassifikation für juristische Medien genauer, anhand mehrerer praktischer Beispiele, untersucht. Insbesondere wird die "Konkordanzfähigkeit" der DDC im Hinblick auf die beiden anderen Systeme betreffend den Fachbereich Recht ermittelt. Ein kurzer Ausblick auf Unterschiede zwischen der angloamerikanischen Rechtsordnung und dem europäischen Civil Law ergänzt die Ausführungen zur DDC. Der zweite (praktische) Teil beinhaltet die Konkordanztabelle in Form einer Microsoft Excel Tabelle mit einem ausführlichen Kommentar. Diese Tabelle liegt auch in einer verkürzten Form vor, die für die praktische Umsetzung in der Verbunddatenbank vorgesehen ist.
  3. Weiner, U.: Vor uns die Dokumentenflut oder Automatische Indexierung als notwendige und sinnvolle Ergänzung zur intellektuellen Sacherschließung (2012) 0.01
    0.009539106 = product of:
      0.038156424 = sum of:
        0.038156424 = weight(_text_:und in 1598) [ClassicSimilarity], result of:
          0.038156424 = score(doc=1598,freq=12.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.30011827 = fieldWeight in 1598, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1598)
      0.25 = coord(1/4)
    
    Abstract
    Vor dem Hintergrund veränderter Ansprüche der Bibliotheksbenutzer an Recherchemöglichkeiten - weg vom klassischen Online-Katalog hin zum "One-Stop-Shop" mit Funktionalitäten wie thematisches Browsing, Relevanzranking und dergleichen mehr - einerseits und der notwendigen Bearbeitung von Massendaten (Stichwort Dokumentenflut) andererseits rücken Systeme zur automatischen Indexierung wieder verstärkt in den Mittelpunkt des Interesses. Da in Österreich die Beschäftigung mit diesem Thema im Bibliotheksbereich bislang nur sehr selektiv, bezogen auf wenige konkrete Projekte, erfolgte, wird zuerst ein allgemeiner theoretischer Überblick über die unterschiedlichen Verfahrensansätze der automatischen Indexierung geboten. Im nächsten Schritt werden mit der IDX-basierten Indexierungssoftware MILOS (mit den Teilprojekten MILOS I, MILOS II und KASCADE) und dem modularen System intelligentCAPTURE (mit der integrierten Indexierungssoftware AUTINDEX) die bis vor wenigen Jahren im deutschsprachigen Raum einzigen im Praxiseinsatz befindlichen automatischen Indexierungssysteme vorgestellt. Mit zunehmender Notwendigkeit, neue Wege der inhaltlichen Erschließung zu beschreiten, wurden in den vergangenen 5 - 6 Jahren zahlreiche Softwareentwicklungen auf ihre Einsatzmöglichkeit im Bibliotheksbereich hin getestet. Stellvertretend für diese in Entwicklung befindlichen Systeme zur automatischen inhaltlichen Erschließung wird das Projekt PETRUS, welches in den Jahren 2009 - 2011 an der DNB durchgeführt wurde und die Komponenten PICA Match&Merge sowie die Extraction Platform der Firma Averbis beinhaltet, vorgestellt.
  4. Handbuch Bibliothek : Geschichte, Aufgaben, Perspektiven (2012) 0.01
    0.009539106 = product of:
      0.038156424 = sum of:
        0.038156424 = weight(_text_:und in 2080) [ClassicSimilarity], result of:
          0.038156424 = score(doc=2080,freq=12.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.30011827 = fieldWeight in 2080, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2080)
      0.25 = coord(1/4)
    
    Abstract
    Welche Rolle spielt die Bibliothek in Zeiten der Digitalisierung? Seit jeher unverzichtbare Quellen der Forschung, übernehmen Bibliotheken heute vielfältige neue Aufgaben. Beispielsweise sind sie an der Entstehung von Semantic-Web-Strukturen und an der digitalen Langzeitarchivierung beteiligt. Das Handbuch bietet einen fundierten Einblick in Geschichte, Theorie und gegenwärtige Praxis der Institution Bibliothek. Alle Aspekte des Informations- und Wissensmanagements bis hin zu Repositorien und Open Access werden dargestellt.
    BK
    06.01 Geschichte des Informations- und Dokumentationswesens
    Classification
    06.01 Geschichte des Informations- und Dokumentationswesens
  5. Sprachtechnologie : ein Überblick (2012) 0.01
    0.009539106 = product of:
      0.038156424 = sum of:
        0.038156424 = weight(_text_:und in 2750) [ClassicSimilarity], result of:
          0.038156424 = score(doc=2750,freq=12.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.30011827 = fieldWeight in 2750, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2750)
      0.25 = coord(1/4)
    
    Abstract
    Seit mehr als einem halben Jahrhundert existieren ernsthafte und ernst zu nehmende Versuche, menschliche Sprache maschinell zu verarbeiten. Maschinelle Übersetzung oder "natürliche" Dialoge mit Computern gehören zu den ersten Ideen, die den Bereich der späteren Computerlinguistik oder Sprachtechnologie abgesteckt und deren Vorhaben geleitet haben. Heute ist dieser auch maschinelle Sprachverarbeitung (natural language processing, NLP) genannte Bereich stark ausdiversifiziert: Durch die rapide Entwicklung der Informatik ist vieles vorher Unvorstellbare Realität (z. B. automatische Telefonauskunft), einiges früher Unmögliche immerhin möglich geworden (z. B. Handhelds mit Sprachein- und -ausgabe als digitale persönliche (Informations-)Assistenten). Es gibt verschiedene Anwendungen der Computerlinguistik, von denen einige den Sprung in die kommerzielle Nutzung geschafft haben (z. B. Diktiersysteme, Textklassifikation, maschinelle Übersetzung). Immer noch wird an natürlichsprachlichen Systemen (natural language systems, NLS) verschiedenster Funktionalität (z. B. zur Beantwortung beliebiger Fragen oder zur Generierung komplexer Texte) intensiv geforscht, auch wenn die hoch gesteckten Ziele von einst längst nicht erreicht sind (und deshalb entsprechend "heruntergefahren" wurden). Wo die maschinelle Sprachverarbeitung heute steht, ist allerdings angesichts der vielfältigen Aktivitäten in der Computerlinguistik und Sprachtechnologie weder offensichtlich noch leicht in Erfahrung zu bringen (für Studierende des Fachs und erst recht für Laien). Ein Ziel dieses Buches ist, es, die aktuelle Literaturlage in dieser Hinsicht zu verbessern, indem spezifisch systembezogene Aspekte der Computerlinguistik als Überblick über die Sprachtechnologie zusammengetragen werden.
  6. Wallig, S.; Dögl, J.; Seidl, I.; Giesa, M.: Erschliessung der medizinhistorischen Separata-Sammlungen der Universitätsbibliothek der Medizinischen Universität Wien (2015) 0.01
    0.009539106 = product of:
      0.038156424 = sum of:
        0.038156424 = weight(_text_:und in 3243) [ClassicSimilarity], result of:
          0.038156424 = score(doc=3243,freq=12.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.30011827 = fieldWeight in 3243, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=3243)
      0.25 = coord(1/4)
    
    Abstract
    Die Universitätsbibliothek der Medizinischen Universität Wien verfügt über ein wertvolles kulturhistorisches Erbe, das die Geschichte der "Wiener Medizinischen Schule" repräsentiert. Einen Teil der in der Zweigbibliothek für Geschichte der Medizin beherbergten historischen Literatur bilden die medizinhistorischen Separatasammlungen. Diese Unikate stellen einen unschätzbaren Mehrwert als Quellenmaterial für medizinhistorische und biografische Forschungen dar. Bei den etwa 140.000 Einzelexemplaren umfassenden Separatabeständen der Universitätsbibliothek handelt es sich um eine höchst heterogene Literaturquelle unterschiedlichster Provenienzen (institutionelle und personenbezogene Sammlungen). Ziel des Projekts war die Erstellung eines Konzeptes für die Erschließung der Sammlungen nach einheitlichen Standards auf oberster (Sammlungs-) Ebene sowie deren Nachweis in einem Online-Rechercheinstrument. Als Ergebnis wurde ein Workflow zur Erschließung von medizinhistorischen Separatasammlungen im Bibliothekssystem Aleph entwickelt, der sämtliche Aspekte der Online-Erfassung von Separata und die unterschiedlichen Eigenschaften der jeweiligen Sammlung berücksichtigt. Die Katalogisierung in der Datenbank ACC05 des Österreichischen Verbundkatalogs für Vor-/Nachlässe, Autographen und Handschriften gewährleistet die optimale Abbildung der Sammlung sowie ihre Suchbarkeit in der Suchmaschine des Österreichischen Bibliothekenverbundes (OBVSG). Verlinkungen mit der lokalen Suchmaschine der Universitätsbibliothek der Medizinischen Universität Wien (Primo) bzw. mit Einzelexemplaren in der ACC01 befinden sich derzeit in Planung. Darüber hinaus bieten Verknüpfungen weitere Zusatzinformationen (Biografien) und einen Zugang zu externen Rechercheinstrumenten (Kataloge).
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 68(2015) H.2, S.281-290
  7. Steinsieck, A.: Von der Zeitung zur Nachricht : Überlegungen zu zukünftigen Aufgaben von Zeitungssammlungen und -abteilungen in Bibliotheken vor dem Hintergrund der Entwicklung des Mediums (2013) 0.01
    0.009539106 = product of:
      0.038156424 = sum of:
        0.038156424 = weight(_text_:und in 3457) [ClassicSimilarity], result of:
          0.038156424 = score(doc=3457,freq=12.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.30011827 = fieldWeight in 3457, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=3457)
      0.25 = coord(1/4)
    
    Abstract
    Zeitungssammlungen und -abteilungen wissenschaftlicher Bibliotheken definieren ihren Sammlungsgegenstand traditionell materialgebunden: sie sammeln gedruckte, mindestens wöchentlich erscheinende Periodika. Retrodigitalisierung und die Veränderung des Mediums selbst verlangen nun entweder eine Ausweitung des Sammelauftrags auf digitales Material oder stellen die Existenz dieser Abteilungen in Frage. In diesem Aufsatz wird gezeigt, dass auch die Geschichte des Mediums nahelegt, den Fokus nicht auf das Material zu richten, sondern auf den Inhalt. Denn bereits beim Übergang von geschriebenen zu gedruckten Zeitung im frühen 17. Jahrhundert war das bestimmende Element die Nachrichtenakquise und Redaktionstätigkeit. Es sind die Akteure hinter den Zeitungen, die Novellanten, Korrespondenten, Redakteure oder Herausgeber, die das Medium absetzen von Belletristik oder wissenschaftlicher Literatur. Verlagerte man den Fokus auf das Nachrichtensammeln, kämen auch andere, für die Forschung zentrale Materialien in den Blick, wie etwa Archivalien aus Zeitungsredaktionen oder Material von Nachrichtenagenturen. Diese Quellengattungen werden in Deutschland bislang leider kaum gesammelt. Für Geschichtswissenschaft und Historische Publizistik wäre es ein großer Gewinn, wenn Bibliotheken hier tätig werden würden. Hier wird vorgeschlagen, Zeitungssammlungen auf andere Materialisierungsformen auszudehnen, den Sammlungsauftrag also von der Manifestationsebene auf zumindest die der Expression, wenn nicht gar auf die Werkebene zu verlagern, und sie so zu Abteilungen für Kommunikationsforschung, Kommunikationsgeschichte oder Nachrichtenforschung zu machen.
  8. Budroni, P.; Ganguly, R.: E-Infrastructure Austria : eine Referenzarchitektur zur dauerhaften Bereitstellung von Daten aus der Forschung als Aufgabe für wissenschaftliche Bibliotheken (2015) 0.01
    0.009539106 = product of:
      0.038156424 = sum of:
        0.038156424 = weight(_text_:und in 3612) [ClassicSimilarity], result of:
          0.038156424 = score(doc=3612,freq=12.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.30011827 = fieldWeight in 3612, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=3612)
      0.25 = coord(1/4)
    
    Abstract
    Im Jänner 2014 wurde das nationale dreijährige HRSM-Projekt e-Infrastructures Austria initiiert. Gesamtziel ist der koordinierte Aufbau und die Weiterentwicklung von Repositorieninfrastrukturen für Forschung und Lehre in ganz Österreich sowie ein effizientes und nachhaltiges Forschungsdatenmanagement an allen teilnehmenden 20 Universitäten und fünf weiteren außeruniversitären Forschungseinrichtungen. Das Projekt gliedert sich in drei Teilprojekte, die thematisch ineinander übergreifen und/oder aufeinander aufbauen. Die Koordination erfolgt durch die Universität Wien. Bis Ende 2016 sollen drei Ziele realisiert werden: - Teilprojekt A (Ziel 1): Aufbau von Dokumentenservern auf lokaler Ebene an den Partneruniversitäten. Zweck: Aufstellung von institutionellen Repositorien an allen teilnehmenden Einrichtungen (alle österreichischen Universitäten mit Ausnahme der Medizinischen Universität Innsbruck) - Teilprojekt B (Ziel 2): Erarbeitung eines strategischen Konzepts für das zukünftige Forschungsdatenmanagement in Österreich - Teilprojekt C (Ziel 3): Aufbau einer Wissensinfrastruktur ("knowledge infrastructure") für alle 25 Projektpartner.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 68(2015) H.2, S.201-216
  9. Feldsien-Sudhaus, I.; Horst, D.; Katzner, E.; Rajski, B.; Weier, H.; Zeumer, T. (Red.): Koha-Evaluation durch die Universitätsbibliothek der TUHH (2015) 0.01
    0.009539106 = product of:
      0.038156424 = sum of:
        0.038156424 = weight(_text_:und in 3811) [ClassicSimilarity], result of:
          0.038156424 = score(doc=3811,freq=12.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.30011827 = fieldWeight in 3811, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=3811)
      0.25 = coord(1/4)
    
    Abstract
    Die Universitätsbibliothek der TUHH setzt seit 1996 auf die Softwareunterstützung für Ausleihe und Katalog. Zunächst wurde das integrierte Bibliothekssystem SISIS eingesetzt, 2000 erfolgte der Wechsel auf das Lokale Bibliothekssystem LBS4 von PICA, heute OCLC. Kurz darauf wurde die Erwerbung integriert. Seit Ende der 90er Jahre wird in der Bibliothek Selbstverbuchung angeboten, seit 2011 mit RFID. 2012 wurde der Nutzer-Katalog des LBS4 durch TUBfind, ein Discovery System auf vufind-Basis, abgelöst. Keine Softwarelösung gibt es bisher für die Verwaltung elektronischer Ressourcen mit Ausnahme des Linkresolvers SFX von Exlibris, der seit 2006 eingesetzt wird. Die TUB ist Mitglied im Gemeinsamen Bibliotheksverbund (GBV) und nutzt die zentrale Katalogisierungsdatenbank CBS. Das LBS4 hat in den letzten 15 Jahren kaum funktionale Erweiterungen erfahren. Funktionen für die Verwaltung für Elektronische Ressourcen fehlen genauso wie Standardschnittstellen, z.B. zu LDAP-Directories. Mittelfristig muss das LBS4 im GBV und damit auch an der TUB durch ein anderes Bibliotheksmanagementsystem (BMS) abgelöst werden. Die Verbundzentrale des GBV (VZG) testet daher zusammen mit der FAG Lokale Geschäftsgänge und dem HBZ das noch in der Entwicklung befindliche Kuali OLE, ein Cloud- und Community-basiertes BMS aus den USA. In diesem Bericht werden unsere Projektergebnisse dargestellt, Vergleiche zum LBS4 gezogen und offene Fragen festgehalten.
  10. Stalder, F.: Kultur der Digitalität (2016) 0.01
    0.009539106 = product of:
      0.038156424 = sum of:
        0.038156424 = weight(_text_:und in 4559) [ClassicSimilarity], result of:
          0.038156424 = score(doc=4559,freq=12.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.30011827 = fieldWeight in 4559, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4559)
      0.25 = coord(1/4)
    
    Abstract
    Referentialität, Gemeinschaftlichkeit und Algorithmizität sind die charakteristischen Formen der Kultur der Digitalität, in der sich immer mehr Menschen, auf immer mehr Feldern und mithilfe immer komplexerer Technologien an der Verhandlung von sozialer Bedeutung beteiligen (müssen). Sie reagieren so auf die Herausforderungen einer chaotischen, überbordenden Informationssphäre und tragen zu deren weiterer Ausbreitung bei. Dies bringt alte kulturelle Ordnungen zum Einsturz und Neue sind bereits deutlich auszumachen. Felix Stalder beleuchtet die historischen Wurzeln wie auch die politischen Konsequenzen dieser Entwicklung. Die Zukunft, so sein Fazit, ist offen. Unser Handeln bestimmt, ob wir in einer postdemokratischen Welt der Überwachung und der Wissensmonopole oder in einer Kultur der Commons und der Partizipation leben werden.
  11. Grün, S.: Mehrwortbegriffe und Latent Semantic Analysis : Bewertung automatisch extrahierter Mehrwortgruppen mit LSA (2017) 0.01
    0.009539106 = product of:
      0.038156424 = sum of:
        0.038156424 = weight(_text_:und in 4954) [ClassicSimilarity], result of:
          0.038156424 = score(doc=4954,freq=12.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.30011827 = fieldWeight in 4954, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4954)
      0.25 = coord(1/4)
    
    Abstract
    Die vorliegende Studie untersucht das Potenzial von Mehrwortbegriffen für das Information Retrieval. Zielsetzung der Arbeit ist es, intellektuell positiv bewertete Kandidaten mithilfe des Latent Semantic Analysis (LSA) Verfahren höher zu gewichten, als negativ bewertete Kandidaten. Die positiven Kandidaten sollen demnach bei einem Ranking im Information Retrieval bevorzugt werden. Als Kollektion wurde eine Version der sozialwissenschaftlichen GIRT-Datenbank (German Indexing and Retrieval Testdatabase) eingesetzt. Um Kandidaten für Mehrwortbegriffe zu identifizieren wurde die automatische Indexierung Lingo verwendet. Die notwendigen Kernfunktionalitäten waren Lemmatisierung, Identifizierung von Komposita, algorithmische Mehrworterkennung sowie Gewichtung von Indextermen durch das LSA-Modell. Die durch Lingo erkannten und LSAgewichteten Mehrwortkandidaten wurden evaluiert. Zuerst wurde dazu eine intellektuelle Auswahl von positiven und negativen Mehrwortkandidaten vorgenommen. Im zweiten Schritt der Evaluierung erfolgte die Berechnung der Ausbeute, um den Anteil der positiven Mehrwortkandidaten zu erhalten. Im letzten Schritt der Evaluierung wurde auf der Basis der R-Precision berechnet, wie viele positiv bewerteten Mehrwortkandidaten es an der Stelle k des Rankings geschafft haben. Die Ausbeute der positiven Mehrwortkandidaten lag bei durchschnittlich ca. 39%, während die R-Precision einen Durchschnittswert von 54% erzielte. Das LSA-Modell erzielt ein ambivalentes Ergebnis mit positiver Tendenz.
    Footnote
    Masterarbeit, Studiengang Informationswissenschaft und Sprachtechnologie, Institut für Sprache und Information, Philosophische Fakultät, Heinrich-Heine-Universität Düsseldorf
    Imprint
    Düsseldorf : Heinrich-Heine-Universität / Philosophische Fakultät / Institut für Sprache und Information
  12. Laßmann, G.: Asimovs Robotergesetze : was leisten sie wirklich? (2017) 0.01
    0.009539106 = product of:
      0.038156424 = sum of:
        0.038156424 = weight(_text_:und in 67) [ClassicSimilarity], result of:
          0.038156424 = score(doc=67,freq=12.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.30011827 = fieldWeight in 67, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=67)
      0.25 = coord(1/4)
    
    Abstract
    In Simulationen treten bei Robotern innere Zustände immer dann auf, wenn Katastrophen wie der eigene Totalausfall drohen. Die bekannten Robotergesetze von Isaac Asimov sind schon mehr als 75 Jahre alt. Systematisch untersucht wurden sie bislang nicht, obgleich durch die technische Entwicklung in der Computertechnik das Erstellen von Regeln für Roboter immer drängender wird: Autonome Fahrzeug fahren auf unseren Straßen, das EU-Parlament diskutiert Roboterrechte und nicht nur der Deutsche Ethikrat befasst sich mit Pflegerobotern. Gunter Laßmann hat in seinem eBook Asimovs Robotergesetze philosophisch und technisch untersucht: Asimovs Robotergesetze. Was leisten sie wirklich?" Er erörtert, was ein Roboter ist und wie ein solcher Roboter nach dem heutigen Stand der Technik "denken" würde. Diskutiert wird, inwieweit Roboter individuell sein könnten und wer die Verantwortung für den Roboter trägt. Alle drei Robotergesetze werden erstmals simuliert, was teilweise zu unerwarteten Ergebnissen führt. Die Roboter werden durch Hinzunahme von Lernen weiterentwickelt, es werden die Unterschiede zwischen regelbasiertem Lernen und Deep Learning dargestellt und am aktuellen Beispiel erläutert.
  13. Pavlus, J.: ¬Die Welt des Bitcoin : die wichtigsten Fragen zur ersten großen digitale Währung (2018) 0.01
    0.009539106 = product of:
      0.038156424 = sum of:
        0.038156424 = weight(_text_:und in 192) [ClassicSimilarity], result of:
          0.038156424 = score(doc=192,freq=12.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.30011827 = fieldWeight in 192, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=192)
      0.25 = coord(1/4)
    
    Abstract
    Bitcoin, Kryptowahrungen, intelligente Vertrage: Die neuen Technologien sind in aller Munde. Hunderte von Zentralbanken und Konzernen beschaftigen sich damit, Risikokapitalgeber investieren bereits jetzt Milliarden. Die Offentlichkeit ist sich nicht sicher, ob das Ganze uberhaupt legal oder vielmehr ein Tummelplatz krimineller Elemente ist, und die Leute, die es wissen mussten, sind nicht wesentlich besser informiert: Als die Wirtschaftsprufungsgesellschaft PricewaterhouseCoopers im Jahr 2017 unter global agierenden Finanzfachleuten eine Umfrage veranstaltete, erklarten sich nur 24 Prozent der Befragten als .extrem. oder .sehr. vertraut mit der Sache. Glaubt man den Spruchen einiger Evangelisten, so hat die Technologie die Macht, ganze Wirtschaftssysteme auf den Kopf zu stellen. Andere sind weit skeptischer. So erklart Emin Gun Sirer, einer der Grunder der Initiative for Cryptocurrencies and Contracts an der Cornell University, dass der technische Kern zwar .faszinierend und revolutionar ist, aber da drausen auch eine Menge dummes Zeug verbreitet wird.. Was soll man davon halten - und was ist eigentlich eine Blockchain? Alles begann mit Satoshi Nakamoto. Niemand weis, wer sich hinter dem Pseudonym verbirgt; aber wenn es ein einzelner Mensch ist, zahlt er inzwischen hochstwahrscheinlich zu den reichsten der Welt. Im Oktober 2008 veroffentlichte Nakamoto uber eine obskure Internetmailingliste einen Artikel mit dem Entwurf fur die erste Blockchain der Welt: eine offentliche Datenbank, von der alle zehn Minuten Kopien an Tausende von Computern verteilt und von diesen abgeglichen werden, fur jedermann zuganglich und von niemandem zu hacken. Ziel war es, eine dezentrale, absolut sichere Aufzeichnungsmoglichkeit fur den Austausch einer neuen digitalen Wahrung bereitzustellen, die Nakamoto Bitcoin nannte.
  14. Eversberg, B.: Zum Thema "Migration" - Beispiel USA (2018) 0.01
    0.009539106 = product of:
      0.038156424 = sum of:
        0.038156424 = weight(_text_:und in 386) [ClassicSimilarity], result of:
          0.038156424 = score(doc=386,freq=12.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.30011827 = fieldWeight in 386, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=386)
      0.25 = coord(1/4)
    
    Abstract
    Wir leiden an einer bedauerlichen Knappheit von Information über die Marktlage und Erfahrungen bei den bibliothekarischen DV-Systemen. Das ist jenseits des "Teiches" anders: Jedes Jahr veröffentlicht der Konsultant Marshall Breeding eine umfangreiche Marktübersicht und hält auf seiner Website eine Menge andere Berichte und interessante Übersichten bereit, z.B. "Migration Reports": https://librarytechnology.org/Library Technology Guides. Da sieht man in Tabellen, z.B. auch für Koha, wieviele Anwender von welchen Systemen insgesamt schon zu Koha gewandert sind, die Gesamtzahl ist 3.547! Zu Alma dagegen nur 1151, zu WMS 464, zu Aleph 1036. ("allegro-C" ist nicht dabei, aber es gab ja auch nie irgendwelche Anwender in USA, außer Goethe-Institute, aber die sind wohl nicht erfaßt.) Breedings neueste Marktübersicht für 2018 ist im Journal "American Libraries" veröffentlicht: https://americanlibrariesmagazine.org/2018/05/01/library-systems-report-2018/
    Zu den Systemen KOHA und FOLIO gibt es folgende aktuelle Demos, die man mit allen Funktionen ausprobieren kann: KOHA Komplette Demo-Anwendung von Bywater Solutions: https://bywatersolutions.com/koha-demo user = bywater / password = bywater Empfohlen: Cataloguing, mit den MARC-Formularen und Direkt-Datenabruf per Z39 FOLIO (GBV: "The Next-Generation Library System") Demo: https://folio-demo.gbv.de/ user = diku_admin / password = admin Empfohlen: "Inventory" und dann Button "New" zum Katalogisieren Dann "Title Data" für neuen Datensatz. Das ist wohl aber noch in einem Beta-Zustand. Ferner: FOLIO-Präsentation Göttingen April 2018: https://www.zbw-mediatalk.eu/de/2018/05/folio-info-day-a-look-at-the-next-generation-library-system/
  15. Vorndran, A.: Hervorholen, was in unseren Daten steckt! : Mehrwerte durch Analysen großer Bibliotheksdatenbestände (2018) 0.01
    0.009539106 = product of:
      0.038156424 = sum of:
        0.038156424 = weight(_text_:und in 601) [ClassicSimilarity], result of:
          0.038156424 = score(doc=601,freq=12.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.30011827 = fieldWeight in 601, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=601)
      0.25 = coord(1/4)
    
    Abstract
    Die Deutsche Nationalbibliothek (DNB) verfolgt das Ziel, den unter Culturegraph.org verfügbaren großen Datenbestand von mehr als 160 Millionen Titeldaten deutschsprachiger Bibliotheksverbünde sowie der Deutschen Nationalbibliothek und der British National Bibliography über Analysen, Verknüpfungen und Auswertungen in größerem Umfang nutzbar zu machen. Der Beitrag gibt einen Überblick, welche Themenstellungen und Methoden bislang im Zentrum stehen. Dies ist einerseits die Bündelung von Werken, die erlaubt, mehrere Ausgaben, Auflagen oder Übersetzungen eines Werks zusammenzuführen. Inhaltserschließende Informationen wie Klassifikation oder verbale Erschließung, ebenso wie Normdatenverknüpfungen, können so auf alle Mitglieder eines Bündels übertragen werden, so dass ein Gewinn an Standardisierung und Erschließungstiefe zu erreichen ist. Andererseits können über bibliothekarische Daten hinaus auch externe Datenquellen zur Anreicherung herangezogen werden. Dies wird anhand eines Abgleichs von Personen in der Gemeinsamen Normdatei (GND) und der Datenbank Open Researcher and Contributor ID (ORCID) dargestellt. Unter Verwendung der Culturegraph-Titeldaten werden Personen mittels der von ihnen verfassten Publikationen abgeglichen und zusammengeführt. Abschließend werden einige statistische Auswertungen des Datenbestandes vorgestellt.
  16. Rötzer, F.: Bei zu vielen Optionen bockt das Gehirn (2018) 0.01
    0.009539106 = product of:
      0.038156424 = sum of:
        0.038156424 = weight(_text_:und in 982) [ClassicSimilarity], result of:
          0.038156424 = score(doc=982,freq=12.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.30011827 = fieldWeight in 982, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=982)
      0.25 = coord(1/4)
    
    Abstract
    Wissenschaftler haben untersucht, wie viele Optionen für eine Auswahlentscheidung das menschliche Gehirn am besten findet. Wenn man Menschen in Verwirrung oder Apathie stürzen will, dürfte es eine gute Strategie sein, sie mit Information zu überladen. Das könnte eines der Geheimnisse unseres kapitalistischen Systems sein, das schon während des Kalten Kriegs zwischen dem Westen und dem kommunistischen System deswegen attraktiver war, weil es mit einer Flut an Waren und Informationen die Menschen verführte. Während die Menschen in den liberalen kapitalistischen Ländern davon sediert wurden, was Herbert Marcuse etwa als affirmative Kultur der Überflussgesellschaft bezeichnete, wuchs in den realkommunistischen Ländern mit geringer Auswahl der Wunsch nach mehr Vielfalt und Buntheit. In der kapitalistischen Warenwelt jedenfalls sind die Menschen konfrontiert mit einer Vielzahl von Möglichkeiten von der Politik über die Medien bis hin zu Waren und Dienstleistungen. Das kann mitunter dazu führen, aufgrund der Überforderung und des Zeitstresses keine Entscheidung zu treffen oder sich nach einem einfachen Kriterium für irgendetwas zu entscheiden, beispielsweise nach dem Preis, was wohl am einfachsten ist, weswegen Geiz eben geil ist. Choice overload nennt man das Problem oder auch Auswahl-Paradoxon. Das interessiert auch deswegen, weil der potenzielle Kunde aufgrund von zu viel Auswahl weniger kaufen oder den Kauf verschieben könnte, weil seine Kauflust schwindet oder er den Eindruck erhält, sich immer falsch zu entscheiden, wie wenn man in Stau steht und stets das Gefühl hat auf der falschen Spur zu fahren.
  17. Information und Wissen : global, sozial und frei? Proceedings des 12. Internationalen Symposiums für Informationswissenschaft (ISI 2011) ; Hildesheim, 9. - 11. März 2011 (2010) 0.01
    0.009539106 = product of:
      0.038156424 = sum of:
        0.038156424 = weight(_text_:und in 190) [ClassicSimilarity], result of:
          0.038156424 = score(doc=190,freq=48.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.30011827 = fieldWeight in 190, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=190)
      0.25 = coord(1/4)
    
    Abstract
    Das 12. Internationale Symposium für Informationswissenschaft (ISI) greift unter dem Tagungsmotto "Information und Wissen: global, sozial und frei?" zentrale informationswissenschaftliche und informationspraktische Fragestellungen auf und stellt sie in einen aktuellen, wissenschaftlichen und gesellschaftspolitischen Kontext. Der Fokus liegt auf Information und Wissen in einer immer stärker vernetzten, globalisierten Welt. Aspekte der Internationalisierung und Mehrsprachigkeit von Wissensprozessen, Fragen der sozialen und technischen Teilhabe und Anschlussfähigkeit sowie des Zugriffs auf Wissensbestände und deren effektiver Anwendung treten dabei in den Mittelpunkt. Es werden beispielsweise die Rolle von sozialen Netzwerken und Fragen des Zugriffs auf Information und Wissen - im Spagat zwischen Open Access und noch fragilen politischen Entscheidungen im Urheberrecht für Wissenschaft und Bildung - diskutiert. Die Beiträge in diesem Tagungsband beleuchten das Generalthema der Tagung aus vielfältigen thematischen Perspektiven und aus der Sichtweise unterschiedlicher Disziplinen. Dabei werden sowohl aktuelle Themenfelder als auch traditionelle Kernthemen der Informationswissenschaft wie Information Retrieval, Informationsverhalten, Mensch-Maschine-Interaktion sowie deren Evaluierung behandelt. Deutlich rücken auch Themen der Fachinformation bzw. der Informationsinfrastruktur in den Vordergrund.
    Content
    Inhalt: - Keynotes Kalervo Järvelin: Information Retrieval: Technology, Evaluation and Beyond Michael Schroeder: Semantic search for the life sciences - Evaluation Pavel Sirotkin: Predicting user preferences Hanmin Jung, Mikyoung Lee, Won-Kyung Sung, Do Wan Kim: Usefiilness Evaluation on Visualization of Researcher Networks Jens Kürsten, Thomas Wilhelm, Maximilian Eibl: Vergleich von IR-Systemkonfigurationen auf Komponentenebene - Informationsinfrastruktur Reinhild Barkey, Erhard Hinrichs, Christina Hoppermann, Thorsten Trippel, Claus Zinn: Komponenten-basierte Metadatenschemata und Facetten-basierte Suche Ina Dehnhard, Peter Weiland: Toolbasierte Datendokumentation in der Psychologie Gertrud Faaß, Ulrich Heid: Nachhaltige Dokumentation virtueller Forschungsumgebungen - Soziale Software Evelyn Droge, Parinaz Maghferat, Cornelius Puschmann, Julia Verbina, Katrin Weller: Konferenz-Tweets Richard Heinen, Ingo Blees: Social Bookmarking als Werkzeug für die Kooperation von Lehrkräften Jens Terliesner, Isabella Peters: Der T-Index als Stabilitätsindikator für dokument-spezifische Tag-Verteilungen
    - Information Professionals & Usage Rahmatollah Fattahi, Mohaddeseh Dokhtesmati, Maryam Saberi: A survey of internet searching skills among intermediate school students: How librarians can help Matthias Görtz: Kontextspezifische Erhebung von aufgabenbezogenem Informationssuchverhalten Jürgen Reischer, Daniel Lottes, Florian Meier, Matthias Stirner: Evaluation von Summarizing-Systemen Robert Mayo Hayes, Karin Karlics, Christian Schlögl: Bedarf an Informationsspezialisten in wissensintensiven Branchen der österreichischen Volkswirtschaft - User Experience fit Behavior Isto Huvila: Mining qualitative data on human information behaviour from the Web Rahel Birri Blezon, Rene Schneider: The Social Persona Approach Elena Shpilka, Ralph Koelle, Wolfgang Semar: "Mobile Tagging": Konzeption und Implementierung eines mobilen Informationssystems mit 2D-Tags Johannes Baeck, Sabine Wiem, Ralph Kölle, Thomas Mandl: User Interface Prototyping Nadine Mahrholz, Thomas Mandl, Joachim Griesbaum: Analyse und Evaluierung der Nutzung von Sitelinks Bernard Bekavac, Sonja Öttl, Thomas Weinhold: Online-Beratungskomponente für die Auswahl von Usability-Evaluationsmethoden
    - Information Domains & Concepts Michal Golinski: Use, but verify Mohammad Nazim, Bhaskar Mukherjee: Problems and prospects of implementing knowledge management in university libraries: A case study of Banaras Hindu University Library System Daniela Becks, Julia Maria Schulz: Domänenübergreifende Phrasenextraktion mithilfe einer lexikonunabhängigen Analysekomponente Wolfram Sperber, Bernd Wegner: Content Analysis in der Mathematik: Erschließung und Retrieval mathematischer Publikationen Jürgen Reischer: Das Konzept der Informativität - Information Society Joseph Adjei, Peter Tobbin: Identification Systems Adoption in Africa; The Case of Ghana Alexander Botte, Marc Rittberger, Christoph Schindler: Virtuelle Forschungsumgebungen Rainer Kuhlen: Der Streit um die Regelung des Zweitveröffentlichungsrechts im Urheberrecht - E-Learning / Social Media Marketing Tobias Fries, Sebastian Boosz, Andreas Henrich: Integrating industrial partners into e-teaching efforts Christopher Stehr, Melanie Hiller: E-Learningkurs Globalisierung Manuel Burghardt, Markus Heckner, Tim Schneidermeier, Christian Wolff: Social-Media-Marketing im Hochschulbereich
    - Posterpräsentationen Peter Böhm, Marc Rittberger: Nutzungsanalyse des Deutschen Bildungsservers und Konzeption eines Personalisierungsangebots Andreas Bohne-Lang, Elke Lang: A landmark in biomedical information: many ways are leading to PubMed Ina Blümel, Rene Berndt: 3 D-Modelle in bibliothekarischen Angeboten Nicolai Erbs, Daniel Bär, Iryna Gurevych, Torsten Zesch: First Aid for Information Chaos in Wikis Maria Gäde, Juliane Stiller: Multilingual Interface Usage Jasmin Hügi, Rahel Birri Blezon, Rene Schneider: Fassettierte Suche in Benutzeroberflächen von digitalen Bibliotheken Hanna Knäusl: Ordnung im Weltwissen Isabel Nündel, Erich Weichselgartner, Günter Krampen: Die European Psychology Publication Platform Projektteam IUWIS: IUWIS (Infrastruktur Urheberrecht in Wissenschaft und Bildung): Urheberrecht zwischen Fakten und Diskursen Helge Klaus Rieder: Die Kulturgüterdatenbank der Region Trier Karl Voit, Keith Andrews, Wolfgang Wintersteller, Wolfgang Slany: TagTree: Exploring Tag-Based Navigational Stnictures Jakob Voß, Mathias Schindler, Christian Thiele: Link Server aggregation with BEACON
  18. Terminologie : Epochen - Schwerpunkte - Umsetzungen : zum 25-jährigen Bestehen des Rats für Deutschsprachige Terminologie (2019) 0.01
    0.009539106 = product of:
      0.038156424 = sum of:
        0.038156424 = weight(_text_:und in 602) [ClassicSimilarity], result of:
          0.038156424 = score(doc=602,freq=12.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.30011827 = fieldWeight in 602, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=602)
      0.25 = coord(1/4)
    
    Abstract
    Alle, die sich mit fachsprachlichen Texten beschäftigen, beschäftigen sich automatisch auch mit Terminologie: Beim Lesen von Fachtexten nehmen sie die darin enthaltene Terminologie auf, beim Verfassen von Fachtexten verwenden oder produzieren sie Terminologie, beim Fachübersetzen übertragen sie Terminologie in andere Sprachen. Im Laufe der Zeit haben sich Methoden und Verfahren entwickelt, wie man professionell und effizient mit Terminologie arbeitet. Die Auseinandersetzung mit den Grundsätzen der Terminologiearbeit hat sich zu einer wissenschaftlichen Disziplin entwickelt. Der Rat für Deutschsprachige Terminologie (RaDT) wurde 1994 als Initiative der UNESCO-Kommissionen Deutschlands, Österreichs und der Schweiz gegründet, um terminologische Aktivitäten zu fördern. Zu seinem 25-jährigen Bestehen erscheint nun dieser Sammelband, der einen Überblick über das vielfältige Schaffen und das gesamte Themenspektrum der RaDT-Mitglieder bietet. Um die verschiedenen Perspektiven innerhalb der RaDT-Gemeinschaft angemessen wiederzugeben, umfasst der Band vier Themenbereiche: 1. Vielfalt an Epochen 2. Vielfalt an Schwerpunkten 3. Vielfalt an Umsetzungen (in öffentlichen Institutionen) 4. Vielfalt an Umsetzungen (in der Privatwirtschaft) Dieser Sammelband richtet sich an alle, die sich mit Terminologie, Terminologiewissenschaft oder Terminologiearbeit befassen, insbesondere in Unternehmensbereichen wie Sprachmanagement, Terminologiemanagement, Corporate Language, Wissensmanagement, sowie an Studierende und Wissenschaftler in den entsprechenden Disziplinen.
    Series
    Kommunikation und Medienmanagement - Springer eBooks. Computer Science and Engineering
  19. Schiele, L.: Wie entsteht eine soziale Wirklichkeit? : Einstieg in die Sozialontologie von John Searle (2011) 0.01
    0.009539106 = product of:
      0.038156424 = sum of:
        0.038156424 = weight(_text_:und in 889) [ClassicSimilarity], result of:
          0.038156424 = score(doc=889,freq=12.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.30011827 = fieldWeight in 889, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=889)
      0.25 = coord(1/4)
    
    Abstract
    In der folgenden Arbeit werde ich die Sozialontologie John Searles genauer betrachten. Das Ziel seiner Ausarbeitungen besteht darin, das Problem der Sozialontologie zu klären, das heißt herauszufinden, wie Menschen "eine 'soziale' Wirklichkeit kreieren" (Searle 2009, S. 505). Unser Hauptaugenmerk wird hierbei auf den Gegenstand der Sozialontologie, also auf soziale Prozesse und Tatsachen, soziale Objekte und Ereignisse, gelenkt sein. Generell versucht Searle durch seine Ausführungen zu klären, inwiefern institutionelle soziale Phänomene "über die Sozialontologie hinausgehen, die bei sozialen Tieren vorliegt" (Searle 2009, S. 512). Seine Arbeit ist demnach ein Versuch zu erklären, durch welche Merkmale die menschliche Sozialontologie der tierischen überlegen ist. Searle nimmt die soziale Wirklichkeit als menschliches Konstrukt an, die nur dadurch existiert, weil wir glauben und akzeptieren, dass sie existiert. Was macht etwa ein bedrucktes Stück Papier zu einem Geldschein mit einem bestimmten Wert? Wieso kann ein Tier dieselbe physische Beschaffenheit eines Geldscheins betrachten wie ein Mensch, aber doch nicht den Geldschein, sondern nur das bedruckte Papier sehen? In diesem Zusammenhang werden wir auf die drei Grundformeln Searles zur Beschreibung der Grundstruktur der sozial-institutionellen Wirklichkeit stoßen, und hierzu die kollektive Intentionalität, Statuszuschreibung und konstitutive Regeln und Prozeduren näher betrachten. Es soll beschrieben werden, wie zum Beispiel ein bedrucktes Stück Papier durch Statuszuweisung eine gewisse Macht erzeugt.
  20. Chu, H.: Information representation and retrieval in the digital age (2010) 0.01
    0.009475299 = product of:
      0.037901197 = sum of:
        0.037901197 = weight(_text_:und in 1092) [ClassicSimilarity], result of:
          0.037901197 = score(doc=1092,freq=74.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.29811078 = fieldWeight in 1092, product of:
              8.602325 = tf(freq=74.0), with freq of:
                74.0 = termFreq=74.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.015625 = fieldNorm(doc=1092)
      0.25 = coord(1/4)
    
    Footnote
    Weitere Rez. in: Rez. in: nfd 55(2004) H.4, S.252 (D. Lewandowski):"Die Zahl der Bücher zum Thema Information Retrieval ist nicht gering, auch in deutscher Sprache liegen einige Titel vor. Trotzdem soll ein neues (englischsprachiges) Buch zu diesem Thema hier besprochen werden. Dieses zeichnet sich durch eine Kürze (nur etwa 230 Seiten Text) und seine gute Verständlichkeit aus und richtet sich damit bevorzugt an Studenten in den ersten Semestern. Heting Chu unterrichtet seit 1994 an Palmer School of Library and Information Science der Long Island University New York. Dass die Autorin viel Erfahrung in der Vermittlung des Stoffs in ihren Information-Retrieval-Veranstaltungen sammeln konnte, merkt man dem Buch deutlich an. Es ist einer klaren und verständlichen Sprache geschrieben und führt in die Grundlagen der Wissensrepräsentation und des Information Retrieval ein. Das Lehrbuch behandelt diese Themen als Gesamtkomplex und geht damit über den Themenbereich ähnlicher Bücher hinaus, die sich in der Regel auf das Retrieval beschränken. Das Buch ist in zwölf Kapitel gegliedert, wobei das erste Kapitel eine Übersicht über die zu behandelnden Themen gibt und den Leser auf einfache Weise in die Grundbegriffe und die Geschichte des IRR einführt. Neben einer kurzen chronologischen Darstellung der Entwicklung der IRR-Systeme werden auch vier Pioniere des Gebiets gewürdigt: Mortimer Taube, Hans Peter Luhn, Calvin N. Mooers und Gerard Salton. Dies verleiht dem von Studenten doch manchmal als trocken empfundenen Stoff eine menschliche Dimension. Das zweite und dritte Kapitel widmen sich der Wissensrepräsentation, wobei zuerst die grundlegenden Ansätze wie Indexierung, Klassifikation und Abstracting besprochen werden. Darauf folgt die Behandlung von Wissensrepräsentation mittels Metadaten, wobei v.a. neuere Ansätze wie Dublin Core und RDF behandelt werden. Weitere Unterkapitel widmen sich der Repräsentation von Volltexten und von Multimedia-Informationen. Die Stellung der Sprache im IRR wird in einem eigenen Kapitel behandelt. Dabei werden in knapper Form verschiedene Formen des kontrollierten Vokabulars und die wesentlichen Unterscheidungsmerkmale zur natürlichen Sprache erläutert. Die Eignung der beiden Repräsentationsmöglichkeiten für unterschiedliche IRR-Zwecke wird unter verschiedenen Aspekten diskutiert.
    Die Kapitel fünf bis neun widmen sich dann ausführlich dem Information Retrieval. Zuerst werden grundlegende Retrievaltechniken vorgestellt und ihre Vor- und Nachteile dargestellt. Aus der Sicht des Nutzers von IR-Systemen wird der Prozess des Bildens einer Suchanfrage diskutiert und die damit verbundenen Probleme aufgezeigt. Im sechsten Kapitel werden die Retrieval-Ansätze Suchen und Browsen gegenübergestellt, entsprechende Suchstrategien aufgezeigt und schließlich Ansätze diskutiert, die suchen und browsen zu integrieren versuchen. Das siebte Kapitel beschäftigt sich dann mit dem, was den Kern der meisten IRBücher ausmacht: den IR-Modellen. Diese werden kurz vorgestellt, auf Formeln wird weitgehend verzichtet. Dies ist jedoch durchaus als Vorteil zu sehen, denn gerade Studienanfängern bereitet das Verständnis der IR-Modelle aufgrund deren Komplexität oft Schwierigkeiten. Nach der Lektüre dieses Kapitels wird man zwar nicht im Detail über die verschiedenen Modelle Bescheid wissen, wird sie jedoch kennen und einordnen können.
    In Kapitel acht werden unterschiedliche Arten von IR-Systemen vorgestellt. Dies sind Online IR-Systeme, CD-ROM-Systeme, OPACs und Internet IR-Systeme, denen der Grossteil dieses Kapitels gewidmet ist. Zu jeder Art von System werden die historische Entwicklung und die Besonderheiten genannt. Bei den Internet-IR-Systemen wird ausführlich auf die besonderen Probleme, die bei diesen im Vergleich zu klassischen IR-Systemen auftauchen, eingegangen. Ein extra Kapitel behandelt die Besonderheiten des Retrievals bei besonderen Dokumentkollektionen und besonderen Formaten. Hier finden sich Informationen zum multilingualen Retrieval und zur Suche nach Multimedia-Inhalten, wobei besonders auf die Unterscheidung zwischen beschreibungs- und inhaltsbasiertem Ansatz der Erschließung solcher Inhalte eingegangen wird. In Kapitel zehn erfährt der Leser mehr über die Stellung des Nutzers in IRR-Prozessen. Die Autorin stellt verschiedene Arten von Suchinterfaces bzw. Benutzeroberflächen und Ansätze der Evaluation der Mensch-Maschine-Interaktion in solchen Systemen vor. Kapitel elf beschäftigt sich ausführlich mit der Evaluierung von IRR-Systemen und stellt die bedeutendsten Test (Cranfield und TREC) vor Ein kurzes abschließendes Kapitel behandelt Ansätze der künstlichen Intelligenz und ihre Anwendung bei IRR-Systemen. Der Aufbau, die knappe, aber dennoch präzise Behandlung des Themas sowie die verständliche Sprache machen dieses Buch zu eine sehr guten Einführung für Studenten in den ersten Semestern, die der englischen Sprache mächtig sind. Besonders positiv hervorzuheben ist die Behandlung auch der aktuellen Themen des IRR wie der Einsatz von Metadaten, die Behandlung von Multimedia-Informationen und der Schwerpunk bei den Internet-IR-Systemen.
    Leider gibt es in deutscher Sprache keinen vergleichbaren Titel. Das Information-Retrieval-Buch von Ferber (2003) ist eher mathematisch orientiert und dürfte Studienanfänger der Informationswissenschaft durch seine große Detailliertheit und der damit einhergehenden großen Anzahl von Formeln eher abschrecken. Es ist eher denjenigen empfohlen, die sich intensiver mit dem Thema beschäftigen möchten. Ähnlich verhält es sich mit dem von manchen gerne genutzten Skript von Fuhr. Das Buch von Gaus (2003) ist mittlerweile schon ein Klassiker, beschäftigt sich aber im wesentlichen mit der Wissensrepräsentation und bietet zudem wenig Aktuelles. So fehlen etwa die Themen Information Retrieval im Internet und Multimedia-Retrieval komplett. Auch die Materialsammlung von Poetzsch (2002) konzentriert sich auf IR in klassischen Datenbanken und strebt zudem auch keine systematische Darstellung des Gebiets an. Zu wünschen wäre also, dass das hier besprochene Buch auch hierzulande in der Lehre Verwendung finden würde, da es den Studierenden einen knappen, gut lesbaren Einblick in das Themengebiet gibt. Es sollte aufgrund der vorbildlichen Aufbereitung des Stoffs auch Vorbild für zukünftige Autoren von Lehrbüchern sein. Und letztlich würde sich der Rezensent eine deutsche Übersetzung dieses Bandes wünschen."

Languages

  • d 1631
  • e 213
  • a 1
  • More… Less…

Types

  • a 1375
  • el 403
  • m 279
  • x 74
  • s 60
  • r 26
  • n 8
  • i 3
  • b 2
  • p 2
  • v 2
  • ms 1
  • More… Less…

Themes

Subjects

Classifications