Search (1159 results, page 30 of 58)

  • × language_ss:"e"
  1. IAC übernimmt Ask Jeeves : Neuer weltweiter Player? (2005) 0.01
    0.007248515 = product of:
      0.02899406 = sum of:
        0.02899406 = weight(_text_:und in 4373) [ClassicSimilarity], result of:
          0.02899406 = score(doc=4373,freq=2.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.24504554 = fieldWeight in 4373, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=4373)
      0.25 = coord(1/4)
    
    Abstract
    Die InterActiveCorp. (IAC) übernimmt die Suchmaschine AskJeeves (www.ask.com) für 1,85 Milliarden US-Dollar in Aktien. Sowohl die Technologie als auch die Marke Ask Jeeves sollen weiterentwickelt werden. Informationen von IAC-Angeboten wie Expedia.com und Ticketmaster werden per vertikaler Integration bei Ask Jeeves angezeigt werden.
  2. Lewandowski, D.: Freiwillige Selbstkontrolle, Stärkung "alternativer Suchmaschinen" : Suchmaschinen und Politik (2005) 0.01
    0.007248515 = product of:
      0.02899406 = sum of:
        0.02899406 = weight(_text_:und in 4374) [ClassicSimilarity], result of:
          0.02899406 = score(doc=4374,freq=2.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.24504554 = fieldWeight in 4374, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=4374)
      0.25 = coord(1/4)
    
  3. Yee, M.M.: Guidelines for OPAC displays (1999) 0.01
    0.007248515 = product of:
      0.02899406 = sum of:
        0.02899406 = weight(_text_:und in 68) [ClassicSimilarity], result of:
          0.02899406 = score(doc=68,freq=2.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.24504554 = fieldWeight in 68, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=68)
      0.25 = coord(1/4)
    
    Abstract
    Seit den frühen 80er Jahren sind verschiedene OPAC-Studien gemacht worden. Es besteht jedoch Bedarf, in Form von Leitlinien und Empfehlungen einen Praxisband zusammenzustellen, um Bibliotheken Hilfestellung zu geben, ihren OPAC zu gestalten oder neu zu gestalten
  4. Calishain, T.; Dornfest, R.: Google hacks : 100 industrial-strength tips and tools (2003) 0.01
    0.007248515 = product of:
      0.02899406 = sum of:
        0.02899406 = weight(_text_:und in 134) [ClassicSimilarity], result of:
          0.02899406 = score(doc=134,freq=32.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.24504554 = fieldWeight in 134, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=134)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: nfd - Information Wissenschaft und Praxis 54(2003) H.4, S.253 (D. Lewandowski): "Mit "Google Hacks" liegt das bisher umfassendste Werk vor, das sich ausschließlich an den fortgeschrittenen Google-Nutzer wendet. Daher wird man in diesem Buch auch nicht die sonst üblichen Anfänger-Tips finden, die Suchmaschinenbücher und sonstige Anleitungen zur Internet-Recherche für den professionellen Nutzer in der Regel uninteressant machen. Mit Tara Calishain hat sich eine Autorin gefunden, die bereits seit nahezu fünf Jahren einen eigenen Suchmaschinen-Newsletter (www.researchbuzz.com) herausgibt und als Autorin bzw. Co-Autorin einige Bücher zum Thema Recherche verfasst hat. Für die Programmbeispiele im Buch ist Rael Dornfest verantwortlich. Das erste Kapitel ("Searching Google") gibt einen Einblick in erweiterte Suchmöglichkeiten und Spezifika der behandelten Suchmaschine. Dabei wird der Rechercheansatz der Autorin klar: die beste Methode sei es, die Zahl der Treffer selbst so weit einzuschränken, dass eine überschaubare Menge übrig bleibt, die dann tatsächlich gesichtet werden kann. Dazu werden die feldspezifischen Suchmöglichkeiten in Google erläutert, Tips für spezielle Suchen (nach Zeitschriftenarchiven, technischen Definitionen, usw.) gegeben und spezielle Funktionen der Google-Toolbar erklärt. Bei der Lektüre fällt positiv auf, dass auch der erfahrene Google-Nutzer noch Neues erfährt. Einziges Manko in diesem Kapitel ist der fehlende Blick über den Tellerrand: zwar ist es beispielsweise möglich, mit Google eine Datumssuche genauer als durch das in der erweiterten Suche vorgegebene Auswahlfeld einzuschränken; die aufgezeigte Lösung ist jedoch ausgesprochen umständlich und im Recherchealltag nur eingeschränkt zu gebrauchen. Hier fehlt der Hinweis, dass andere Suchmaschinen weit komfortablere Möglichkeiten der Einschränkung bieten. Natürlich handelt es sich bei dem vorliegenden Werk um ein Buch ausschließlich über Google, trotzdem wäre hier auch ein Hinweis auf die Schwächen hilfreich gewesen. In späteren Kapiteln werden durchaus auch alternative Suchmaschinen zur Lösung einzelner Probleme erwähnt. Das zweite Kapitel widmet sich den von Google neben der klassischen Websuche angebotenen Datenbeständen. Dies sind die Verzeichniseinträge, Newsgroups, Bilder, die Nachrichtensuche und die (hierzulande) weniger bekannten Bereichen Catalogs (Suche in gedruckten Versandhauskatalogen), Froogle (eine in diesem Jahr gestartete Shopping-Suchmaschine) und den Google Labs (hier werden von Google entwickelte neue Funktionen zum öffentlichen Test freigegeben). Nachdem die ersten beiden Kapitel sich ausführlich den Angeboten von Google selbst gewidmet haben, beschäftigt sich das Buch ab Kapitel drei mit den Möglichkeiten, die Datenbestände von Google mittels Programmierungen für eigene Zwecke zu nutzen. Dabei werden einerseits bereits im Web vorhandene Programme vorgestellt, andererseits enthält das Buch viele Listings mit Erläuterungen, um eigene Applikationen zu programmieren. Die Schnittstelle zwischen Nutzer und der Google-Datenbank ist das Google-API ("Application Programming Interface"), das es den registrierten Benutzern erlaubt, täglich bis zu 1.00o Anfragen über ein eigenes Suchinterface an Google zu schicken. Die Ergebnisse werden so zurückgegeben, dass sie maschinell weiterverarbeitbar sind. Außerdem kann die Datenbank in umfangreicherer Weise abgefragt werden als bei einem Zugang über die Google-Suchmaske. Da Google im Gegensatz zu anderen Suchmaschinen in seinen Benutzungsbedingungen die maschinelle Abfrage der Datenbank verbietet, ist das API der einzige Weg, eigene Anwendungen auf Google-Basis zu erstellen. Ein eigenes Kapitel beschreibt die Möglichkeiten, das API mittels unterschiedlicher Programmiersprachen wie PHP, Java, Python, usw. zu nutzen. Die Beispiele im Buch sind allerdings alle in Perl geschrieben, so dass es sinnvoll erscheint, für eigene Versuche selbst auch erst einmal in dieser Sprache zu arbeiten.
    Das sechste Kapitel enthält 26 Anwendungen des Google-APIs, die teilweise von den Autoren des Buchs selbst entwickelt wurden, teils von anderen Autoren ins Netz gestellt wurden. Als besonders nützliche Anwendungen werden unter anderem der Touchgraph Google Browser zur Visualisierung der Treffer und eine Anwendung, die eine Google-Suche mit Abstandsoperatoren erlaubt, vorgestellt. Auffällig ist hier, dass die interessanteren dieser Applikationen nicht von den Autoren des Buchs programmiert wurden. Diese haben sich eher auf einfachere Anwendungen wie beispielsweise eine Zählung der Treffer nach der Top-Level-Domain beschränkt. Nichtsdestotrotz sind auch diese Anwendungen zum großen Teil nützlich. In einem weiteren Kapitel werden pranks and games ("Streiche und Spiele") vorgestellt, die mit dem Google-API realisiert wurden. Deren Nutzen ist natürlich fragwürdig, der Vollständigkeit halber mögen sie in das Buch gehören. Interessanter wiederum ist das letzte Kapitel: "The Webmaster Side of Google". Hier wird Seitenbetreibern erklärt, wie Google arbeitet, wie man Anzeigen am besten formuliert und schaltet, welche Regeln man beachten sollte, wenn man seine Seiten bei Google plazieren will und letztlich auch, wie man Seiten wieder aus dem Google-Index entfernen kann. Diese Ausführungen sind sehr knapp gehalten und ersetzen daher keine Werke, die sich eingehend mit dem Thema Suchmaschinen-Marketing beschäftigen. Allerdings sind die Ausführungen im Gegensatz zu manch anderen Büchern zum Thema ausgesprochen seriös und versprechen keine Wunder in Bezug auf eine Plazienung der eigenen Seiten im Google-Index. "Google Hacks" ist auch denjenigen zu empfehlen, die sich nicht mit der Programmierung mittels des APIs beschäftigen möchten. Dadurch, dass es die bisher umfangreichste Sammlung von Tips und Techniken für einen gezielteren Umgang mit Google darstellt, ist es für jeden fortgeschrittenen Google-Nutzer geeignet. Zwar mögen einige der Hacks einfach deshalb mit aufgenommen worden sein, damit insgesamt die Zahl von i00 erreicht wird. Andere Tips bringen dafür klar erweiterte Möglichkeiten bei der Recherche. Insofern hilft das Buch auch dabei, die für professionelle Bedürfnisse leider unzureichende Abfragesprache von Google ein wenig auszugleichen." - Bergische Landeszeitung Nr.207 vom 6.9.2003, S.RAS04A/1 (Rundschau am Sonntag: Netzwelt) von P. Zschunke: Richtig googeln (s. dort)
  5. Michel, D.: Taxonomy of Subject Relationships (1997) 0.01
    0.007248515 = product of:
      0.02899406 = sum of:
        0.02899406 = weight(_text_:und in 346) [ClassicSimilarity], result of:
          0.02899406 = score(doc=346,freq=2.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.24504554 = fieldWeight in 346, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=346)
      0.25 = coord(1/4)
    
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  6. Kless, D.: From a thesaurus standard to a general knowledge organization standard?! (2007) 0.01
    0.007248515 = product of:
      0.02899406 = sum of:
        0.02899406 = weight(_text_:und in 1528) [ClassicSimilarity], result of:
          0.02899406 = score(doc=1528,freq=2.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.24504554 = fieldWeight in 1528, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=1528)
      0.25 = coord(1/4)
    
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  7. Cochard, N.: ¬A data model and XML schema for BS 8723-5 (2007) 0.01
    0.007248515 = product of:
      0.02899406 = sum of:
        0.02899406 = weight(_text_:und in 1532) [ClassicSimilarity], result of:
          0.02899406 = score(doc=1532,freq=2.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.24504554 = fieldWeight in 1532, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=1532)
      0.25 = coord(1/4)
    
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  8. Fayen, E.; Hlava, M.: Crosswalks and the USA perspective (2007) 0.01
    0.007248515 = product of:
      0.02899406 = sum of:
        0.02899406 = weight(_text_:und in 1536) [ClassicSimilarity], result of:
          0.02899406 = score(doc=1536,freq=2.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.24504554 = fieldWeight in 1536, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=1536)
      0.25 = coord(1/4)
    
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  9. Tudhope, D.; Hodge, G.: Terminology registries (2007) 0.01
    0.007248515 = product of:
      0.02899406 = sum of:
        0.02899406 = weight(_text_:und in 1539) [ClassicSimilarity], result of:
          0.02899406 = score(doc=1539,freq=2.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.24504554 = fieldWeight in 1539, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=1539)
      0.25 = coord(1/4)
    
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  10. Marie, J.S.: Medical indexing in the United States (2007) 0.01
    0.007248515 = product of:
      0.02899406 = sum of:
        0.02899406 = weight(_text_:und in 1743) [ClassicSimilarity], result of:
          0.02899406 = score(doc=1743,freq=2.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.24504554 = fieldWeight in 1743, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=1743)
      0.25 = coord(1/4)
    
    Source
    Information - Wissenschaft und Praxis. 58(2007) H.8, S.421-423
  11. Gleick, J.: ¬The information : a history, a theory, a flood (2011) 0.01
    0.007248515 = product of:
      0.02899406 = sum of:
        0.02899406 = weight(_text_:und in 979) [ClassicSimilarity], result of:
          0.02899406 = score(doc=979,freq=8.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.24504554 = fieldWeight in 979, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=979)
      0.25 = coord(1/4)
    
    BK
    05.20 / Kommunikation und Gesellschaft
    Classification
    05.20 / Kommunikation und Gesellschaft
    RSWK
    Informations- und Dokumentationswissenschaft / Geschichtee (BVB)
    Subject
    Informations- und Dokumentationswissenschaft / Geschichtee (BVB)
  12. Kempf, A.O.; Baum, K.: Von der Ein-Datenbank-Suche zum verteilten Suchszenario : Zum Aufbau von Crosskonkordanzen zwischen der Fachklassifikation Sozialwissenschaften und der Dewey-Dezimalklassifikation (2013) 0.01
    0.007248515 = product of:
      0.02899406 = sum of:
        0.02899406 = weight(_text_:und in 2654) [ClassicSimilarity], result of:
          0.02899406 = score(doc=2654,freq=2.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.24504554 = fieldWeight in 2654, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=2654)
      0.25 = coord(1/4)
    
  13. Schmolz, H.: Anaphora resolution and text retrieval : a lnguistic analysis of hypertexts (2013) 0.01
    0.007248515 = product of:
      0.02899406 = sum of:
        0.02899406 = weight(_text_:und in 2810) [ClassicSimilarity], result of:
          0.02899406 = score(doc=2810,freq=2.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.24504554 = fieldWeight in 2810, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=2810)
      0.25 = coord(1/4)
    
    Content
    Trägerin des VFI-Dissertationspreises 2014: "Überzeugende gründliche linguistische und quantitative Analyse eines im Information Retrieval bisher wenig beachteten Textelementes anhand eines eigens erstellten grossen Hypertextkorpus, einschliesslich der Evaluation selbsterstellter Auflösungsregeln für die Nutzung in künftigen IR-Systemen.".
  14. Neubauer, G.: Visualization of typed links in linked data (2017) 0.01
    0.007248515 = product of:
      0.02899406 = sum of:
        0.02899406 = weight(_text_:und in 4912) [ClassicSimilarity], result of:
          0.02899406 = score(doc=4912,freq=8.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.24504554 = fieldWeight in 4912, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4912)
      0.25 = coord(1/4)
    
    Abstract
    Das Themengebiet der Arbeit behandelt Visualisierungen von typisierten Links in Linked Data. Die wissenschaftlichen Gebiete, die im Allgemeinen den Inhalt des Beitrags abgrenzen, sind das Semantic Web, das Web of Data und Informationsvisualisierung. Das Semantic Web, das von Tim Berners Lee 2001 erfunden wurde, stellt eine Erweiterung zum World Wide Web (Web 2.0) dar. Aktuelle Forschungen beziehen sich auf die Verknüpfbarkeit von Informationen im World Wide Web. Um es zu ermöglichen, solche Verbindungen wahrnehmen und verarbeiten zu können sind Visualisierungen die wichtigsten Anforderungen als Hauptteil der Datenverarbeitung. Im Zusammenhang mit dem Sematic Web werden Repräsentationen von zusammenhängenden Informationen anhand von Graphen gehandhabt. Der Grund des Entstehens dieser Arbeit ist in erster Linie die Beschreibung der Gestaltung von Linked Data-Visualisierungskonzepten, deren Prinzipien im Rahmen einer theoretischen Annäherung eingeführt werden. Anhand des Kontexts führt eine schrittweise Erweiterung der Informationen mit dem Ziel, praktische Richtlinien anzubieten, zur Vernetzung dieser ausgearbeiteten Gestaltungsrichtlinien. Indem die Entwürfe zweier alternativer Visualisierungen einer standardisierten Webapplikation beschrieben werden, die Linked Data als Netzwerk visualisiert, konnte ein Test durchgeführt werden, der deren Kompatibilität zum Inhalt hatte. Der praktische Teil behandelt daher die Designphase, die Resultate, und zukünftige Anforderungen des Projektes, die durch die Testung ausgearbeitet wurden.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 70(2017) H.2, S.179-199
  15. Petritsch, B.: Metadata for research data in practice (2017) 0.01
    0.007248515 = product of:
      0.02899406 = sum of:
        0.02899406 = weight(_text_:und in 4913) [ClassicSimilarity], result of:
          0.02899406 = score(doc=4913,freq=2.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.24504554 = fieldWeight in 4913, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=4913)
      0.25 = coord(1/4)
    
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 70(2017) H.2, S.200-207
  16. RDA Toolkit (3) : Oktober 2017 (2017) 0.01
    0.007248515 = product of:
      0.02899406 = sum of:
        0.02899406 = weight(_text_:und in 4994) [ClassicSimilarity], result of:
          0.02899406 = score(doc=4994,freq=8.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.24504554 = fieldWeight in 4994, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4994)
      0.25 = coord(1/4)
    
    Abstract
    Am 10. Oktober 2017 ist das neue Release des RDA Toolkits erschienen. Aufgrund des 3R-Projekts (RDA Toolkit Restruction and Redesign Project) gab es keine inhaltlichen Änderungen am Regelwerkstext. Es wurden ausschließlich Änderungen an den D-A-CH vorgenommen, die in der Änderungsdokumentation im RDA-Info-Wiki<https://wiki.dnb.de/x/1hLSBg> aufgelistet sind. Die Gesamtübersicht der D-A-CH nach Kapiteln finden Sie im RDA Toolkit unter dem Reiter "Ressourcen". Wir möchten daran erinnern, dass für die Anwendung von RDA im deutschsprachigen Raum jeweils der deutsche Text maßgeblich ist. Im Juni 2018 wird das RDA Toolkit einen Relaunch erfahren und mit einer neuen Oberfläche erscheinen. Dieser beinhaltet ein Redesign der Toolkit-Oberfläche und die inhaltliche Anpassung des Standards RDA an das Library Reference Model (IFLA LRM) sowie die künftige stärkere Ausrichtung auf die aktuellen technischen Möglichkeiten durch den sogenannten 4-Fold-Path. Zunächst wird im Juni 2018 die englische Originalausgabe der RDA in der neuen Form erscheinen. Alle Übersetzungen werden in einer Übergangszeit angepasst. Hierfür wird die alte Version des RDA Toolkit für ein weiteres Jahr zur Verfügung gestellt. Der Stand Oktober 2017 der deutschen Ausgabe und die D-A-CH-Anwendungsrichtlinien bleiben bis zur Anpassung eingefroren. Im geplanten Dezember-Release des RDA Toolkit wird es keine Änderungen für die deutsche Ausgabe und die D-A-CH-Anwendungsrichtlinien geben. [Inetbib vom 11.10.2017]
  17. RDA Toolkit (1) (2017) 0.01
    0.007248515 = product of:
      0.02899406 = sum of:
        0.02899406 = weight(_text_:und in 4996) [ClassicSimilarity], result of:
          0.02899406 = score(doc=4996,freq=8.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.24504554 = fieldWeight in 4996, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4996)
      0.25 = coord(1/4)
    
    Abstract
    Am 14. Februar 2017 ist das neue Release des RDA Toolkits<http://www.rdatoolkit.org/development/February2017release> erschienen. Das Release enthält im englischen Text alle Änderungen aus dem Fast-Track-Verfahren RSC/Sec/6<http://www.rda-rsc.org/sites/all/files/RSC-Sec-6.pdf>. Ebenso enthalten sind die Updates der LC-PCC PS (Library of Congress-Program for Cooperative Cataloging Policy Statements) und der MLA Best Practices. Neu aufgenommen wurden die Policy Statements der Library and Archives Canada in Kooperation mit der Bibliothèque et Archives nationales du Québec. Diese sind sowohl im Register als auch im Text über ein Icon (dunkel violett) mit den Buchstaben LAC/BAC-BAnQ ansteuerbar. Ab sofort ist es möglich sich auch die Policy Statements in einer zweisprachigen Ansicht anzeigen zu lassen, dazu wurde die Funktion Select Language und Dual View in der Symbolliste unter dem Reiter "Ressourcen" eingefügt. Im deutschen Text wurden ausschließlich Änderungen an den Anwendungsrichtlinien für den deutschsprachigen Raum (D-A-CH) eingearbeitet. Die dazugehörige Übersicht (Kurz- bzw. Langversion) finden Sie im RDA-Info-Wiki<https://wiki.dnb.de/x/1hLSBg>. Mitte April 2017 wird das nächste Release des RDA Toolkit erscheinen, eingearbeitet werden die verabschiedeten Proposals, die im November 2016 vom RDA Steering Committee (RSC) beschlossen wurden. Die Umsetzung der Änderungen in der deutschen Übersetzung aus den Fast-Track-Dokumenten RSC/Sec/4 und RSC/Sec/5 und RSC/Sec/6 sind für den August 2017 geplant.
  18. Aschero, B.; Negrini, G.; Zanola, R.; Zozi, P.: Systematifier : a guide for the systematization of Italian literature (1995) 0.01
    0.007248515 = product of:
      0.02899406 = sum of:
        0.02899406 = weight(_text_:und in 128) [ClassicSimilarity], result of:
          0.02899406 = score(doc=128,freq=2.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.24504554 = fieldWeight in 128, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=128)
      0.25 = coord(1/4)
    
    Source
    Konstruktion und Retrieval von Wissen: 3. Tagung der Deutschen ISKO-Sektion einschließlich der Vorträge des Workshops "Thesauri als terminologische Lexika", Weilburg, 27.-29.10.1993. Hrsg.: N. Meder u.a
  19. Taniguchi, S.: Mapping and merging of IFLA Library Reference Model and BIBFRAME 2.0 (2018) 0.01
    0.007248515 = product of:
      0.02899406 = sum of:
        0.02899406 = weight(_text_:und in 162) [ClassicSimilarity], result of:
          0.02899406 = score(doc=162,freq=2.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.24504554 = fieldWeight in 162, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=162)
      0.25 = coord(1/4)
    
    Abstract
    Zusammenfassung von FRBR, FRAD und FRSAD in einem Modell (vgl. das Modell selbst).
  20. Sprachtechnologie, mobile Kommunikation und linguistische Ressourcen : Beiträge zur GLDV Tagung 2005 in Bonn (2005) 0.01
    0.0072121816 = product of:
      0.028848726 = sum of:
        0.028848726 = weight(_text_:und in 4578) [ClassicSimilarity], result of:
          0.028848726 = score(doc=4578,freq=22.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.24381724 = fieldWeight in 4578, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=4578)
      0.25 = coord(1/4)
    
    Abstract
    Die Sprachtechnologie wird mobil. Sprachtechnologische Anwendungen begegnen uns zunehmend außerhalb des Büros oder der eigenen vier Wände. Mit gesprochener Sprache steuern Benutzer ihre Mobiltelefone, fragen Datenbanken ab oder führen Geschäftsvorgänge durch. In diesen Bereichen finden eklektisch sprachwissenschaftliche Modelle Anwendung, vor allem solche, die auf linguistischen Ressourcen - wie Wortnetzen oder Ontologien - trainiert werden müssen, aber auch Modelle der Dialog-Repräsentation und -Struktur wie etwa des Turn Taking. Dieser Tagungsband vereint die Beiträge zum Hauptprogramm der Jahrestagung 2005 der Gesellschaftfür Linguistische Datenverarbeitung (GLDV), zu den Workshops GermaNetHund Turn Taking sowie die Beiträge zum GLDV Preis 2005 für die beste Abschlussarbeit.
    Content
    INHALT: Chris Biemann/Rainer Osswald: Automatische Erweiterung eines semantikbasierten Lexikons durch Bootstrapping auf großen Korpora - Ernesto William De Luca/Andreas Nürnberger: Supporting Mobile Web Search by Ontology-based Categorization - Rüdiger Gleim: HyGraph - Ein Framework zur Extraktion, Repräsentation und Analyse webbasierter Hypertextstrukturen - Felicitas Haas/Bernhard Schröder: Freges Grundgesetze der Arithmetik: Dokumentbaum und Formelwald - Ulrich Held/ Andre Blessing/Bettina Säuberlich/Jürgen Sienel/Horst Rößler/Dieter Kopp: A personalized multimodal news service -Jürgen Hermes/Christoph Benden: Fusion von Annotation und Präprozessierung als Vorschlag zur Behebung des Rohtextproblems - Sonja Hüwel/Britta Wrede/Gerhard Sagerer: Semantisches Parsing mit Frames für robuste multimodale Mensch-Maschine-Kommunikation - Brigitte Krenn/Stefan Evert: Separating the wheat from the chaff- Corpus-driven evaluation of statistical association measures for collocation extraction - Jörn Kreutel: An application-centered Perspective an Multimodal Dialogue Systems - Jonas Kuhn: An Architecture for Prallel Corpusbased Grammar Learning - Thomas Mandl/Rene Schneider/Pia Schnetzler/Christa Womser-Hacker: Evaluierung von Systemen für die Eigennamenerkennung im crosslingualen Information Retrieval - Alexander Mehler/Matthias Dehmer/Rüdiger Gleim: Zur Automatischen Klassifikation von Webgenres - Charlotte Merz/Martin Volk: Requirements for a Parallel Treebank Search Tool - Sally YK. Mok: Multilingual Text Retrieval an the Web: The Case of a Cantonese-Dagaare-English Trilingual e-Lexicon -
    Darja Mönke: Ein Parser für natürlichsprachlich formulierte mathematische Beweise - Martin Müller: Ontologien für mathematische Beweistexte - Moritz Neugebauer: The status of functional phonological classification in statistical speech recognition - Uwe Quasthoff: Kookkurrenzanalyse und korpusbasierte Sachgruppenlexikographie - Reinhard Rapp: On the Relationship between Word Frequency and Word Familiarity - Ulrich Schade/Miloslaw Frey/Sebastian Becker: Computerlinguistische Anwendungen zur Verbesserung der Kommunikation zwischen militärischen Einheiten und deren Führungsinformationssystemen - David Schlangen/Thomas Hanneforth/Manfred Stede: Weaving the Semantic Web: Extracting and Representing the Content of Pathology Reports - Thomas Schmidt: Modellbildung und Modellierungsparadigmen in der computergestützten Korpuslinguistik - Sabine Schröder/Martina Ziefle: Semantic transparency of cellular phone menus - Thorsten Trippel/Thierry Declerck/Ulrich Held: Standardisierung von Sprachressourcen: Der aktuelle Stand - Charlotte Wollermann: Evaluation der audiovisuellen Kongruenz bei der multimodalen Sprachsynsthese - Claudia Kunze/Lothar Lemnitzer: Anwendungen des GermaNet II: Einleitung - Claudia Kunze/Lothar Lemnitzer: Die Zukunft der Wortnetze oder die Wortnetze der Zukunft - ein Roadmap-Beitrag -
    Karel Pala: The Balkanet Experience - Peter M. Kruse/Andre Nauloks/Dietmar Rösner/Manuela Kunze: Clever Search: A WordNet Based Wrapper for Internet Search Engines - Rosmary Stegmann/Wolfgang Woerndl: Using GermaNet to Generate Individual Customer Profiles - Ingo Glöckner/Sven Hartrumpf/Rainer Osswald: From GermaNet Glosses to Formal Meaning Postulates -Aljoscha Burchardt/ Katrin Erk/Anette Frank: A WordNet Detour to FrameNet - Daniel Naber: OpenThesaurus: ein offenes deutsches Wortnetz - Anke Holler/Wolfgang Grund/Heinrich Petith: Maschinelle Generierung assoziativer Termnetze für die Dokumentensuche - Stefan Bordag/Hans Friedrich Witschel/Thomas Wittig: Evaluation of Lexical Acquisition Algorithms - Iryna Gurevych/Hendrik Niederlich: Computing Semantic Relatedness of GermaNet Concepts - Roland Hausser: Turn-taking als kognitive Grundmechanik der Datenbanksemantik - Rodolfo Delmonte: Parsing Overlaps - Melanie Twiggs: Behandlung des Passivs im Rahmen der Datenbanksemantik- Sandra Hohmann: Intention und Interaktion - Anmerkungen zur Relevanz der Benutzerabsicht - Doris Helfenbein: Verwendung von Pronomina im Sprecher- und Hörmodus - Bayan Abu Shawar/Eric Atwell: Modelling turn-taking in a corpus-trained chatbot - Barbara März: Die Koordination in der Datenbanksemantik - Jens Edlund/Mattias Heldner/Joakim Gustafsson: Utterance segmentation and turn-taking in spoken dialogue systems - Ekaterina Buyko: Numerische Repräsentation von Textkorpora für Wissensextraktion - Bernhard Fisseni: ProofML - eine Annotationssprache für natürlichsprachliche mathematische Beweise - Iryna Schenk: Auflösung der Pronomen mit Nicht-NP-Antezedenten in spontansprachlichen Dialogen - Stephan Schwiebert: Entwurf eines agentengestützten Systems zur Paradigmenbildung - Ingmar Steiner: On the analysis of speech rhythm through acoustic parameters - Hans Friedrich Witschel: Text, Wörter, Morpheme - Möglichkeiten einer automatischen Terminologie-Extraktion.
    Series
    Sprache, Sprechen und Computer. Bd. 8

Authors

Languages

  • d 32
  • m 3
  • nl 1
  • More… Less…

Types

  • a 737
  • m 299
  • el 96
  • s 91
  • i 21
  • n 17
  • x 12
  • r 10
  • b 7
  • ? 1
  • v 1
  • More… Less…

Themes

Subjects

Classifications