Search (98 results, page 3 of 5)

  • × theme_ss:"Grundlagen u. Einführungen: Allgemeine Literatur"
  1. Lamprecht, S.: Professionelle Recherche im Internet (1999) 0.01
    0.011179027 = product of:
      0.04471611 = sum of:
        0.04471611 = weight(_text_:und in 3856) [ClassicSimilarity], result of:
          0.04471611 = score(doc=3856,freq=10.0), product of:
            0.11666329 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05263717 = queryNorm
            0.38329202 = fieldWeight in 3856, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3856)
      0.25 = coord(1/4)
    
    Abstract
    Dieses Buch bietet einen sehr guten Überblick, wie man sich Informationen schnell und effizient verschaffen kann. Neben Suchmaschinen werden auch Mailing-Listen und Newsgroups (Diskussionforen) vorgestellt. Es wird anschaulich beschrieben, wie sie gegliedert sind und wie man daran teilnehmen kann. Rund die Hälfte des Buches beschäftigt sich mit Spezialrecherchen, wie etwa die Suche nach Software, Personen oder Jobs. Im Kapitel 'Quellen für Aus- und Fortbildung' findet man neben der 'Free Internet Encyclopdedia' und den 'Online Dictionaries' viele weitere nützliche Adressen. Obwohl sich das Buch primär an Profis richtet, ist es auch für Einsteiger geeignet. Die Recherchestrategien werden allgemein verständlich erklärt
  2. Poetzsch, E.: Information Retrieval : Einführung in Grundlagen und Methoden (1998) 0.01
    0.011179027 = product of:
      0.04471611 = sum of:
        0.04471611 = weight(_text_:und in 239) [ClassicSimilarity], result of:
          0.04471611 = score(doc=239,freq=10.0), product of:
            0.11666329 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05263717 = queryNorm
            0.38329202 = fieldWeight in 239, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=239)
      0.25 = coord(1/4)
    
    Content
    Teil 1: Grundlagen des Information Retrieval: Schwerpunkte des Information Retrieval mit Relevanz für die praktische Recherchedurchführung: Arbeitsschritte einer Recherche, Voraussetzungen für Online-Recherchen, Überblick über Arten von Datenbanken und über Hosts, Benutzerhilfen, Softwaretools, Retrievalsprachen und Kosten; Teil 2: Methoden des Information Retrieval: Einführung in die Methoden des Information Retrieval anhand ausgewählter Beispiele zu Retrievalsprachen, windows-basierten Retrievaltools und Web-Search-Möglichkeiten mittels hostspezifischer Suchoberflächen
    Series
    Materialien zur Information und Dokumentation; Bd.5
  3. Oberhauser, O.: Automatisches Klassifizieren : Entwicklungsstand - Methodik - Anwendungsbereiche (2005) 0.01
    0.011150472 = product of:
      0.044601887 = sum of:
        0.044601887 = weight(_text_:und in 38) [ClassicSimilarity], result of:
          0.044601887 = score(doc=38,freq=78.0), product of:
            0.11666329 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05263717 = queryNorm
            0.38231295 = fieldWeight in 38, product of:
              8.83176 = tf(freq=78.0), with freq of:
                78.0 = termFreq=78.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=38)
      0.25 = coord(1/4)
    
    Abstract
    Automatisches Klassifizieren von Textdokumenten bedeutet die maschinelle Zuordnung jeweils einer oder mehrerer Notationen eines vorgegebenen Klassifikationssystems zu natürlich-sprachlichen Texten mithilfe eines geeigneten Algorithmus. In der vorliegenden Arbeit wird in Form einer umfassenden Literaturstudie ein aktueller Kenntnisstand zu den Ein-satzmöglichkeiten des automatischen Klassifizierens für die sachliche Erschliessung von elektronischen Dokumenten, insbesondere von Web-Ressourcen, erarbeitet. Dies betrifft zum einen den methodischen Aspekt und zum anderen die in relevanten Projekten und Anwendungen gewonnenen Erfahrungen. In methodischer Hinsicht gelten heute statistische Verfahren, die auf dem maschinellen Lernen basieren und auf der Grundlage bereits klassifizierter Beispieldokumente ein Modell - einen "Klassifikator" - erstellen, das zur Klassifizierung neuer Dokumente verwendet werden kann, als "state-of-the-art". Die vier in den 1990er Jahren an den Universitäten Lund, Wolverhampton und Oldenburg sowie bei OCLC (Dublin, OH) durchgeführten "grossen" Projekte zum automatischen Klassifizieren von Web-Ressourcen, die in dieser Arbeit ausführlich analysiert werden, arbeiteten allerdings noch mit einfacheren bzw. älteren methodischen Ansätzen. Diese Projekte bedeuten insbesondere aufgrund ihrer Verwendung etablierter bibliothekarischer Klassifikationssysteme einen wichtigen Erfahrungsgewinn, selbst wenn sie bisher nicht zu permanenten und qualitativ zufriedenstellenden Diensten für die Erschliessung elektronischer Ressourcen geführt haben. Die Analyse der weiteren einschlägigen Anwendungen und Projekte lässt erkennen, dass derzeit in den Bereichen Patent- und Mediendokumentation die aktivsten Bestrebungen bestehen, Systeme für die automatische klassifikatorische Erschliessung elektronischer Dokumente im laufenden operativen Betrieb einzusetzen. Dabei dominieren jedoch halbautomatische Systeme, die menschliche Bearbeiter durch Klassifizierungsvorschläge unterstützen, da die gegenwärtig erreichbare Klassifizierungsgüte für eine Vollautomatisierung meist noch nicht ausreicht. Weitere interessante Anwendungen und Projekte finden sich im Bereich von Web-Portalen, Suchmaschinen und (kommerziellen) Informationsdiensten, während sich etwa im Bibliothekswesen kaum nennenswertes Interesse an einer automatischen Klassifizierung von Büchern bzw. bibliographischen Datensätzen registrieren lässt. Die Studie schliesst mit einer Diskussion der wichtigsten Projekte und Anwendungen sowie einiger im Zusammenhang mit dem automatischen Klassifizieren relevanter Fragestellungen und Themen.
    Footnote
    Rez. in: VÖB-Mitteilungen 58(2005) H.3, S.102-104 (R.F. Müller); ZfBB 53(2006) H.5, S.282-283 (L. Svensson): "Das Sammeln und Verzeichnen elektronischer Ressourcen gehört in wissenschaftlichen Bibliotheken längst zum Alltag. Parallel dazu kündigt sich ein Paradigmenwechsel bei den Findmitteln an: Um einen effizienten und benutzerorientierten Zugang zu den gemischten Kollektionen bieten zu können, experimentieren einige bibliothekarische Diensteanbieter wie z. B. das hbz (http://suchen.hbz-nrw.de/dreilaender/), die Bibliothek der North Carolina State University (www.lib.ncsu.edu/) und demnächst vascoda (www.vascoda.de/) und der Librarians-Internet Index (www.lii.org/) zunehmend mit Suchmaschinentechnologie. Dabei wird angestrebt, nicht nur einen vollinvertierten Suchindex anzubieten, sondern auch das Browsing durch eine hierarchisch geordnete Klassifikation. Von den Daten in den deutschen Verbunddatenbanken ist jedoch nur ein kleiner Teil schon klassifikatorisch erschlossen. Fremddaten aus dem angloamerikanischen Bereich sind oft mit LCC und/oder DDC erschlossen, wobei die Library of Congress sich bei der DDCErschließung auf Titel, die hauptsächlich für die Public Libraries interessant sind, konzentriert. Die Deutsche Nationalbibliothek wird ab 2007 Printmedien und Hochschulschriften flächendeckend mit DDC erschließen. Es ist aber schon offensichtlich, dass v. a. im Bereich der elektronischen Publikationen die anfallenden Dokumentenmengen mit immer knapperen Personalressourcen nicht intellektuell erschlossen werden können, sondern dass neue Verfahren entwickelt werden müssen. Hier kommt Oberhausers Buch gerade richtig. Seit Anfang der 1990er Jahre sind mehrere Projekte zum Thema automatisches Klassifizieren durchgeführt worden. Wer sich in diese Thematik einarbeiten wollte oder sich für die Ergebnisse der größeren Projekte interessierte, konnte bislang auf keine Überblicksdarstellung zurückgreifen, sondern war auf eine Vielzahl von Einzeluntersuchungen sowie die Projektdokumentationen angewiesen. Oberhausers Darstellung, die auf einer Fülle von publizierter und grauer Literatur fußt, schließt diese Lücke. Das selbst gesetzte Ziel, einen guten Überblick über den momentanen Kenntnisstand und die Ergebnisse der einschlägigen Projekte verständlich zu vermitteln, erfüllt der Autor mit Bravour. Dabei ist anzumerken, dass er ein bibliothekarisches Grundwissen und mindestens grundlegende Kenntnisse über informationswissenschaftliche Grundbegriffe und Fragestellungen voraussetzt, wobei hier für den Einsteiger einige Hinweise auf einführende Darstellungen wünschenswert gewesen wären.
    Zum Inhalt Auf einen kurzen einleitenden Abschnitt folgt eine Einführung in die grundlegende Methodik des automatischen Klassifizierens. Oberhauser erklärt hier Begriffe wie Einfach- und Mehrfachklassifizierung, Klassen- und Dokumentzentrierung, und geht danach auf die hauptsächlichen Anwendungen der automatischen Klassifikation von Textdokumenten, maschinelle Lernverfahren und Techniken der Dimensionsreduktion bei der Indexierung ein. Zwei weitere Unterkapitel sind der Erstellung von Klassifikatoren und den Methoden für deren Auswertung gewidmet. Das Kapitel wird abgerundet von einer kurzen Auflistung einiger Softwareprodukte für automatisches Klassifizieren, die sowohl kommerzielle Software, als auch Projekte aus dem Open-Source-Bereich umfasst. Der Hauptteil des Buches ist den großen Projekten zur automatischen Erschließung von Webdokumenten gewidmet, die von OCLC (Scorpion) sowie an den Universitäten Lund (Nordic WAIS/WWW, DESIRE II), Wolverhampton (WWLib-TOS, WWLib-TNG, Old ACE, ACE) und Oldenburg (GERHARD, GERHARD II) durchgeführt worden sind. Der Autor beschreibt hier sehr detailliert - wobei der Detailliertheitsgrad unterschiedlich ist, je nachdem, was aus der Projektdokumentation geschlossen werden kann - die jeweilige Zielsetzung des Projektes, die verwendete Klassifikation, die methodische Vorgehensweise sowie die Evaluierungsmethoden und -ergebnisse. Sofern Querverweise zu anderen Projekten bestehen, werden auch diese besprochen. Der Verfasser geht hier sehr genau auf wichtige Aspekte wie Vokabularbildung, Textaufbereitung und Gewichtung ein, so dass der Leser eine gute Vorstellung von den Ansätzen und der möglichen Weiterentwicklung des Projektes bekommt. In einem weiteren Kapitel wird auf einige kleinere Projekte eingegangen, die dem für Bibliotheken besonders interessanten Thema des automatischen Klassifizierens von Büchern sowie den Bereichen Patentliteratur, Mediendokumentation und dem Einsatz bei Informationsdiensten gewidmet sind. Die Darstellung wird ergänzt von einem Literaturverzeichnis mit über 250 Titeln zu den konkreten Projekten sowie einem Abkürzungs- und einem Abbildungsverzeichnis. In der abschließenden Diskussion der beschriebenen Projekte wird einerseits auf die Bedeutung der einzelnen Projekte für den methodischen Fortschritt eingegangen, andererseits aber auch einiges an Kritik geäußert, v. a. bezüglich der mangelnden Auswertung der Projektergebnisse und des Fehlens an brauchbarer Dokumentation. So waren z. B. die Projektseiten des Projekts GERHARD (www.gerhard.de/) auf den Stand von 1998 eingefroren, zurzeit [11.07.06] sind sie überhaupt nicht mehr erreichbar. Mit einigem Erstaunen stellt Oberhauser auch fest, dass - abgesehen von der fast 15 Jahre alten Untersuchung von Larsen - »keine signifikanten Studien oder Anwendungen aus dem Bibliotheksbereich vorliegen« (S. 139). Wie der Autor aber selbst ergänzend ausführt, dürfte dies daran liegen, dass sich bibliografische Metadaten wegen des geringen Textumfangs sehr schlecht für automatische Klassifikation eignen, und dass - wie frühere Ergebnisse gezeigt haben - das übliche TF/IDF-Verfahren nicht für Katalogisate geeignet ist (ibd.).
    Die am Anfang des Werkes gestellte Frage, ob »die Techniken des automatischen Klassifizierens heute bereits so weit [sind], dass damit grosse Mengen elektronischer Dokumente [-] zufrieden stellend erschlossen werden können? « (S. 13), beantwortet der Verfasser mit einem eindeutigen »nein«, was Salton und McGills Aussage von 1983, »daß einfache automatische Indexierungsverfahren schnell und kostengünstig arbeiten, und daß sie Recall- und Precisionwerte erreichen, die mindestens genauso gut sind wie bei der manuellen Indexierung mit kontrolliertem Vokabular « (Gerard Salton und Michael J. McGill: Information Retrieval. Hamburg u.a. 1987, S. 64 f.) kräftig relativiert. Über die Gründe, warum drei der großen Projekte nicht weiter verfolgt werden, will Oberhauser nicht spekulieren, nennt aber mangelnden Erfolg, Verlagerung der Arbeit in den beteiligten Institutionen sowie Finanzierungsprobleme als mögliche Ursachen. Das größte Entwicklungspotenzial beim automatischen Erschließen großer Dokumentenmengen sieht der Verfasser heute in den Bereichen der Patentund Mediendokumentation. Hier solle man im bibliothekarischen Bereich die Entwicklung genau verfolgen, da diese »sicherlich mittelfristig auf eine qualitativ zufrieden stellende Vollautomatisierung« abziele (S. 146). Oberhausers Darstellung ist ein rundum gelungenes Werk, das zum Handapparat eines jeden, der sich für automatische Erschließung interessiert, gehört."
  4. Computerlinguistik und Sprachtechnologie : Eine Einführung (2010) 0.01
    0.011064367 = product of:
      0.04425747 = sum of:
        0.04425747 = weight(_text_:und in 1735) [ClassicSimilarity], result of:
          0.04425747 = score(doc=1735,freq=30.0), product of:
            0.11666329 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05263717 = queryNorm
            0.3793607 = fieldWeight in 1735, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1735)
      0.25 = coord(1/4)
    
    Abstract
    Dieses Lehrbuch bietet eine umfassende Einführung in Grundlagen und Methoden der Computerlinguistik und stellt die wichtigsten Anwendungsgebiete in der Sprachtechnologie vor. Es richtet sich gleichermaßen an Studierende der Computerlinguistik und verwandter Fächer mit Bezug zur Verarbeitung natürlicher Sprache wie an Entwickler sprachverarbeitender Systeme. Nach einem Überblick über Aufgaben und Ziele der Computerlinguistik werden die erforderlichen theoretischen Grundlagen zur Logik, den Formalen Sprachen, der Graphentheorie, den statistischen Verfahren sowie der Texttechnologie beispielbezogen erläutert. Es schließt sich eine Darstellung der verschiedenen Methoden für die Verarbeitung auf den linguistischen Beschreibungsebenen an. Dabei werden zunächst die grundlegenden Begriffe und Konzepte der Phonetik und Phonologie, Morphologie, Syntax, Semantik sowie der Pragmatik vermittelt und darauf aufbauend die Prinzipien der sprachtechnologischen Umsetzung behandelt. Die drei letzten Teile des Buchs geben Überblicke über die verwendeten sprachtechnologischen Informationsquellen, die vielfältigen Anwendungen in der Praxis sowie über Evaluationsverfahren für sprachverarbeitende Systeme. Anhand konkreter Fragestellungen - von der Entwicklung von Korrekturprogrammen über das Informationsmanagement bis zur Maschinellen Übersetzung - wird das Zusammenwirken der einzelnen Methoden aufgezeigt. Für die dritte Auflage wurden sämtliche Kapitel überarbeitet und aktualisiert sowie zum Teil zu eigenständigen, neuen Kapiteln zusammengeführt. Insbesondere trägt die dritte Auflage der rasanten Entwicklung in der Computerlinguistik und Sprachtechnologie durch eine stärkere Fokussierung auf statistische Grundlagen und Methoden Rechnung. "Durch dieses Handbuch wird für den deutschsprachigen Raum eine empfindliche Lücke geschlossen. Es umfasst die relevanten Aspekte computerlinguistischer Grundlagenwissenschaft und sprachtechnologischer Anwendung in eindrucksvoller Breite und auf aktuellem Stand." [Manfred Pinkal]
    BK
    18.00 Einzelne Sprachen und Literaturen allgemein
    Classification
    18.00 Einzelne Sprachen und Literaturen allgemein
  5. Anderson, R.; Birbeck, M.; Kay, M.; Livingstone, S.; Loesgen, B.; Martin, D.; Mohr, S.; Ozu, N.; Peat, B.; Pinnock, J.; Stark, P.; Williams, K.: XML professionell : behandelt W3C DOM, SAX, CSS, XSLT, DTDs, XML Schemas, XLink, XPointer, XPath, E-Commerce, BizTalk, B2B, SOAP, WAP, WML (2000) 0.01
    0.010925187 = product of:
      0.043700747 = sum of:
        0.043700747 = weight(_text_:und in 729) [ClassicSimilarity], result of:
          0.043700747 = score(doc=729,freq=52.0), product of:
            0.11666329 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05263717 = queryNorm
            0.37458867 = fieldWeight in 729, product of:
              7.2111025 = tf(freq=52.0), with freq of:
                52.0 = termFreq=52.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=729)
      0.25 = coord(1/4)
    
    Abstract
    In diesem Buch sollen die grundlegenden Techniken zur Erstellung, Anwendung und nicht zuletzt Darstellung von XML-Dokumenten erklärt und demonstriert werden. Die wichtigste und vornehmste Aufgabe dieses Buches ist es jedoch, die Grundlagen von XML, wie sie vom World Wide Web Consortium (W3C) festgelegt sind, darzustellen. Das W3C hat nicht nur die Entwicklung von XML initiiert und ist die zuständige Organisation für alle XML-Standards, es werden auch weiterhin XML-Spezifikationen vom W3C entwickelt. Auch wenn immer mehr Vorschläge für neue XML-basierte Techniken aus dem weiteren Umfeld der an XML Interessierten kommen, so spielt doch weiterhin das W3C die zentrale und wichtigste Rolle für die Entwicklung von XML. Der Schwerpunkt dieses Buches liegt darin, zu lernen, wie man XML als tragende Technologie in echten Alltags-Anwendungen verwendet. Wir wollen Ihnen gute Design-Techniken vorstellen und demonstrieren, wie man XML-fähige Anwendungen mit Applikationen für das WWW oder mit Datenbanksystemen verknüpft. Wir wollen die Grenzen und Möglichkeiten von XML ausloten und eine Vorausschau auf einige "nascent"-Technologien werfen. Egal ob Ihre Anforderungen sich mehr an dem Austausch von Daten orientieren oder bei der visuellen Gestaltung liegen, dieses Buch behandelt alle relevanten Techniken. jedes Kapitel enthält ein Anwendungsbeispiel. Da XML eine Plattform-neutrale Technologie ist, werden in den Beispielen eine breite Palette von Sprachen, Parsern und Servern behandelt. Jede der vorgestellten Techniken und Methoden ist auf allen Plattformen und Betriebssystemen relevant. Auf diese Weise erhalten Sie wichtige Einsichten durch diese Beispiele, auch wenn die konkrete Implementierung nicht auf dem von Ihnen bevorzugten System durchgeführt wurde.
    Dieses Buch wendet sich an alle, die Anwendungen auf der Basis von XML entwickeln wollen. Designer von Websites können neue Techniken erlernen, wie sie ihre Sites auf ein neues technisches Niveau heben können. Entwickler komplexerer Software-Systeme und Programmierer können lernen, wie XML in ihr System passt und wie es helfen kann, Anwendungen zu integrieren. XML-Anwendungen sind von ihrer Natur her verteilt und im Allgemeinen Web-orientiert. Dieses Buch behandelt nicht verteilte Systeme oder die Entwicklung von Web-Anwendungen, sie brauchen also keine tieferen Kenntnisse auf diesen Gebieten. Ein allgemeines Verständnis für verteilte Architekturen und Funktionsweisen des Web wird vollauf genügen. Die Beispiele in diesem Buch verwenden eine Reihe von Programmiersprachen und Technologien. Ein wichtiger Bestandteil der Attraktivität von XML ist seine Plattformunabhängigkeit und Neutralität gegenüber Programmiersprachen. Sollten Sie schon Web-Anwendungen entwickelt haben, stehen die Chancen gut, dass Sie einige Beispiele in Ihrer bevorzugten Sprache finden werden. Lassen Sie sich nicht entmutigen, wenn Sie kein Beispiel speziell für Ihr System finden sollten. Tools für die Arbeit mit XML gibt es für Perl, C++, Java, JavaScript und jede COM-fähige Sprache. Der Internet Explorer (ab Version 5.0) hat bereits einige Möglichkeiten zur Verarbeitung von XML-Dokumenten eingebaut. Auch der Mozilla-Browser (der Open-Source-Nachfolger des Netscape Navigators) bekommt ähnliche Fähigkeiten. XML-Tools tauchen auch zunehmend in großen relationalen Datenbanksystemen auf, genau wie auf Web- und Applikations-Servern. Sollte Ihr System nicht in diesem Buch behandelt werden, lernen Sie die Grundlagen und machen Sie sich mit den vorgestellten Techniken aus den Beispielen vertraut.
    Das erworbene Wissen sollte sich dann auch auf jedem anderen Betriebssystem umsetzen lassen. Jedes einzelne Kapitel wird sich mit einem bestimmten XML Thema beschäftigen. Kapitel 1 bietet eine Einführung in die Konzepte von XML. Kapitel 2 und 3 sind eng verknüpft, da sie fundamentale Grundlagen behandeln. Kapitel 2 startet mit der Syntax und den grundlegenden Regeln von XML. Kapitel 3 führt dann weiter und stellt Werkzeuge zur Erstellung eigener, problembezogener XML-DTDs vor. Die verbleibenden Kapitel jedoch sind weitestgehend, im Bezug auf die vorgestellten Techniken und Technologien, in sich abgeschlossen. Die wichtigsten Kapitel werden durch ein verbindendes Beispiel zusammengehalten. Das Beispiel geht davon aus, dass ein Verleger seinen Bücher-Katalog mittels XML präsentieren will. Wir werden damit beginnen, Regeln für die Beschreibung von Büchern in einem Katalog festzulegen. Auf der Grundlage dieser Regeln werden wir dann zeigen, wie jede einzelne Technik uns dabei hilft, XML-Anwendungen zu erstellen. Sie werden sehen, wie dieser Katalog sich in ein Dokument umwandeln lässt, wie solche Dokumente manipuliert werden können und wie man aus Programmen heraus auf sie zugreifen kann. Wir werden auch zeigen, wie man die Inhalte der Dokumente für den Leser aufbereitet. Da solche Anwendungen in der Praxis nicht in einem Vakuum existieren, werden Sie auch sehen, wie XML-Anwendungen mit Datenbanken interagieren. Es werden sich verschiedene thematische Stränge durch das Buch ziehen, die wir im folgenden Abschnitt vorstellen möchten. Damit sollten Sie in der Lage sein, gezielt für Sie wichtige Themen herauszugreifen und andere Abschnitte auszulassen
  6. Stock, W.G.: Qualitätskriterien von Suchmaschinen : Checkliste für Retrievalsysteme (2000) 0.01
    0.010713027 = product of:
      0.042852107 = sum of:
        0.042852107 = weight(_text_:und in 5773) [ClassicSimilarity], result of:
          0.042852107 = score(doc=5773,freq=18.0), product of:
            0.11666329 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05263717 = queryNorm
            0.3673144 = fieldWeight in 5773, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5773)
      0.25 = coord(1/4)
    
    Abstract
    Suchmaschinen im World Wide Web wird nachgesagt, dass sie - insbesondere im Vergleich zur Retrievalsoftware kommerzieller Online-Archive suboptimale Methoden und Werkzeuge einsetzen. Elaborierte befehlsorientierte Retrievalsysteme sind vom Laien gar nicht und vom Professional nur dann zu bedienen, wenn man stets damit arbeitet. Die Suchsysteme einiger "independents", also isolierter Informationsproduzenten im Internet, zeichnen sich durch einen Minimalismus aus, der an den Befehlsumfang anfangs der 70er Jahre erinnert. Retrievalsoftware in Intranets, wenn sie denn überhaupt benutzt wird, setzt fast ausnahmslos auf automatische Methoden von Indexierung und Retrieval und ignoriert dabei nahezu vollständig dokumentarisches Know how. Suchmaschinen bzw. Retrievalsysteme - wir wollen beide Bezeichnungen synonym verwenden - bereiten demnach, egal wo sie vorkommen, Schwierigkeiten. An ihrer Qualität wird gezweifelt. Aber was heißt überhaupt: Qualität von Suchmaschinen? Was zeichnet ein gutes Retrievalsystem aus? Und was fehlt einem schlechten? Wir wollen eine Liste von Kriterien entwickeln, die für gutes Suchen (und Finden!) wesentlich sind. Es geht also ausschließlich um Quantität und Qualität der Suchoptionen, nicht um weitere Leistungsindikatoren wie Geschwindigkeit oder ergonomische Benutzerschnittstellen. Stillschweigend vorausgesetzt wirdjedoch der Abschied von ausschließlich befehlsorientierten Systemen, d.h. wir unterstellen Bildschirmgestaltungen, die die Befehle intuitiv einleuchtend darstellen. Unsere Checkliste enthält nur solche Optionen, die entweder (bei irgendwelchen Systemen) schon im Einsatz sind (und wiederholt damit zum Teil Altbekanntes) oder deren technische Realisierungsmöglichkeit bereits in experimentellen Umgebungen aufgezeigt worden ist. insofern ist die Liste eine Minimalforderung an Retrievalsysteme, die durchaus erweiterungsfähig ist. Gegliedert wird der Kriterienkatalog nach (1.) den Basisfunktionen zur Suche singulärer Datensätze, (2.) den informetrischen Funktionen zur Charakterisierunggewisser Nachweismengen sowie (3.) den Kriterien zur Mächtigkeit automatischer Indexierung und natürlichsprachiger Suche
  7. Poetzsch, E.: Information Retrieval : Einführung in Grundlagen und Methoden (2006) 0.01
    0.010713027 = product of:
      0.042852107 = sum of:
        0.042852107 = weight(_text_:und in 592) [ClassicSimilarity], result of:
          0.042852107 = score(doc=592,freq=50.0), product of:
            0.11666329 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05263717 = queryNorm
            0.3673144 = fieldWeight in 592, product of:
              7.071068 = tf(freq=50.0), with freq of:
                50.0 = termFreq=50.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=592)
      0.25 = coord(1/4)
    
    Classification
    AN 95000 [Allgemeines # Buch- und Bibliothekswesen, Informationswissenschaft # Informationswissenschaft # Informationspraxis # Bibliographische Erfassung, Suchpraxis]
    Footnote
    Rez. in: Online-Mitteilungen 2006, H.88, S.13-15 [=Mitteilungen VOEB 59(2006) H.4] (M. Katzmayr): "Dieses Lehrbuch nun in der 5., völlig neu bearbeiteten Auflage vorliegend - hat zum Ziel, eine praxisorientierte Einführung in das Information Retrieval (IR) zu liefern. Es stellt gemeinsam mit den von derselben Autorin verfassten fachbezogenen Bänden "Wirtschaftsinformation: Online, CD-ROM, Internet" und "Naturwissenschaftlich-technische Information: Online,, CD-ROM, Internet" eine dreiteilige Gesamtausgabe zum IR dar. Der hier besprochene einführende Band gliedert sich in Grundlagen, Methoden und fachbezogene Aspekte (letzteres Kapitel wird in den erwähnten ergänzenden Bänden vertiefend behandelt). Dass es sich bei diesem Band um ein Lehrbuch handelt, wird nicht zuletzt durch Wiederholungsfragen am Ende jedes Kapitels, Rechercheübungen und einige Hausübungen verdeutlicht. Der Schwerpunkt liegt bei lizenzpflichtigen OnlineDatenbanken, das Web Information Retrieval wird nicht behandelt. Das erste Kapitel, "Grundlagen des Information Retrieval", vermittelt ein Basiswissen rund um Recherchedatenbanken und ihren Einsatz, etwa wie Datenbanken gegliedert und einheitlich beschrieben werden können, wie Datensätze in Abhängigkeit der gespeicherten Informationen üblicherweise strukturiert sind, welche Arbeitsschritte eine Recherche typischerweise aufweist oder wie sich die Kosten einer Online-Recherche kategorisieren lassen. Schließlich wird auch eine knappe Marktübersicht wichtiger kommerzieller Datenbankanbieter gegeben. .Im folgenden Kapitel, "Methoden des Information Retrieval", wird das Kommandoretrieval anhand der Abfragesprache DataStarOnline (DSO), die beim Host Dialog DataStar zur Anwendung kommt, erklärt. Neben Grundfunktionen wie Datenbankeinwahl und -wechsel werden die Verwendung von Such und Näheoperatoren, Trunkierung, Limitierung und Befehle zur Anzeige und Ausgabe der Suchergebnisse sowie ausgewählte spezielle Funktionen ausführlich dargestellt. Anschließend findet sich eine mit Screenshots dokumentierte Anleitung zur Benutzung der Websuchoberflächen des Hosts.
    Das dritte Kapitel, "Fachbezogenes Information Retrieval", beschreibt die Retrievalmöglichkeiten der Hosts Dialog und STN International anhand der Retrievalsprachen Dialog und Messenger sowie der Weboberflächen der beiden Anbieter. Thematisch orientiert sich dieses Kapitel an der Wirtschaftsinformation bzw. naturwissenschaftlich-technischen Information. Ein Verzeichnis mit weiterführenden Monographien, eine Auflistung der elektronischen Referenzen und ein Register beschließen den Band. Um das umfassende Thema IR in ein überschaubares Lehrbuchau packen, müssen zwangsläufig Abstriche und Schwerpunktsetzungen vorgenommen werden; die Autorin hat in Abstimmung mit ihrer Lehrveranstaltung, wozu dieses Buch die Lernunterlage bildet, diesen auf lizenzpflichtige Online-Datenbanken gelegt. Allerdings kann diese Einschränkung den Eindruck erwecken, seriöse Recherche sei ausschließlich auf kostenpflichtige Angebote angewiesen; das immer wichtiger und umfangreicher werdende Angebot an wissenschaftlichen-und qualitätskontrollierten kostenlosen' oder gar Open Access-Datenbankeng sollte in einem Einführungsband zumindest erwähnt werden. Eine Abklärung, ob für die Befriedigung eines Informationsbedarfes überhaupt kostenpflichtige Abfragen notig sind, sollte explizit Bestandteil jeder Recherchevorbereitung (Kap. 1.3.) sein. Es wäre fürspätere Auflagen auch zu überlegen, ob nicht etwa boolesche und Näheoperatoren, Phrasensuche, Trunkierung, Klammerung und Feldsuche allgemein und abstrakt im ersten Kapitel besprochen werden sollten. Diese Suchtechniken werden jetzt im 2. und 3. Kapitel nur anhand der ausgewählten Retrievalsprachen: abgehandelt. Andernfalls könnte da<_ erste Kapitel als eigenständige, knappe Leseempfehlung und Lernunterlage zur Einführung in die Datenbankrecherche in der grundständigen Lehre verwendet werden, selbst wenn die Retrievalmöglichkeiten der spezifischen Hosts nicht Unterrichtsthema sind. Etwas schwerer als diese inhaltlichen Anmerkungen wiegt der Vorwurf an die optische Gestaltung des Textes. Uneinheitliche Schriftgrößen, eine Überladung mit Hervorhebungen (Kursivsetzungen, Fettdrucke, Unterstreichungen, mitunter in Kombination) sowie die generelle Bevorzugung der Aufzählung gegenüber dem Fließtext führen zu einem eher unruhigen Erscheinungsbild, was die Auseinandersetzung mit der Thematik und das Zurechtfinden im Buch wohl ein wenig erschwert. Fazit: trotz der angeführten Kritikpunkte handelt es sich hier um einen, empfehlenswerten Einstieg für den Umgang mit Recherchedatenbanken - insbesondere für jene Leserinnen, die an einer explizit praxisorientierten Einführung zum Kommandoretrieval für die angesprochenen Hosts interessiert sind."
    RVK
    AN 95000 [Allgemeines # Buch- und Bibliothekswesen, Informationswissenschaft # Informationswissenschaft # Informationspraxis # Bibliographische Erfassung, Suchpraxis]
    Series
    Materialien zur Information und Dokumentation; Bd.5
  8. Gödert, W.; Lepsky, K.; Nagelschmidt, M.: Informationserschließung und Automatisches Indexieren : ein Lehr- und Arbeitsbuch (2011) 0.01
    0.010713027 = product of:
      0.042852107 = sum of:
        0.042852107 = weight(_text_:und in 2550) [ClassicSimilarity], result of:
          0.042852107 = score(doc=2550,freq=18.0), product of:
            0.11666329 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05263717 = queryNorm
            0.3673144 = fieldWeight in 2550, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2550)
      0.25 = coord(1/4)
    
    Abstract
    Das Buch vermittelt Kenntnisse über die Modellierung dokumentbezogener Metadaten durch praktische Aufgabenstellungen, begleitende theoretische Erläuterungen sowie ergänzende Übungen. Als Beispiele dienen Bilddokumente und bibliografische Daten. Es wird vermittelt, wie entsprechende Datenbanken aufgebaut und mit geeigneten Suchumgebungen ausgestattet werden. Es wird dargestellt und praktisch geübt, wie Kenntnisse über die Struktur der Daten zum Import von Fremddaten genutzt werden können. Zielvorstellung ist der Aufbau von Datenbanken zur formalen und inhaltlichen Erschließung und die Gestaltung von Retrievalumgebungen, für bibliografische Daten auch die Erstellung von Bibliografien. Als Methoden zur inhaltlichen Erschließung werden besonders die semantische Strukturierung von Themenfeldern am Beispiel des aspektorientierten Thesaurus-Konzepts und das Automatische Indexieren bibliografischer Daten behandelt. Abgerundet wird die Darstellung durch die Diskussion von Bezügen zum Aufbau relationaler Datenbanken für bibliografische Daten sowie Hintergründe der Zeichencodierung und Ordnungsfragen.
  9. Bekavac, B.: Suchverfahren und Suchdienste des World Wide Web (1996) 0.01
    0.01049658 = product of:
      0.04198632 = sum of:
        0.04198632 = weight(_text_:und in 4803) [ClassicSimilarity], result of:
          0.04198632 = score(doc=4803,freq=12.0), product of:
            0.11666329 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05263717 = queryNorm
            0.35989314 = fieldWeight in 4803, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4803)
      0.25 = coord(1/4)
    
    Abstract
    Das WWW ermöglicht den einfachen Zugriff auf eine große und stark wachsende Menge an Informationen. Die gezielte Suche nach relevanten WWW-Dokumenten wird zunehmens zu einer zentralen Aufgabe innerhalb des WWW. Dieser Beitrag beschreibt verschiedene Verfahren, die zur lokalen und globalen Suche im WWW verwendet werden. Client-basierte Suchtools mit automatischer Navigation, die bei einigen wenigen WWW-Browsern fest implementiert sind, ermöglichen eine Suche ausgehend von einer Startseite. Weitaus breiter Anwendung finden aber Server-basierte Suchverfahren, die sowohl die lokale Suche innerhalb eines WWW-Servers als auch die weltweite Suche über WWW-Kataloge und roboterbasiertes Suchmaschinen ermöglichen. In diesem Beitrag werden gängige verzeichnis- und roboterbasierte Suchdienste des WWW von ihrer Funktionalität her untersucht und verglichen. Erwähnt werden aber auch Beispiele alternativer Suchmaschinen sowie erweiterter Suchdienste, die eine zusätzliche Suche auch außerhalb des Internet ermöglichen
  10. Poetzsch, E.: Information Retrieval : Einführung in Grundlagen und Methoden (2005) 0.01
    0.010300365 = product of:
      0.04120146 = sum of:
        0.04120146 = weight(_text_:und in 591) [ClassicSimilarity], result of:
          0.04120146 = score(doc=591,freq=26.0), product of:
            0.11666329 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05263717 = queryNorm
            0.3531656 = fieldWeight in 591, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=591)
      0.25 = coord(1/4)
    
    Abstract
    Im ersten Teil "Grundlagen des Information Retrieval" werden Schwerpunkte des Information Retrieval unter dem Aspekt ihrer Relevanz für die praktische Recherchedurchführung behandelt. Im zweiten Teil "Methoden des Information Retrieval" erfolgt eine umfassende Einführung in die verschiedenen Methoden des Information Retrieval anhand ausgewählter Retrievalsprachen und Web-Search-Möglichkeiten mittels hostspezifischer Suchoberflächen. Im dritten Teil "Fachbezogenes Information Retrieval" wird erstmalig in dieser Auflage das fachbezogene Information Retrieval mit den Schwerpunkten "Wirtschaftsinformation" und "Naturwissenschaftlich-technische Information" einbezogen.
    Footnote
    Rez. in: Information: Wissenschafft & Praxis 56(2005) H.5/6, S.337 (W. Ratzek): "Das zentrale Thema dieses Buches ist das Information Retrieval in Fachinformationsdatenbanken. Seit der ersten Auflage von 1998 liegt nun bereits eine aktualisierte 4. Auflage vor. Neu ist beispielsweise das Kapitel "Fachbezogenes Information Retrieval", das bisher in anderen Büchern der Schriftenreihe behandelt worden war. Die drei Teile des Buches behandeln - die "Grundlagen des Information Retrieval", d.h. u.a. Grundbegriffe, Arten und Anbieter von Datenbanken, Vorbereitung und Durchführung von Recherchen, Retrievalsprachen; - die "Methoden des Information Retrieval", hier geht es im Wesentlichen um die Anwendung und Funktion des Information Retrieval, d.h. Kommando-Retrieval, widowsbasierte Retrievaltools und Web-Search; - "Fachbezogenes Information Retrieval", wobei der Schwerpunkt auf der Wirtschaftsinformation liegt. Zur Gestaltung des Buches heißt es (S. 6): "Für die Darstellung der Inhalte wurde von Anfang an eine komprimierte Form gewählt, die den Studierenden zum einen in der gedruckten Buchausgabe als Begleitmaterial zur Lehre dienen soll und zum anderen die Grundlage für eine Online-Tutorial liefert, das sich gegenwärtig in der Testphase befindet." Damit sind Zielsetzung und Zielgruppe des Bandes benannt. Falls dieses Buch auch nicht-studentische Zielgruppen ansprechen soll, dann erscheint mir, aber auch einer Reihe von Kollegen, die Präsentationsform verbesserungswürdig. Die "komprimierte Form" erinnert an unkommentierte Vorlesungsfolien. Information Retrieval als Werkzeug für Recherchen in Fachinformationsdatenbanken erscheint vor dem Hintergrund der Diskussion über Informationsressourcen für das Wissensmanagements in Organisationen und deren Globalisierungstendenzen erweiterungsbedürftig. Das Konzept des Verlags, eine Schriftenreihe "Materialien zur Information und Dokumentation" herauszugeben, ist zu begrüßen."
    Issue
    4., völlig neu bearb. und erw. Aufl.
    Series
    Materialien zur Information und Dokumentation; Bd.5
  11. Vickery, B.C.; Vickery, A.: Information science in theory and practice (2004) 0.01
    0.010256943 = product of:
      0.041027773 = sum of:
        0.041027773 = weight(_text_:und in 4320) [ClassicSimilarity], result of:
          0.041027773 = score(doc=4320,freq=66.0), product of:
            0.11666329 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05263717 = queryNorm
            0.3516768 = fieldWeight in 4320, product of:
              8.124039 = tf(freq=66.0), with freq of:
                66.0 = termFreq=66.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4320)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: BuB 56(2004) H.12, S.743 (H, Meinhardt): "1987 erstmals erschienen und seitdem ein Klassiker unter den Lehrbüchern im Feld der Information Science, liegt nunmehr die dritte, deutlich veränderte Auflage vor. Notwendig geworden war die Überarbeitung vor allem durch die Dynamik im Bereich der Informationstechnologien und deren Auswirkungen sowohl auf die Praxis der Informationsspezialisten wie auch die Disziplin selber. Augenfälligste Veränderung ist denn auch ein neues Kapitel zu »Internet und Informationswissenschaft«. »Chemical librarians« Zunächst einige Worte zu den Autoren, die dem einen oder anderen vielleicht nicht bekannt sind: Brian C. Vickery und Alina Vickery sind beide von ihrer Ausbildung her Chemiker und waren als Ehepartner (Alina Vickery starb Ende 2001) auch beruflich vielfältig gemeinsam tätig. Wie viele Chemiker (man denke nur Eugene Garfield, den Begründer der modernen Szientometrie) sensibilisiert für den Umgang mit enormen Informationsmengen und damit Informationsproblemen, zudem als »chemical librarian« (Brian C. Vickery) und Mitarbeiter von chemischen Fachzeitschriften auch professionell beschäftigt mit Fragen des Fachinformationstransfers, haben sie sich (insbesondere Brian C. Vickery) frühzeitig und kontinuierlich informationswissenschaftlich betätigt. Resultat ist eine Fülle von Publikationen, vor allem zu den Bereichen Indexieren, Klassifizieren, Information Retrieval, auch zur Geschichte der wissenschaftlichen Kommunikation (alle Arbeiten sind im Anhang aufgelistet). Brian C. Vickery war außerdem, das dürfte für Bibliothekare von Interesse sein, als Deputy beim Aufbau der National Lending Library for Science and Technology (NLLST) in Boston Spa beteiligt, die ihre Arbeit 1961 aufnahm und 1973 mit in die neu gegründete British Library einging. Und es sei hier schon vorab bemerkt, dass der immer wiederkehrende Bezug von informationswissenschaftlichen Fragestellungen auf die bibliothekarische Praxis ein Vorzug dieses Buches ist.
    Ungewohnte Einordnung und Gewichtung Von der Konzeption her ist das Buch am ehesten als eine Art einführendes Handbuch zu beschreiben, das sehr stark Querschnittscharakter hat. Dem entspricht die inhaltlich weit gespannte Gliederung, die die meisten informationswissenschaftlichen Bereiche streift. Die Autoren verfolgen explizit nicht das Ziel, eine Art Manual für die Informationspraxis oder für das Informationsmanagement vorzulegen, sondern versprechen einen Mix aus theoretischer Annäherung und praxisorientierter Handreichung - und enttäuschen damit nicht. Der deutsche Leser, der mit hiesigen Lehrbüchern zur Informationswissenschaft nicht gerade verwöhnt ist und sich in aller Regel aus vielen Quellen Puzzleartig sein Bild von »Informationswissenschaft« zusammenstoppeln muss (eine nach wie vor rühmliche Ausnahme sind die mehrbändigen »Grundlagen der praktischen Information und Dokumentation«, deren Neuauflage gerade erschienen sind), wird vieles, allerdings in ungewohnter Einordnung und Gewichtung, hier gesammelt vorfinden. Im Einzelnen gehen Vickery auf folgende Bereiche ein: Information und Gesellschaft, Informationstransfer in natürlichen, sozialen, maschinellen Umgebungen, Besonderheiten und Ausprägungen menschlicher Kommunikation und Informationsbedürfnisse, das gesamte Gebiet des Information Retrieval, Wissensrepräsentation, Informationsvermittlung, Informationssysteme und deren Evaluation, Internet und Informationswissenschaft.
    Soziologisch geprägt Das alles auf nicht einmal 350 Seiten: Hier kann es also immer nur um ein »Anreißen« gehen, was sich immer wieder, zum Beispiel in den Abschnitten zu Information Retrieval oder zu Formen der Wissensrepräsentation, schmerzhaft bemerkbar macht. Auf Klassifikationen, Thesauri, Formen des Abstracting und so weiter wird so gut wie nicht eingegangen. Hier ist generell zu fragen, ob die Gewichtung, die die Autoren vornehmen, sinnvoll ist. Ihr Ansatz, Informationswissenschaft zu beschreiben als »the study of the communication of information in sociery«, ist ein sehr weiter und findet seinen Niederschlag in überdimensionierten Abschnitten, die stark soziologisch geprägt sind, ohne wirklich erhellend zu sein; dazu sind die Aussagen, zum Beispiel zu Reichweiten von Kommunikation oder zu verschiedenen Kommunikationstypen, zu allgemein. Bedeutsamer, da dieser umfassende Ansatz überhaupt nicht durchgehalten wird, sondern sich immer stärker verengt hin auf Kommunikation von wissenschaftlicher Information, ist jedoch, dass auch dieses Buch letztlich den Eindruck hinterlässt, Informationswissenschaft sei ein Konglomerat miteinander relativ unverbundener Theorien und Bausteine. Dieser Eindruck, der sich beim Lesen auch deshalb immer wieder aufdrängt, weil sowohl die historische EntwicklungderDisziplin nur sehr verknappt (generell USA-zentriert) wie auch die Abgrenzung/Überschneidungzu anderen Wissenschaften wenig thematisiert wird (ganz stark spürbarim Kapitel 3 »Widercontexts of information transfer«), mildert sich etwas durch die sehr verdienstvolle Auflistung von bekannten Informationsspezialisten im Anhang und die Visualisierung der Informationswissenschaft, ihrer Zweige und bedeutender Vertreter, in Form einer Art »Landkarte«.
    Ein Anliegen aller Das neu hinzugekommene Kapitel zu Informationswissenschaft und Internet versucht auf rund 40 Seiten einen Rundumschlag zu informationswissenschaftlichen Fragestellungen von HTML bis hin zu digitalen Bibliotheken. Auch wenn dieses Kapitel nicht konsistent erscheint, knüpfen die Autoren hier an unmittelbar zurückliegende Forschungen an und fordern ein neues und erweitertes Verständnis von Informationswissenschaft, die die Informationsbedürfnisse aller sozialen Gruppen zu ihrem Anliegen machen müsse. Hier am ehesten schließt sich der Kreis zu dem eingangs bekundeten Verständnis von Informationswissenschaft. Kritische Anmerkung Kritisch muss angemerkt werden, dass es mit den Aktualisierungen, ausgenommen das neu hinzugekommene Kapitel zum Internet, so weit nicht her ist. Besonders ärgerlich sind die vielen Verweise auf Studien und Forschungsergebnisse der Sechziger- und Siebzigerjahre. Unbenommen dieser kritischen Hinweise, bleibt der Titel der Vickerys ein einführendes Buch, dessen Lektüre Gewinn bringend ist und das nach wie vor ein Grundlagenwerk genannt werden kann."
    Weitere Rezension in. Mitteilungen VÖB 57(2004) H.3/4, S.84-86 (O. Oberhauser): " ... Fazit: Wer sich von der Neuauflage von Vickery & Vickery eine auf dem neuesten Stand befindliche Einführung in die Informationswissenschaft erhofft hat, wird enttäuscht sein. Für jene Personen, die das Buch hingegen noch nicht kannten, bzw. jene Bibliotheken, die die ältere Auflage nicht im Bestand haben, ist diese dritte Auflage, ungeachtet ihrer Schwächen und des überhöhten Preises, ein "Muss"!
  12. Hahn, G.: Sacherschließung in Spezialbibliotheken : eine Einführung in Formen und Systeme (1992) 0.01
    0.010100339 = product of:
      0.040401354 = sum of:
        0.040401354 = weight(_text_:und in 8249) [ClassicSimilarity], result of:
          0.040401354 = score(doc=8249,freq=4.0), product of:
            0.11666329 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05263717 = queryNorm
            0.34630734 = fieldWeight in 8249, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=8249)
      0.25 = coord(1/4)
    
    Series
    Arbeitshefte der Arbeitsgemeinschaft der Parlaments- und Behördenbibliotheken; Nr.46
  13. Haller, K.: Katalogkunde : Formalkataloge und formale Ordnungsmethodem (1983) 0.01
    0.010100339 = product of:
      0.040401354 = sum of:
        0.040401354 = weight(_text_:und in 704) [ClassicSimilarity], result of:
          0.040401354 = score(doc=704,freq=4.0), product of:
            0.11666329 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05263717 = queryNorm
            0.34630734 = fieldWeight in 704, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=704)
      0.25 = coord(1/4)
    
    Footnote
    Als Einführung in Aufgabenstellung und Ausprägung der verschiedenen Katalogen lesenswert; hinsichtlich der modernen Entwicklungen nicht mehr auf dem aktuellen Stand
  14. Tetens, H.: Philosophisches Argumentieren : Eine Einführung (2015) 0.01
    0.010100339 = product of:
      0.040401354 = sum of:
        0.040401354 = weight(_text_:und in 145) [ClassicSimilarity], result of:
          0.040401354 = score(doc=145,freq=16.0), product of:
            0.11666329 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05263717 = queryNorm
            0.34630734 = fieldWeight in 145, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=145)
      0.25 = coord(1/4)
    
    Abstract
    Wer philosophiert, der argumentiert. Dabei hält sich das erstaunliche Vorurteil, daß beim philosophischen Argumentieren einfach nur die formale Logik auf die Themen der Philosophie anzuwenden sei. Aber mit Logikkenntnissen allein ist es nicht getan. Das spannende und aufregende Denkabenteuer philosophischen Argumentierens beginnt jenseits des bloß Formalen. Holm Tetens legt ein Buch vor, das in die Eigenheiten philosophischen Argumentierens ganz von den inhaltlichen Themen und Problemen der Philosophie her einführt. Dabei kommt die formale Logik durchaus zu ihrem Recht, indem zu Anfang ihre Prinzipien und die Technik ihrer Anwendung vorgestellt werden. Ansonsten ist das Buch aber so untechnisch geschrieben, daß man ihm auch ohne tiefere Logikkenntnisse gut folgen kann. Für jeden, der sich für die Philosophie interessiert, sei er Anfänger, Laie oder bereits gut mit ihr vertraut, hält dieses Buch eine Fülle an Informationen und provokanten Denkanregungen bereit.
    BK
    08.03 Grundlagen und Methoden der Philosophie
    Classification
    CC 2400: Einführungen, Handbücher, Sammelbände und Bibliografien / Philosophie / Systematische Philosophie
    08.03 Grundlagen und Methoden der Philosophie
    RVK
    CC 2400: Einführungen, Handbücher, Sammelbände und Bibliografien / Philosophie / Systematische Philosophie
  15. Williamson, N.J.: Subject access in the on-line environment (1984) 0.01
    0.009998825 = product of:
      0.0399953 = sum of:
        0.0399953 = weight(_text_:und in 573) [ClassicSimilarity], result of:
          0.0399953 = score(doc=573,freq=2.0), product of:
            0.11666329 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05263717 = queryNorm
            0.34282678 = fieldWeight in 573, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=573)
      0.25 = coord(1/4)
    
    Footnote
    Ein guter und lesenswerter Einstieg in die Probleme des sachlichen Online-Retrievals
  16. Gilster, P.: Suchen und Finden im Internet (1995) 0.01
    0.009998825 = product of:
      0.0399953 = sum of:
        0.0399953 = weight(_text_:und in 6617) [ClassicSimilarity], result of:
          0.0399953 = score(doc=6617,freq=2.0), product of:
            0.11666329 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05263717 = queryNorm
            0.34282678 = fieldWeight in 6617, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=6617)
      0.25 = coord(1/4)
    
  17. Otto, M.: Suchstrategien im Internet : Search engines, Themenkataloge, Besprechungsdienste (1997) 0.01
    0.009998825 = product of:
      0.0399953 = sum of:
        0.0399953 = weight(_text_:und in 2860) [ClassicSimilarity], result of:
          0.0399953 = score(doc=2860,freq=8.0), product of:
            0.11666329 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05263717 = queryNorm
            0.34282678 = fieldWeight in 2860, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2860)
      0.25 = coord(1/4)
    
    Abstract
    Im Internet lassen sich Informationen oft sekundenschnell gewinnen - vorausgesetzt, man verliert sich nicht im Dickicht von Web-Links. Im Buch erfährt der Leser, wie er mit Hilfe der im Internet zur Verfügung stehenden Suchhilfen rasch und ohne Umwege zum Ziel kommt. Der Autor beschreibt, wie eine Suchanfrage aufgebaut wird. Der nächste Schritt ist die Auswahl der jeweils effektivsten Suchhilfe. Tabellen und Übersichten zeigen anschaulich Vor- und Nachteile dieser Hilfen und geben einen Überblick über nutzbare Abfrageoptionen
  18. Ernst, H.: Grundlagen und Konzepte der Informatik : Eine Einführung in die Informatik ausgehend von den fundamentalen Grundlagen (2000) 0.01
    0.009998825 = product of:
      0.0399953 = sum of:
        0.0399953 = weight(_text_:und in 5614) [ClassicSimilarity], result of:
          0.0399953 = score(doc=5614,freq=2.0), product of:
            0.11666329 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05263717 = queryNorm
            0.34282678 = fieldWeight in 5614, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=5614)
      0.25 = coord(1/4)
    
  19. Stein, M.: Workshop XML (2001) 0.01
    0.009998825 = product of:
      0.0399953 = sum of:
        0.0399953 = weight(_text_:und in 1463) [ClassicSimilarity], result of:
          0.0399953 = score(doc=1463,freq=8.0), product of:
            0.11666329 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05263717 = queryNorm
            0.34282678 = fieldWeight in 1463, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1463)
      0.25 = coord(1/4)
    
    Abstract
    XML wird mit jedem Tag populärer. Als universelles Datenformat gewinnt es immer mehr an Bedeutung nicht nur für die Datenspeicherung, sondern auch bei der Übertragung von Informationen im Internet. Die Vielfalt der Möglichkeiten macht es jedoch schwierig, jeden Aspekt von XML zu überblicken. Aus diesem Grund wurde in diesem Buch Wert auf praxisnahes Know-How gelegt. Der Autor besitzt nicht nur umfangreiche Kenntnisse über XML, er ist auch ein erfahrener Webentwickler und kennt die Tücken des Programmierer-Alltags. Er hat ein Buch zusammengestellt, dass Ihnen mit praktischen Übungen und Tipps zu eleganten und sinnvollen Lösungen im Umgang mit XML verhilft. Vertiefen Sie Ihre XML-Kenntnisse. Lernen Sie anhand praktischer Übungen mehr über XML-Schema, Namespaces, XPath, XLink und XSLT.
  20. Hase, H.-L.: Als Anhalter durch Internet : mit dem PC auf Inforeise (1995) 0.01
    0.009896271 = product of:
      0.039585084 = sum of:
        0.039585084 = weight(_text_:und in 1959) [ClassicSimilarity], result of:
          0.039585084 = score(doc=1959,freq=6.0), product of:
            0.11666329 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05263717 = queryNorm
            0.33931053 = fieldWeight in 1959, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1959)
      0.25 = coord(1/4)
    
    Abstract
    Das Internet ist heute für viele PC-Benutzer eine interessante Möglichkeit zur Informationsgewinnung. Hierzu haben sowohl die Öffnung für private und kommerzielle Anwender als auch die Entwicklung multimedialer Informationssysteme beigetragen. Zur Nutzung der meisten Dienste kann ferner kostenlose Software für DOS und Windows eingesetzt werden. Hans-Lothar Hase beschreibt zunächst einführend, wie der Enduser auf die Datenautobahn gelangt. Schwerpunkt der Darstellung ist aber die Beschreibung von Programmen zur Nutzung der Internet-Dienste. Hierzu gehören Dateiübertragung, Rechnerdialog, Diskussionsforen, vor allem aber die Recherche mit Gopher und WWW

Years

Languages

  • d 76
  • e 22

Types

  • m 82
  • a 11
  • s 5
  • el 3
  • h 1
  • x 1
  • More… Less…

Subjects

Classifications