Search (1173 results, page 27 of 59)

  • × language_ss:"e"
  1. Widén-Wulff, G.: ¬The challenges of knowledge sharing in practice : a social approach (2007) 0.01
    0.008063499 = product of:
      0.032253996 = sum of:
        0.032253996 = weight(_text_:und in 1727) [ClassicSimilarity], result of:
          0.032253996 = score(doc=1727,freq=38.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.26703218 = fieldWeight in 1727, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=1727)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: Mitt VÖB 60(2007) H.4, S.95-97 (O. Oberhauser): "Die Autorin ist Dozentin am Institut für Informationswissenschaft der Åbo Akademi University (Finnland) und vertritt zur Zeit den dort vakanten Lehrstuhl. Ihr vorliegendes Buch geht zumindest teilweise auf einen längeren Forschungsaufenthalt an der Napier University, Edinburgh, zurück, wo die informationswissenschaftlich orientierte Forschung am Centre for Social Informatics, welches zum dortigen Fachbereich Informatik zählt, angesiedelt ist. Social informatics (nicht zu verwechseln mit Sozialinformatik, einem Terminus aus dem Gebiet der Sozialen Arbeit), bezieht sich auf die disziplinübergreifende Beschäftigung mit dem Design, dem Einsatz und der Verwendung von Informations- und Kommunikationstechnologien und ihrer Interaktion mit institutionellen und kulturellen Kontexten unter Einschluss von Institutionen/Organisationen und der Gesellschaft. Sie wird von Vertretern verschiedener Wissenschaftsdisziplinen mit unterschiedlichen Themenstellungen bzw. methodischen Ansätzen betrieben. In diesem Umfeld ist auch das vorliegende Buch beheimatet. Zwar ist "information sharing" ein Begriff, der aus der Forschung zu dem breiteren Themenbereich "information seeking and use" bzw. "(human) information behaviour" stammt, doch macht schon der erste Satz des Vorworts klar, dass hier eine thematische Festlegung auf den institutionellen Bereich und damit eine Einordnung in das Gebiet des Wissensmanagements erfolgt ist: "How can organisations correspond to the current demands of effective information and knowledge sharing?" (p. ix). Die Herausforderungen ("challenges") werden im Hinblick auf das Verständnis, die Organisation und die Verwaltung von Wissen gesehen und in technische, betriebliche, persönliche und soziale Aspekte unterteilt. Die Konzentration auf die soziale Dimension, so die Autorin, sei heute besonders wichtig für eine kohärente Beurteilung von Informationsverhalten und -austausch im Unternehmen.
    Das Buch gliedert sich in drei Teile. Im ersten Abschnitt, Theories of Information Sharing, erfolgt eine kurze Diskussion von Begriffen und Konzepten aus dem Bereich der kontextuellen Informationssuche, der Information im organisatorischen Umfeld, der Sozial- und Gruppenpsychologie, sowie vor allem die Einführung des Konzeptes "social capital" (soziales Kapital, Sozialkapital), eines aus der Soziologie stammenden theoretischen Ansatzes, als Rahmen für die Betrachtung der Informationsprozesse im Unternehmen. Hier wird Sozialkapital verstanden als die Werte, Normen und Netzwerke, die informationsbezogene Interaktionen möglich und wirksam machen und so die Basis für kollaborative Arbeit zur Verfolgung gemeinsamer Ziele schaffen (p. 30). Der zweite Teil - umfangmässig der größte des Buches - ist mit Two Practices in Information Sharing überschrieben und berichtet detailliert über Fallstudien, die die Autorin in zwei finnischen Unternehmen mittels einer kleinen Zahl qualitativer Interviews durchführte. Dabei wird eine Firma aus der Versicherungsbranche (als einer eher stabilen Branche) mit einem biotechnologischen Produktionsbetrieb (eher turbulent-expansives Umfeld) verglichen. Im dritten Teil, Insights into Information, Knowledge Sharing and Social Capital, diskutiert die Autorin die Resultate ihrer Erhebung, insbesondere im theoretischen Kontext des Sozialkapitals - so etwa die Motive für den Austausch von Informationen und Wissen. Natürlich wird Widén-Wulffs Studie vor allem jene interessieren, die sich mit dem betrieblichen Informations- und Wissensmanagement beschäftigen. Für Interessenten an "information seeking and retrieval" oder "human information behaviour" im Allgemeinen ist das Buch nur bedingt zu empfehlen, doch werden auch sie von den Hinweisen auf den überblicksartig gestreiften Forschungsstand profitieren können. Hingegen werden Rezipienten aus den klassischeren Bereichen des Bibliotheks- bzw. Informationswesens die Lektüre vermutlich als weniger leicht verdaulich empfinden. Der Ladenpreis von mehr als 55 Euro ist für einen Broschurband von knapp 230 Seiten im übrigen viel zu hoch."
  2. McCorduck, P.: Machines who think : a personal inquiry into the history and prospects of artificial intelligence (2004) 0.01
    0.008063499 = product of:
      0.032253996 = sum of:
        0.032253996 = weight(_text_:und in 335) [ClassicSimilarity], result of:
          0.032253996 = score(doc=335,freq=38.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.26703218 = fieldWeight in 335, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=335)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in. Spektrum der Wissenschaft. 2005, H.4, S.106-108 (A. Leßmöllmann): "Bereits im Titel steckt Stoff für ein paar grüblerische Nachmittage: »Maschinen, die denken«, provokant mit dem englischen Relativpronomen »who« formuliert, das doch für Belebtes, sogar Vernunftbegabtes reserviert ist. Denken Maschinen denn? Ja, sagt Pamela McCorduck in ihrer Nacherzählung der Geschichte der künstlichen Intelligenz (KI). Fußball spielende Roboter, Schach spielende Computerprogramme, »Such-Bots«, die auf kluge Weise Datenbanken durchstöbern - das sind alles Denker. Allerdings nutzen sie ihre künstlichen Hirne auf eigene Art. Maschinendenken kann ganz anders ablaufen als Menschendenken und trotzdem Denken sein, so das Credo der Autorin. Um das zu zeigen, entfacht sie ein DenkmaschinenFeuerwerk: Sie hat klug beobachtet, kennt die KI-Szene (zumindest in den USA) und nimmt uns mit auf eine unterhaltsame Reise durch die Geschichte der KI-Tüftelei. Eine Reise, die für sie mit der alten Frage verknüpft ist, wie wir Wissen sammeln, mit Maschinen spielen, denkende Maschinen zu unseren Gefährten machen: Bereits der hinkende Schmied und Zeussohn Hephaistos hatte intelligente Blasebälge, die ihm aufs Wort gehorchten. McCorduck berichtet vom Enthusiasmus der Pioniere wie des Kybernetikers Norbert Wiener (1894-1964) und des Mathematikers John von Neumann (1903-1957), auf den die Idee eines gespeicherten Computerprogramms zurückgeht; beide sahen sich durchaus in der Tradition eines Rabbi Löw (1520-1609), der im frühneuzeitlichen Prag den Golem erschuf. Sie erzählt von der folgenschweren Dartmouth-Konferenz 1956, bei der Marvin Minsky und andere, auch heute noch aktive Wortführer entschieden: Ein künstliches Hirn kann wie ein menschliches arbeiten, ohne notwendigerweise wie ein solches gebaut zu sein. Künstliches Denken kann also auf algorithmischem Weg funktionieren - indem ein Programm Befehle ausführt, genauer: Symbole verarbeitet. Nebenbei erklärt McCorduck auch dem technisch unwilligen Leser, wie das legendäre »Psychotherapie«-Programm Eliza (das zwar unintelligent, aber überraschend wirkungsvoll plapperte) und all die anderen Maschinchen im Inneren ticken. Auch die Kritiker lässt sie zu Wort kommen, Joseph Weizenbaum beispielsweise, den schon der Erfolg seiner Eliza ängstigte: Offenbar seien Menschen viel zu schnell bereit, in Maschinen Intelligenz - sogar Gefühl! - zu vermuten, und deswegen sollten wir lieber die Finger von der KI lassen, um uns nicht selbst eine Falle zu stellen. Das ist alles wunderbar durchdacht und mit Herzblut berichtet. Allerdings nicht neu: Der größte Teil des Buchs er schien bereits 1981, wurde in den USA ein Bestseller und in viele Sprachen übersetzt, auch ins Deutsche (»Denkmaschinen«).
    Die Neuauflage hat McCorduck mit einem Nachwort versehen. Auf diesen 100 Seiten durcheilt sie das fehlende Vierteljahrhundert: Die »Eiszeit« in den 1980ern, als sich niemand mehr von denkenden Maschinen zu reden traute - zu grandios waren selbst »einfache« Projekte, wie die maschinelle Übersetzung, mitsamt den investierten Forschungsmillionen den Bach hinuntergegangen. KI galt als Hort der Hybris und der haltlosen Versprechungen, die Idee, ein künstliches Gehirn zu erstellen, als absurd. Die Forschungsförderung, auch des Militärs, versiegte. Danach kam wieder Leben in die Eiswüste: »Deep Blue« schlug den Schachmeister Garri Kasparow; das künstliche Denken war plötzlich wieder salonfähig. Und auch die Ängste waren wieder da: Bill Joy, Erster Wissenschaftler des Betriebssysteme-Bauers Sun Microsystems, belebte passgenau vor der Jahrtausendwende auch deutsche Feuilletons, indem er vor einer Machtübernahme durch die Maschinen warnte. All das gibt einen guten Überblick. Die Inspiration der Erstauflage hat das Nachwort aber nicht: McCorduck reiht Ereignisse aneinander, spürt jedoch den tiefer liegenden Strömungen wenig nach. Überhaupt wirkt es verlegerisch ungeschickt, die letzten 25 Jahre als Appendix an das große Werk zu fügen. Denn in diesen Jahren hat eine Zäsur stattgefunden: Das »heroische« Zeitalter der KI - wie McCorduck es charakterisiert - ist in den meisten Labors längst abgeblasen worden. Heute spricht kaum noch jemand davon, eine intelligente Maschine schaffen zu wollen; selbst das Wort »Intelligenz« meidet man eher, um weder falsche Hoffnungen noch unnötige Ängste zu schüren. Bis auf wenige Ausnahmen wie den Roboterbauer Hans Moravec, der vollintegrierte und gesellschaftsfähige Kunstmenschen unverdrossen für das Jahr 2050 prophezeit, ist die KI pragmatisch geworden. Sie hat sich, wie McCorduck durchaus bemerkt, in viele Teildisziplinen aufgespalten und konzentriert sich aufs Machbare: Der Fußballroboter soll den Ball treffen, der Kanalkrabbler das Leck im Rohr finden, der Suchalgorithmus das richtige Ergebnis liefern, die Wissensbasis funktionieren. »Heroische« Großprojekte werden da eher mit schiefem Grinsen angesehen, wie die Wissensbasis »CyC« des Stanford-Professors Douglas Lenat, in der das gesamte Alltagswissen eines Menschen in Form von Regeln wie »Schneeweiß« und »Zahnarzt gelegentlich Schmerzen« codiert werden soll, um einer Maschine dadurch menschenähnliches Wissen einzuhauchen. Pamela McCorduck aber referiert über diese seit 1994 andauernde Hamsterarbeit stoisch ohne einen Anflug von Kritik. Auch die Hinwendung zum Körper schwingt bei ihr implizit mit, wenn sie die neuen Roboter bespricht, wird aber nicht als der Trend, der er ist, gewürdigt: Embodied AI, »verkörperte KI«, ermöglicht durch die boomende Sensortechnik, lagert viele Funktionen der zentralen Steuerung in die Peripherie aus, lässt also, anthropomorph gesprochen, den Körper zu Wort kommen und entlastet den Kopf. Ein schönes Pferd, auf das McCorduck hätte aufspringen können: Schließlich ist es genau ihr Metier, den Computer nicht bloß als Werkzeug, sondern als Erkenntnisobjekt zu nutzen, wie der Mensch sich selbst sieht - denn auch in die Philosophie haben ja Diskussionen zur Körperlichkeit Einzug gefunden. Weil sich so vieles geändert hat, wäre es vielleicht klug gewesen, ein neues Buch zu schreiben, statt einfach die neuen Entwicklungen an die alten anzuhängen. Und es ist wirklich schade, dass die Autorin, wie sie im Vorwort schreibt, nicht die Zeit fand, über die Grenzen der USA hinauszugehen. Auch in Lund, Darmstadt und Tokio werden interessante Dinge gebaut. Jedenfalls ist es inzwischen klar: »Machines who think« - dieser Satz ist an den Schläfen so grau wie viele der Pioniere der KI aus dem vergangenen heroischen Zeitalter. Heute ergänzt man den Ausspruch mit einem »nun ja, irgendwie - kind of«, zieht den Laborkittel an und schraubt weiter. Das Zeitalter der großen Versprechungen ist vorbei. Und das ist gut so."
  3. Web intelligence: research and development : First Asia-Pacific Conference, WI 2001, Maebashi City, Japan, Oct. 23-26, 2001, Proceedings (2003) 0.01
    0.007969585 = product of:
      0.03187834 = sum of:
        0.03187834 = weight(_text_:und in 2832) [ClassicSimilarity], result of:
          0.03187834 = score(doc=2832,freq=58.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.26392213 = fieldWeight in 2832, product of:
              7.615773 = tf(freq=58.0), with freq of:
                58.0 = termFreq=58.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.015625 = fieldNorm(doc=2832)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: nfd - Information 54(2003) H.6, S.378-379 (T. Mandl): "Im Oktober 2001 fand erstmals eine Tagung mit dem Titel "Web Intelligence" statt. Ist dies nun eine neue Disziplin oder der Versuch analog zu "Artificial Intelligence" und "Computational Intelligence" ein neues Modewort zu kreieren? Geht es um den Einsatz sogenannter intelligenter Verfahren, um mit dem Internet umgehen zu können oder erscheint das Internet als "emerging global brain" (Goertzel 2002), also als eine unerschöpfliche Quelle von Wissen, die nur geschickt ausgebeutet werden muss? Kommt also die Intelligenz aus dem Web oder dient die Intelligenz als Werkzeug für das Web? Der Tagungsband ist seit Anfang 2003 verfügbar und bietet nun den Anlass, diesen Begriff anhand der darin präsentierten Inhalte zu bewerten. Die Herausgeber führen in ihrem einleitenden Artikel gleich die Abkürzung WI ein und versuchen tatsächlich "Web Intelligence" als neue Sub-Disziplin der Informatik zu etablieren. Zu diesem Zweck greifen sie auch auf die Anzahl der Nachweise für diese Phrase in Suchmaschinen zu. Zwar lieferten die Systeme angeblich Zahlen von über einer Million (S. 4), aber dies überzeugt sicher noch niemanden, das Studium der WI aufzunehmen. Allerdings weist dieses Vorgehen schon auf einen Kern der WI hin: man versucht, aus dem im Web gespeicherten Wissen neues Wissen zu generieren. Damit wäre man sehr nahe am Data oder eben Web-Mining, jedoch geht die Definition der Autoren darüber hinaus. Sie wollen WI verstanden wissen als die Anwendung von Künstlicher Intelligenz sowie Informationstechnologie im Internet (S. 2). Da nun Künstliche Intelligenz bei allen Meinungsverschiedenheiten sicherlich nicht ohne Informationstechnologie denkbar ist, wirkt die Definition nicht ganz überzeugend. Allerdings beschwichtigen die Autoren im gleichen Atemzug und versichern, diese Definition solle ohnehin keine Forschungsrichtung ausschließen. Somit bietet sich eher eine Umfangsdefinition an. Diese solle die wichtigsten Stoßrichtungen des Buchs und damit auch der Tagung umfassen. Als Ausgangspunkt dient dazu auch eine Liste der Herausgeber (S. 7f.), die hier aber etwas modifiziert wird: - Grundlagen von Web Informationssystemen (Protokolle, Technologien, Standards) - Web Information Retrieval, WebMining und Farming - Informationsmanagement unter WebBedingungen - Mensch-Maschine Interaktion unter Web-Bedingungen (hier "HumanMedia Engineering" S. XII) Eine grobe Einteilung wie diese ist zwar übersichtlich, führt aber zwangsläufig zu Ouerschnittsthemen. In diesem Fall zählt dazu das Semantic Web, an dem momentan sehr intensiv geforscht wird. Das Semantic Web will das Unbehagen mit der Anarchie im Netz und daraus folgenden Problemen für die Suchmaschinen überwinden, indem das gesamte Wissen im Web auch explizit als solches gekennzeichnet wird. Tauchen auf einer WebSeite zwei Namen auf und einer ist der des Autors und der andere der eines Sponsors, so erlauben neue Technologien, diese auch als solche zu bezeichnen. Noch wichtiger, wie in einer Datenbank sollen nun Abfragen möglich sein, welche andere Seiten aus dem Web liefen, die z.B. den gleichen Sponsor, aber einen anderen Autor haben. Dieser Thematik widmen sich etwa Hendler & Feigenbaum. Das Semantic Web stellt ein Ouerschnittsthema dar, da dafür neue Technologien (Mizoguchi) und ein neuartiges Informationsmanagement erforderlich sind (z.B. Stuckenschmidt & van Harmelen), die Suchverfahren angepasst werden und natürlich auch auf die Benutzer neue Herausforderungen zukommen. Diesem Aspekt, inwieweit Benutzer solche Anfragen überhaupt stellen werden, widmet sich in diesem Band übrigens niemand ernsthaft. Im Folgenden sollen die einzelnen Themengebiete anhand der im Band enthaltenen Inhalte näher bestimmt werden, bevor abschließend der Versuch eines Resümees erfolgt.
    - Grundlagen von Web Informationssystemen Protokolle, Technologien und Standards existieren inzwischen mannigfaltig und lediglich für spezifische Anwendungen entstehen weitere Grundlagen. In dem vorliegenden Band gibt es etwa ein Datenmodell für XML-Datenbanken (Wuwongse et al.) und den Vorschlag einer 3DModellierung (Hwang, Lee & Hwang). Auch für Proxy-Server werden neue Algorithmen entwickelt (Aguilar & Leiss). - Web Information Retrieval, WebMining und Farming Neben klassischen Themen des Information Retrieval wie kontrolliertem Vokabular (Sim & Wong), Ranking (Wang & Maguire), Kategorisierung (Loia & Luongo) und Term-Erweiterung (Huang, Oyang & Chien) stehen auch typische Web Information Retrieval Themen. Multimedia Retrieval spielt eine wichtige Rolle im Web und dazu gibt es Beiträge zu Audio (Wieczorkowska & Ra- Wan, Liu & Wang) und Grafiken (Fukumoto & Cho, Hwang, Lee & Hwang). Das Hype-Thema Link-Analyse schlägt auch gleich den Bogen hin zum Web-Mining, ist mit fünf Beiträgen aber eher unterrepräsentiert. Link-Analyse stellt die Frage, was sich aus den inzwischen wohl über zehn Milliarden Links im Internet folgern lässt. So extrahieren zwei Beiträge die zeitliche Veränderung sozialer Strukturen in Web Communities. Matsumura et al. untersuchen, ob Außenseiter sich auch für die innerhalb einer Community diskutierten Themen interessieren und werten dies als Maß für die Verbreitung des Themas. Bun & Ishizuka interessieren sich nur für die Änderungen innerhalb einer Gruppe von thematisch zusammengehörigen Web-Abgeboten und analysieren in diesem Korpus die wichtigsten Sätze, die neu entstehende Themen am besten repräsentieren. Andere Mining-Beiträge befassen sich mit der Erstellung von Sprachressourcen (Chau & Yeh). - Informationsmanagement unter WebBedingungen Für das Informationsmanagement gelten Ontologien zur Beschreibung des vorhandenen Wissens als wichtiges Instrument und dementsprechend ist "Ontologie" auch ein Kandidat für das höchst-frequente Wort in dem Tagungsband.
    Einen weiteren wichtigen Aspekt stellt nach wie vor E-Learning dar, das u.a. neue Anforderungen an die Erstellung und Verwaltung von Lernmodulen (Forcheri et al.) und die Zusammenarbeit von Lehrern und Schülern stellt (Hazeyama et al., Liu et al.). - Mensch-Maschine Interaktion unter Web-Bedingungen Benutzermodellierung (Estivill-Castro & Yang, Lee, Sung & Cho) hat mit der Popularität des Internet eine neue Dimension gewonnen und ist besonders im kommerziellen Umfeld sehr interessant. Eine Wissensquelle hierfür und für andere Anwendungen sind Log-Files (Yang et al.). Breiten Raum nehmen die Visualisierungen ein, die häufig für spezielle Benutzergruppen gedacht sind, wie etwa Data Mining Spezialisten (Han & Cercone) und Soziologen, die sich mit Web-Communities befassen (Sumi & Mase). Agenten (Lee) und Assistenten (Molina) als neue Formen der Interaktion treten nicht zuletzt für E-Commerce Anwendungen in Erscheinung. In diesem Kontext der Mensch-Medien-Beziehung soll das Ouerschnittsthema WebCommunities genannt werden, in dem die sozialen Aspekte der Kooperation (Hazeyama et al.) ebenso wie das Entdecken von Gruppenstrukturen (Bun & Ishizuka) untersucht werden. Dagegen kommen kaum empirische Evaluierungen vor, die belegen könnten, wie intelligent denn die Systeme nun sind. Worin liegt nun der Kern der Web Intelligence? Der Aspekt Web Mining befasst sich mit der Extraktion von Wissen aus dem riesigen Reservoir Internet während der Aspekt Web-Informationssysteme den Einsatz so genannter intelligenter Technologien in Informationssystemen im Internet behandelt. Da jedoch das Spektrum der eingesetzten Informationssysteme praktisch beliebig ist und auch die Auswahl der intelligenten Technologien keinen spezifischen Fokus erkennen lässt, stellt Web Intelligence momentan eher einen bunten Strauß dar als ein klar abgegrenztes Feld. Das Web taugt inzwischen kaum mehr zur Abgrenzung von Technologien. Die Beiträge sind stärker von den Communities der Autoren geprägt als von der Web Intelligence Community, die vielleicht noch gar nicht existiert. Wenn doch, so befindet sie sich in einem frühen Stadium, in dem sich wenig Gemeinsamkeiten zwischen den Arbeiten erkennen lassen. Allerdings macht die mangelnde Kohärenz die einzelnen Beiträge keineswegs uninteressant. Dieser Meinung sind offensichtlich auch die 57 Mitglieder des Programmkomitees der Tagung, unter denen auch drei deutsche Wissenschaftler sind. Denn für 2003 ist eine weitere Tagung geplant (http://www.comp.hkbu. edu.hk/WIo3/)."
  4. Hofstadter, D.R.: I am a strange loop (2007) 0.01
    0.007969585 = product of:
      0.03187834 = sum of:
        0.03187834 = weight(_text_:und in 1666) [ClassicSimilarity], result of:
          0.03187834 = score(doc=1666,freq=58.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.26392213 = fieldWeight in 1666, product of:
              7.615773 = tf(freq=58.0), with freq of:
                58.0 = termFreq=58.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.015625 = fieldNorm(doc=1666)
      0.25 = coord(1/4)
    
    BK
    31.02 / Philosophie und Wissenschaftstheorie der Mathematik
    Classification
    31.02 / Philosophie und Wissenschaftstheorie der Mathematik
    Footnote
    Rez. in Spektrum der Wissenschaft 2007, H.9, S.93-94 (M.Gardner): "Unser Gehirn enthält einige hundert Mil-liarden Neuronen mit zehntausendmal so vielen Verbindungen zwischen ihnen. Durch welch unglaubliche Zauberei wird dieses Gewirr von Fäden seiner selbst bewusst, fähig, Liebe und Hass zu empfinden, Romane und Sinfonien zu schreiben, Lust und Schmerz zu fühlen und sich aus freiem Willen für Gut oder Böse zu entscheiden? Der australische Philosoph David Chalmers hat die Erklärung des Bewusstseins »das schwere Problem» genannt. Das leichte Problem ist, Unbewusstes wie Atmen, Verdauen, Gehen, Wahrnehmen und tausend andere Dinge zu verstehen. An dem schweren beißen sich Philosophen, Psychologen und Neurowissenschaftler zurzeit bevorzugt die Zähne aus und produzieren tausende Bücher. Ein aktuelles stammt von Douglas R. Hofstadter, Professor für Kognitionswissenschaft an der Universität von Indiana in Bloomington, der vor allem durch sein preisgekröntes Buch »Gödel, Escher, Bach» bekannt geworden ist. Sein neues Werk, so genial und provokant wie seine Vorgänger, ist eine bunte Mischung aus Spekulationen und Geschichten aus seinem Leben. Ein ganzes Kapitel ist einer persönlichen Tragödie gewidmet, die Hofstadter bis heute zu verarbeiten versucht: Im Dezember 1993 starb seine Frau Carol im Alter von 42 Jahren plötzlich an einem Hirntumor. In der Vorstellung von einem Leben nach dem Tod kann er keinen Trost finden; so bleibt ihm nur die Gewissheit, dass Carol in den Erinnerungen derer, die sie kannten und liebten, weiterleben wird - zumindest für eine gewisse Zeit.
    Das Buch ist voll von glücklichen Erinnerungen - und weniger glücklichen. Als er als Fünfzehnjähriger aufgefordert wurde, zwei Meerschweinchen auszuwählen, die für ein Laborexperiment getötet werden sollten, erlitt er einen Schwächeanfall. Seine heftige Abneigung gegen das Töten von Tieren machte ihn zum Vegetarier und später sogar zum Veganer, der nicht nur auf alle Nahrung tierischen Ursprungs verzichtet, sondern auch auf das Tragen von Lederschuhen und -gürteln. Wie sein großes Vorbild Albert Schweitzer leidet er unter Schuldgefühlen, wenn er eine Fliege klatscht. Auf vielen Seiten kommt Hofstadters große Liebe zur Musik zum Ausdruck. Er ist ein klassischer Pianist; seine Lieblingskomponisten sind Bach, Chopin und Prokofiew, während er Bartok nicht mag. Seine Liebe zur Poesie geht so weit, dass er, neben anderen Werken, Alexander Puschkins (1799-1837) großes Versepos »Eugen Onegin« aus dem Russischen ins Englische übersetzte. Ein im Buch abgedrucktes, pfiffiges Gedicht einer begeisterten Zuhörerin besingt ein Erlebnis, dem Hofstadter symbolische Bedeutung zuweist. Als er eines Tages einen Packen Briefumschläge anfasst, staunt er über die kleine Murmel, die in der Mitte eingeklemmt zu sein scheint. Es ist aber keine Murmel, sondern nur die Stelle, an der wegen der dort zusammentreffenden Papierlagen der Stapel dicker ist. In ähnlicher Weise, sagt Hofstadter, glauben wir unser Ich eingeklemmt zwischen den Neuronen unseres Gehirns wahrzunehmen.
    Die Murmel liefert das Hauptthema des Buchs. Die Seele, das Ich, ist eine Illusion. Es ist eine »seltsame Schleife« (a strange loop), die ihrerseits von einer Unzahl von Schleifen auf einem niedrigeren Niveau erzeugt wird. So kommt es, dass der Klumpen Materie innerhalb unseres Schädels nicht nur sich selbst beobachtet, sondern sich dessen auch bewusst ist. Seltsame, genauer: selbstbezügliche Schleifen faszinieren Hofstadter seit jeher. Er sieht sie überall. Sie sind das Herzstück von Gödels berühmtem Unbeweisbarkeitssatz. Sie lauern in den »Principia Mathematica« von Russell und Whitehead, stets bereit, die Fundamente der Mathematik zu untergraben. Ihre kürzeste Form sind logische Paradoxa wie »Dieser Satz ist falsch« oder die Karte, auf deren einer Seite steht »Der Satz auf der Rückseite ist wahr« und auf der anderen »Der Satz auf der Rückseite ist falsch«. In Kapitel 21 führt er ein verstörendes Gedankenexperiment ein, das auch Thema zahlreicher Sciencefiction-Geschichten ist: Ein Mann wird, wie in »Raumschiff Enterprise«, auf einen fremden Planeten und zurück gebeamt, indem eine Maschine ihn Molekül für Molekül abscannt und die Information an den Zielort übermittelt, wo sie zur Herstellung einer exakten Kopie dieses Menschen dient. Wenn dabei das Original zerstört wird, entsteht kein philosophisches Problem. Wenn es aber erhalten bleibt - oder mit derselben Information zwei Kopien hergestellt werden -, entsteht ein Paar identischer Zwillinge mit identischen Erinnerungen. Ist der so gebeamte Mensch derselbe wie das Original oder ein anderer?
    Gewisse Themen können Hofstadters Zorn erregen, zum Beispiel die Diskussion über das so genannte inverted spectrum paradox. Wie kann ich sicher sein, dass ein anderer Mensch das, was ich als Rot erlebe, genauso erlebt wie ich und nicht etwa eine Empfindung hat, die ich als Blau bezeichnen würde? Oder das Konzept vom Zombie, einem Wesen, das sich in jeder Hinsicht so verhält wie ein gewöhnlicher Mensch, dem aber alle menschlichen Gefühle fehlen. Oder Bewusstsein und freier Wille. Hofstadter hält beides für Illusionen, für Trugbilder gleich der Murmel im Briefumschlagstapel, allerdings für unvermeidbare, machtvolle Trugbilder. Wir erleben, dass ein Ich in unserem Schädel steckt, aber das ist nur eine Illusion, die von Millionen kleiner Schleifen erzeugt wird, »einem Schwarm bunter Schmetterlinge in einem Obstgarten«. An dieser Stelle ist Hofstadter anderer Meinung als sein Freund, der Philosoph Daniel C. Dennett (mit dem zusammen er das Buch »The Mind's I«, deutsch »Einsicht ins lch«, herausgegeben hat). Aber wie Den-nett, der einem seiner Werke den dreisten Titel »Consciousness Explained« gab, glaubt er, er habe das Bewusstsein erklärt. Das stimmt leider nicht. Beide haben das Bewusstsein nur beschrieben. Einen Regenbogen zu beschreiben ist einfach, ihn zu erklären ist nicht so einfach. Bewusstsein zu beschreiben ist einfach, aber das Wunder zu erklären, durch das ein Haufen Moleküle es hervorbringt, ist nicht so einfach. Ich will meine Karten auf den Tisch legen. Ich gehöre zu der kleinen Gruppe der »Mysterianer«, zu denen auch die Philosophen John R. Searle (der Schurke in Hofstadters Buch), Thomas Nagel, Colin McGinn und Jerry Fodor sowie der Linguist Noam Chomsky, der Mathematiker Roger Penrose und einige andere zählen. Wir sind der Überzeugung, dass kein heute lebender Philosoph oder Naturwissenschaftler auch nur die nebelhafteste Ahnung davon hat, wie Bewusstsein und sein unzertrennlicher Begleiter, der freie Wille, aus einem materiellen Gehirn entstehen (was sie zweifellos tun). Wir sind überzeugt, dass kein Computer, wie wir ihn heute kennen - das heißt, der aus Schaltern und Verbindungsdrähten gebaut ist -, je ein Bewusstsein dessen erlangen wird, was er tut. Das stärkste Schachprogramm wird nicht wissen, dass es Schach spielt, ebenso wenig wie eine Waschmaschine weiß, dass sie Wäsche wäscht.
    Einige wenige Mysterianer glauben, dass die Wissenschaft eines glorreichen Tages das Rätsel des Bewusstseins lüften wird. Penrose zum Beispiel ist davon überzeugt, dass das Mysterium einem tieferen Verständnis der Quantenmechanik weichen wird. Ich selbst gehöre zu einer radikaleren Fraktion. Wir halten es für den Gipfel der Selbstüberschätzung zu glauben, unser Gehirn sei der unübertreffliche Gipfel der Denkfähigkeit. Mit Sicherheit gibt es Wahrheiten, die unsere intellektuellen Fähigkeiten ebenso weit übersteigen wie unsere Weisheiten die intellektuellen Fähigkeiten einer Kuh. Warum hat das Universum eine mathematische Struktur? Warum gibt es sich, wie Stephen Hawking es ausdrückte, überhaupt die Mühe, zu existieren? Warum gibt es etwas und nicht nichts? Wie bringen die Schmetterlinge in unserem Hirn die seltsamen Schleifen des Bewusstseins zu Stande? Vielleicht kennen höherentwickelte Lebensformen in der Andromeda-Galaxie die Antworten. Ich kenne sie sicher nicht. Hofstadter und Dennett kennen sie nicht. Und Sie, verehrter Leser, auch nicht.
  5. Computer - Neue Medien - Elektronisches Publizieren (1993) 0.01
    0.007830973 = product of:
      0.03132389 = sum of:
        0.03132389 = weight(_text_:und in 5905) [ClassicSimilarity], result of:
          0.03132389 = score(doc=5905,freq=14.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.25933182 = fieldWeight in 5905, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=5905)
      0.25 = coord(1/4)
    
    Content
    Enthält u.a. die folgenden Beiträge: RIESENHUBER, H.: Am Ende steht das Wort: Kultur und Technik als Verbündete - ein Plädoyer; STEIDEL, M.: Von Bindestrich-Informatik bis Chaostheorie (Hüthig); HEMPELMANN, G.: Laudatio für das Arbeitsbuch (Markt & Technik); GÖTZ, B.: Voll daneben: sind Computerbücher noch immer anwendergerecht?; SCHOLZ, H.-W.: Das Buch lernt sprechen, singen und tanzen (Langenscheidt); STUMPF, P.: Der Laptop als Gourmet-Führer (Rossipaul); BURNELEIT, H.-D.: Wer zu früh kommt, den bestraft der Markt (C.H. Beck); KEMP, A. de: Erzfeind oder Kumpel: das ist nicht die Frage (Springer); SCHOLZ, I.: Alles digital (Elektronisches Publizieren); MERTENS, E.: Wichtig ist die Einführung beim Kunden (Olms); SCHRÖDER, M.: Database publishing; GRUNDMANN, U.: Champagner von der CD (EMS/Econ); PRIBILLA, P.: Any to any (Siemens); HEKER, H.: Rechtsfragen der elektronischen Textkommunikation; PLENZ, R.: Verlegen mit Äpfeln und Quark (DTP); PLENZ, R.: Typographische Qualifikation entscheidet (DTP); LIEDER, R.: Cover mit der Maus (Sybex); STYRNOL, H.: Kompetenz schlägt heiße Nadel; KAETZ, R.: Akzente mit Butterfly (Laden-Präsentation); RINKA, M.: Flankierende Maßnahmen Zeitschriften; ZEBOLD, P.: Tools für den Verkauf (Zeitschriften); STEINBECK, P.: Lose-Disketten-Werk; STEINHAUS, I.: Man trägt Diskette; BORISCH, M.: Kompetenter Partner auch für fun und action; KESSLER, C.: Schneller schlau (Wissenssoftware, MSPI); KRAPP, S.: Computer am Dienstag (CAD), Chaos am Mittwoch (CAM), oder: wieviel EDV braucht der Azubi?; STEINBRINK, B.: Multimedia: Standards für die Verlagswelt (Markt & Technik); MONDEL, N.: Der Krieg der Systeme findet nicht statt (Tewi); FERCHL, I.: Online in den Markt (Springer); FERCHL, I.: Nicht hurtig, HÜthig; BLAHACEK, R.: Alle Stückerln (Erb-Verl.); MENZEL, M.: Porsche oder Goggo (Rossipaul); MENZEL, M.: Sharebären und MS-Dosen (Systhema); MENZEL, M.: Populär, aber nicht platt (Tewi); MENZEL, M.: Von Funk zu Fuzzy (Franzis); GRUNDMANN, U.: Aktive Lebenshilfe: und das möglichst preisgünstig (Data-Becker); GRUNDMANN, U.: Die roten Dreiecke bleiben sich treu (Addison-Wesley); GRUNDMANN, U.: Große Bücher für wenig Geld (BHV); GRUNDMANN, U.: ... nämlich ein Dos-Buch genauso zu vermarkten wie 'Scarlet' (Sybex); MENZEL, M.: Langsam einsickern (dtv/Beck); SCHMITZ, A.: Le style c'est l'homme (Rowohlt); SCHINZEL, W.H.: CD-ROM: eine Erfolgsstory; QUEISSER, M.: Kataloge auf der Silberscheibe; SOMMERFELD, B.: Ran an Eunet; LESSMAN, F. u. H. KELLER: Online mit KNO; ZAAG, J.: Vorreiter (KNO); SCHÖDER, M.: Arno Schmidts anderer Zettelkasten (Relationale Datenbanken); WIESNER, M.: One world of informations: OSI und EDI; WEIGEL, F.: Intermezzo mit X12, Libe für EDI (Harrassowitz);
  6. Huberman, B.: ¬The laws of the Web: : patterns in the ecology of information (2001) 0.01
    0.007830973 = product of:
      0.03132389 = sum of:
        0.03132389 = weight(_text_:und in 123) [ClassicSimilarity], result of:
          0.03132389 = score(doc=123,freq=14.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.25933182 = fieldWeight in 123, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=123)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: nfd 54(2003) H.8, S.497 (T. Mandl): "Gesetze der digitalen Anarchie - Hyperlinks im Internet entstehen als Ergebnis sozialer Prozesse und können auch als formaler Graph im Sinne der Mathematik interpretiert werden. Die Thematik Hyperlinks ist im Information Retrieval höchst aktuell, da Suchmaschinen die Link-Struktur bei der Berechnung ihrer Ergebnisse berücksichtigen. Algorithmen zur Bestimmung des "guten Rufs" einer Seite wie etwa PageRank von Google gewichten eine Seite höher, wenn viele links auf sie verweisen. Zu den neuesten Erkenntnissen über die Netzwerkstruktur des Internets liegen zwei sehr gut lesbare Bücher vor. Der Autor des ersten Buchs, der Wirtschaftswissenschaftler Huberman, ist Leiter einer Forschungsabteilung bei Hewlett Packard. Huberman beschreibt in seinem Buch zunächst die Geschichte des Internet als technologische Revolution und gelangt dann schnell zu dessen Evolution und den darin vorherrschenden Wahrscheinlichkeitsverteilungen. Oberraschenderweise treten im Internet häufig power-law Wahrscheinlichkeitsverteilungen auf, die der Zipf'schen Verteilung ähneln. Auf diese sehr ungleichen Aufteilungen etwa von eingehenden HypertextLinks oder Surfern pro Seite im Internet bezieht sich der Titel des Buchs. Diese immer wieder auftretenden Wahrscheinlichkeitsverteilungen scheinen geradezu ein Gesetz des Internet zu bilden. So gibt es z.B. viele Sites mit sehr wenigen Seiten und einige wenige mit Millionen von Seiten, manche Seiten werden selten besucht und andere ziehen einen Großteil des Internet-Verkehrs auf sich, auf die meisten Seiten verweisen sehr wenige Links während auf einige wenige populäre Seiten Millionen von Links zielen. Das vorletzte Kapitel widmen übrigens beide Autoren den Märkten im Internet. Spätestens hier werden die wirtschaftlichen Aspekte von Netzwerken deutlich. Beide Titel führen den Leser in die neue Forschung zur Struktur des Internet als Netzwerk und sind leicht lesbar. Beides sind wissenschaftliche Bücher, wenden sich aber auch an den interessierten Laien. Das Buch von Barabási ist etwas aktueller, plauderhafter, länger, umfassender und etwas populärwissenschaftlicher."
  7. Daconta, M.C.; Oberst, L.J.; Smith, K.T.: ¬The Semantic Web : A guide to the future of XML, Web services and knowledge management (2003) 0.01
    0.007830973 = product of:
      0.03132389 = sum of:
        0.03132389 = weight(_text_:und in 1320) [ClassicSimilarity], result of:
          0.03132389 = score(doc=1320,freq=14.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.25933182 = fieldWeight in 1320, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1320)
      0.25 = coord(1/4)
    
    BK
    85.20 Betriebliche Information und Kommunikation
    Classification
    85.20 Betriebliche Information und Kommunikation
    Footnote
    Rez. Amazon: "Die Autoren bezeichnen das Buch im Vorwort als strategischen Führer für Führungskräfte und Entwickler die sich einen Überblick über das Semantic Web und die dahinter stehende Vision machen wollen. Genau diesem Anspruch wird das Buch auch absolut gerecht. Die ersten beiden Kapitel beschreiben die Vision sowie die Möglichkeiten, die sich durch den Einsatz der in den nachfolgenden Kapiteln beschriebenen Techniken bieten. Die Autoren schaffen es anhand vieler praktischer Szenarien (die zwar teilweise meiner Einschätzung nach schon noch in einiger Zukunft liegen, aber die große Vision des ganzen schön vergegenwärtigen) sehr schnell den Leser für die Technik zu begeistern und mehr darüber wissen zu wollen. Die nachfolgenden Kapitel beschreiben die Techniken auf den verschiedenen semantischen Ebenen von XML als Basis für alles weitere, über Web Services, RDF, Taxonomies und Ontologies. Den Autoren gelingt es die beschriebenen Techniken so kurz und prägnant zu erklären, dass sich der Leser danach zumindest ein Bild über die Techniken an sich, sowie über deren komplexes Zusammenspiel machen kann. Auch für Entwickler würde ich das Buch empfehlen, da es einen sehr guten Einstieg in viele doch sehr neue Techniken bietet mit vielen Verweisen auf weitere Literatur. Alles in allem ein sehr gelungenes Buch, das es trotz relativ geringem Umfangs schafft, einen guten Überblick über dieses komplexe Thema zu vermitteln."
  8. De Bellis, N.: Bibliometrics and citation analysis : from the Science citation index to cybermetrics (2008) 0.01
    0.007830973 = product of:
      0.03132389 = sum of:
        0.03132389 = weight(_text_:und in 572) [ClassicSimilarity], result of:
          0.03132389 = score(doc=572,freq=14.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.25933182 = fieldWeight in 572, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=572)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: JASIS 61(2010) no.1, S.205-207 (Jeppe Nicolaisen) Weitere Rez. in: Mitt VÖB 63(2010) H.1/2, S.134-135 (J. Gorraiz u. M. Wieland): "Das Buch entwickelte sich aus einem mehrjährigen Forschungsprojekt mit dem Ziel, den schwer verständlichen quantitativen Kern der Bibliometrie in einem für primär italienische Bibliothekare leichteren historischen und philosophischen Kontext zu vermitteln, wie der Autor im Vorwort erklärt. Dank einer Empfehlung von Eugene Garfield steht dieses Werk nun auch in englischer Übersetzung einer internationalen Leserschaft zur Verfügung. Die über 400 Seiten lange Monografie von de Bellis gibt in acht Kapiteln einen detaillierten und sehr präzisen Überblick über die Bibliometrie und die Zitationsanalyse, ihre Natur und Entwicklung, ihre Kontroverse und Prognose. . . . Das Buch von de Bellis ist sehr empfehlenswert für alle die beabsichtigen, sich mit dieser neuen Wissenschaft zu beschäftigen. Es endet mit folgendem Statement: "Scientometricians have to learn to live in a multidimensional world". Und genau hier liegt die Herausforderung und Schönheit dieses Metiers."
  9. Peters, I.: Folksonomies : indexing and retrieval in Web 2.0 (2009) 0.01
    0.007830973 = product of:
      0.03132389 = sum of:
        0.03132389 = weight(_text_:und in 203) [ClassicSimilarity], result of:
          0.03132389 = score(doc=203,freq=14.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.25933182 = fieldWeight in 203, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=203)
      0.25 = coord(1/4)
    
    Abstract
    Kollaborative Informationsdienste im Web 2.0 werden von den Internetnutzern nicht nur dazu genutzt, digitale Informationsressourcen zu produzieren, sondern auch, um sie inhaltlich mit eigenen Schlagworten, sog. Tags, zu erschließen. Dabei müssen die Nutzer nicht wie bei Bibliothekskatalogen auf Regeln achten. Die Menge an nutzergenerierten Tags innerhalb eines Kollaborativen Informationsdienstes wird als Folksonomy bezeichnet. Die Folksonomies dienen den Nutzern zum Wiederauffinden eigener Ressourcen und für die Recherche nach fremden Ressourcen. Das Buch beschäftigt sich mit Kollaborativen Informationsdiensten, Folksonomies als Methode der Wissensrepräsentation und als Werkzeug des Information Retrievals.
    Footnote
    Zugl.: Düsseldorf, Univ., Diss., 2009 u.d.T.: Peters, Isabella: Folksonomies in Wissensrepräsentation und Information Retrieval Rez. in: IWP - Information Wissenschaft & Praxis, 61(2010) Heft 8, S.469-470 (U. Spree): "... Nachdem sich die Rezensentin durch 418 Seiten Text hindurch gelesen hat, bleibt sie unentschieden, wie der auffällige Einsatz langer Zitate (im Durchschnitt drei Zitate, die länger als vier kleingedruckte Zeilen sind, pro Seite) zu bewerten ist, zumal die Zitate nicht selten rein illustrativen Charakter haben bzw. Isabella Peters noch einmal zitiert, was sie bereits in eigenen Worten ausgedrückt hat. Redundanz und Verlängerung der Lesezeit halten sich hier die Waage mit der Möglichkeit, dass sich die Leserin einen unmittelbaren Eindruck von Sprache und Duktus der zitierten Literatur verschaffen kann. Eindeutig unschön ist das Beenden eines Gedankens oder einer Argumentation durch ein Zitat (z. B. S. 170). Im deutschen Original entstehen auf diese Weise die für deutsche wissenschaftliche Qualifikationsarbeiten typischen denglischen Texte. Für alle, die sich für Wissensrepräsentation, Information Retrieval und kollaborative Informationsdienste interessieren, ist "Folksonomies : Indexing and Retrieval in Web 2.0" trotz der angeführten kleinen Mängel zur Lektüre und Anschaffung - wegen seines beinahe enzyklopädischen Charakters auch als Nachschlage- oder Referenzwerk geeignet - unbedingt zu empfehlen. Abschließend möchte ich mich in einem Punkt der Produktinfo von de Gruyter uneingeschränkt anschließen: ein "Grundlagenwerk für Folksonomies".
  10. Svenonius, E.: Facets as semantic categories (1979) 0.01
    0.0076898634 = product of:
      0.030759454 = sum of:
        0.030759454 = weight(_text_:und in 1426) [ClassicSimilarity], result of:
          0.030759454 = score(doc=1426,freq=6.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.25465882 = fieldWeight in 1426, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1426)
      0.25 = coord(1/4)
    
    Source
    Klassifikation und Erkenntnis II. Proc. der Plenarvorträge und der Sektion 2 u. 3 "Wissensdarstellung und Wissensvermittlung" der 3. Fachtagung der Gesellschaft für Klassifikation, Königstein/Ts., 5.-6.4.1979
  11. Bivins, K.T.: Frame searching and indexing languages (1979) 0.01
    0.0076898634 = product of:
      0.030759454 = sum of:
        0.030759454 = weight(_text_:und in 1429) [ClassicSimilarity], result of:
          0.030759454 = score(doc=1429,freq=6.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.25465882 = fieldWeight in 1429, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1429)
      0.25 = coord(1/4)
    
    Source
    Klassifikation und Erkenntnis II. Proc. der Plenarvorträge und der Sektion 2 u. 3 "Wissensdarstellung und Wissensvermittlung" der 3. Fachtagung der Gesellschaft für Klassifikation, Königstein/Ts., 5.-6.4.1979
  12. Vasarhelyi, P.: Implications of the INTERCONCEPT project for classification and indexing (1979) 0.01
    0.0076898634 = product of:
      0.030759454 = sum of:
        0.030759454 = weight(_text_:und in 82) [ClassicSimilarity], result of:
          0.030759454 = score(doc=82,freq=6.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.25465882 = fieldWeight in 82, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=82)
      0.25 = coord(1/4)
    
    Source
    Klassifikation und Erkenntnis II. Proc. der Plenarvorträge und der Sektion 2 u. 3 "Wissensdarstellung und Wissensvermittlung" der 3. Fachtagung der Gesellschaft für Klassifikation, Königstein/Ts., 5.-6.4.1979
  13. Harms, I.; Schweibenz, W.: Usability engineering methods for the Web (2000) 0.01
    0.0076898634 = product of:
      0.030759454 = sum of:
        0.030759454 = weight(_text_:und in 6482) [ClassicSimilarity], result of:
          0.030759454 = score(doc=6482,freq=6.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.25465882 = fieldWeight in 6482, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=6482)
      0.25 = coord(1/4)
    
    Content
    Der Beitrag präsentiert eine Studie über Evaluationsmethoden zur WebUsability. Er beschreibt die "Heuristics for Web Communications" und berichtet von den praktischen Erfahrungen mit den Heuristiken, die mit dem "Keevil Index" verglichen und mit Benutzertests mit lautem Denken kombiniert werden. Das Ergebnis zeigt, dass eine Evaluation mit den beschriebenen Heuristiken gegenüber dem "Keevil Index" mehr Zeit und Aufwand erfordert, aber konsistentere Ergebnisse bringt. Die Heuristiken haben sich sowohl in der experten-zentrierten Evaluation als auch in Kombination mit dem Benutzertest insgesamt als geeignete Evaluationsmethode erwiesen
  14. Bargheer, M.: Quality control and evaluation of scientific Web resources (2003) 0.01
    0.0076898634 = product of:
      0.030759454 = sum of:
        0.030759454 = weight(_text_:und in 2767) [ClassicSimilarity], result of:
          0.030759454 = score(doc=2767,freq=6.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.25465882 = fieldWeight in 2767, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=2767)
      0.25 = coord(1/4)
    
    Abstract
    Wissenschaftliche Informationen im Internet gewinnen zunehmend an Bedeutung. Um sie als zuverlässige Ressourcen für die wissenschaftliche Arbeit zu erschließen, müssen sie auf ihre Qualität geprüft werden - eine Aufgabe, die vermehrt von wissenschaftlichen Bibliotheken über ihre Internetdienste wie Subject Gateways, Digitale oder Virtuelle Bibliotheken wahrgenommen wird. Der vorliegende Artikel bietet eine medientheoretische Diskussion zum wissenschaftlichen Informationsraum im Internet und den medienbedingten Auswirkungen auf die Inhalte sowie einen Überblick zur Entwicklung von Evaluationsansätzen für Internetressourcen. Die theoretischen Abhandlungen werden durch einen umfangreichen Serviceteil ergänzt, der detailliert Qualitätskriterien und den Evaluierungsprozess in einer Weise aufzeigt, welche die Anpassung an (fach-)spezifische Anforderungen ermöglicht.
    Source
    Bibliothek: Forschung und Praxis. 27(2003) H.3, S.153-169
  15. Walravens, H.: ISBN - International Standard Book Number : bibliography ; literature on the ISBN and ISMN (International Standard Music Number) from all over the world : compiled and with a review about 40 years ISBN = ISBN - Internationale Standard Buchnummer (2011) 0.01
    0.0076898634 = product of:
      0.030759454 = sum of:
        0.030759454 = weight(_text_:und in 23) [ClassicSimilarity], result of:
          0.030759454 = score(doc=23,freq=6.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.25465882 = fieldWeight in 23, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=23)
      0.25 = coord(1/4)
    
    Abstract
    Innovative Ideen setzen sich in den meisten Fällen schwer durch. Die elektronische Revolution erfordert neues Management und neue Organisation auf dem Informationsmarkt. Ein Instrument, das zunehmend an Bedeutung gewann, ist die ISBN Nummer, die jedem Buch seine Individualsignatur gibt und daher zur Globalisierung des Marktes beitrug. Hartmut Walravens hat die Entwicklung der ISBN maßgeblich beeinflusst, die durch die umfassende Bibliographie und einen Überblick dokumentiert wird.
  16. Rubin, R.: Foundations of library and information science (2010) 0.01
    0.0076898634 = product of:
      0.030759454 = sum of:
        0.030759454 = weight(_text_:und in 781) [ClassicSimilarity], result of:
          0.030759454 = score(doc=781,freq=6.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.25465882 = fieldWeight in 781, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=781)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in BuB 63(2011) H.11/12, S.821-822 (K. Umlauf): "... Das mit 40 Seiten vergleichsweise kurze Kapitel rückt die Dimensionen von Themen wie Klassifikation, Thesauri, Katalogisierung, Bibliografien, Indexe, Datenformate, semantisches Web und Metatdaten in die richtige Dimension..."
    RSWK
    Informations- und Dokumentationswissenschaft
    Subject
    Informations- und Dokumentationswissenschaft
  17. RDA Toolkit (2) : August 2017 (2017) 0.01
    0.0076898634 = product of:
      0.030759454 = sum of:
        0.030759454 = weight(_text_:und in 4995) [ClassicSimilarity], result of:
          0.030759454 = score(doc=4995,freq=6.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.25465882 = fieldWeight in 4995, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=4995)
      0.25 = coord(1/4)
    
    Abstract
    Am 8. August 2017 ist das neue Release des RDA Toolkits<http://www.rdatoolkit.org/august2017release> erschienen. Mit diesem Release ist die deutsche Übersetzung auf demselben Stand wie die englische Originalausgabe vom April 2017. Alle Änderungen aus dem Proposalverfahren 2016 und auch aus den Fast Tracks (für kleinere Änderungen) sind eingearbeitet und übersetzt. Ebenfalls aktualisiert wurden Glossar und RDA Registry<http://www.rdaregistry.info/>. Die deutsche Übersetzung ist im Zeitplan des 3R-Projekts (RDA Toolkit Restructure and Redesign Projekt). Alle anderen Übersetzungen des RDA Toolkits werden später im Jahr folgen. Die Änderungsdokumentation für das August-Release des RDA Toolkit finden Sie im RDA-Info-Wiki<https://wiki.dnb.de/x/3xLSBg>. Aktualisiert wurden auch die von der Fachgruppe Erschließung (FG E) kooperativ erarbeiteten Anwendungsrichtlinien für den deutschsprachigen Raum (D-A-CH). Diese sind auch in Französisch abrufbar. Eine Gesamtübersicht der D-A-CH AWR pro Kapitel ist im RDA Toolkit unter dem Reiter "Ressourcen". Die Änderungsdokumentation der D-A-CH AWR finden Sie ebenfalls im RDA-Info-Wiki.<https://wiki.dnb.de/x/1hLSBg>. [Inetbib vom 09.08.2017].
  18. New directions in human information behavior (2006) 0.01
    0.0076273065 = product of:
      0.030509226 = sum of:
        0.030509226 = weight(_text_:und in 1577) [ClassicSimilarity], result of:
          0.030509226 = score(doc=1577,freq=34.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.25258717 = fieldWeight in 1577, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=1577)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: Mitt VÖB 59(2006) H.2, S.83-88 (O. Oberhauser): "Dieser neue Sammelband möchte Interessenten aus den Bereichen Informationswissenschaft, Bibliothekswesen sowie Sozial- und Evolutionspsychologie aktuelle Entwicklungen und neue theoretische Ansätze auf dem Gebiet des menschlichen Informationsverhaltens-human information behavio(u)r bzw. kurz HIB - vermitteln. Es geht dabei um die komplexen Informationsprozesse, die in das alltägliche Sozialverhalten und die Lebensabläufe menschlicher Individuen eingebettet sind. Die beiden Herausgeber sind in diesem Teilbereich der Informationswissenschaft auch durch eine Reihe anderer Publikationen einschlägig ausgewiesen: Amanda Spink (vormals Universität Pittsburgh), die sich kürzlich selbst in aller Bescheidenheit als "world-class ICT researcher" beschrieb,' ist Professorin an der Technischen Universität Queensland (Australien); Charles Cole ist Research Associate (wissenschaftlicher Projektmitarbeiter) an der McGill University in Montreal und selbständiger Berater für Informationsdesign. Gemeinsam haben Spink und Cole zuletzt, ebenfalls bei Springer, eine weitere Aufsatzsammlung - New Directions in Cognitive Information Retrieval (2005) - herausgegeben. Das Buch versammelt zwölf Beiträge ("Kapitel"), die in fünf Sektionen dargeboten werden, wobei es sich allerdings bei den Sektionen 1 und 5 (= Kapitel 1 und 12) um Einleitung und Zusammenschau der Herausgeber handelt. Während erstere eigentlich nur eine Übersicht über die Gliederung und die Beiträge des Buches, die jeweils mit Abstracts beschrieben werden, darstellt, kann letztere als eigenständiger Beitrag gelten, der versucht, die in diesem Band angesprochenen Aspekte in einem vorläufigen HIB-Modell zu integrieren.
    ... New Directions in Human Information Behavior ist ein Sammelband, der eindrucksvoll dokumentiert, dass sich die Forschung zu den Themen Informationssuche bzw. Informationsverhalten - ein in unserem Sprachraum freilich wenig bekannter und weitgehend unrezipierter Teilbereich der Informationswissenschaft - gegenwärtig stark im Umbruch befindet. Der Trend von den bisherigen, eher an Paradigmen wie Dokument, fachliche Informationssuche, Bibliothek, wissenschaftliche Informationsnutzung orientierten Ansätzen hin zur Betrachtung alltäglicher Situationen und weiterer Bevölkerungsschichten sowie die Einbeziehung von neuen bzw. aus anderen sozialwissenschaftlichen Bereichen stammenden theoretischen Überlegungen ist nicht zu übersehen. Mitunter mutet dies wie eine (Wieder- bzw. Neu-)Entdeckung der Kommunikationswissenschaft durch die Informationswissenschaft an - oder auch umgekehrt, zumal einige der im vorliegenden Band Schreibenden aus communication departments kommen. Wie auch immer, wer sich für den gegenwärtigen Stand der Entwicklung auf dem HIB-Sektor interessiert, kommt um dieses Buch nicht herum. Allerdings taucht darin der Begriff framework - erfahrungsgemäss oft mit weniger handfesten Inhalten korreliert und mir daher stets ein wenig suspekt - für meinen Geschmack etwas zu häufig auf. HIB ist leider nicht das einzige Akronym, das hier eingeführt wird. Bisher ging es im gegenständlichen Kontext ja bloss um IS (information seeking) - ein neben IR (information retrieval) auch schon bekanntes und eingeführtes Kurzwort.
    Angesichts des skizzierten Umbruchs kann HIB wohl akzeptiert werden, doch ist es - wie dieses Buch zu suggerieren trachtet - wirklich notwendig, daneben auch noch IBEC (information behaviour in everyday contexts), ELIS (everyday life information seeking), HIOB (human information organizing behaviour), CIB (collaborative information behaviour), CIS&R (collaborative information seeking & retrieval) und HICB (human information co-ordinating behaviour) zu verwenden? Wohl kaum, doch wer wird bzw. kann ein solches Spamming verhindern? Würde der akademische Ernst nicht jede Schadenfreude verbieten, so könnte man konstatieren, dass diese Akronymenflut zu unnötigen Druckfehlern führt (z.B. p.172, wo sogar in einer Zwischenüberschrift "HIBO" statt "HIOB" zu lesen ist). In herausgeberischer Hinsicht ist weiter zu bemängeln, dass die meist ansehnlichen und sich naheliegenderweise zum Teil überschneidenden Literaturverzeichnisse der einzelnen Beiträge besser in einer Gesamtbibliographie mit konsistentem Zitierstil zu vereinen gewesen wären, zumal sie in der vorliegenden Form auch etwas inkonsistent und nicht fehlerfrei sind. In diese Richtung zu investieren wäre sinnvoller gewesen als in die Erstellung eines geradezu erbärmlichen Sachregisters (dessen Verriss den Rahmen dieser Besprechung sprengen würde), welches auf Herausgeber bzw. Lektorat - falls es letzteres überhaupt noch gibt - ein eher fahles Licht wirft. Abgesehen davon fielen mir nur einige fehlerhafte bzw. unvollständige Angaben der Institutszugehörigkeiten am Beginn der einzelnen Kapitel (z.B. p.113, p.203) sowie die nicht ganz homogen gestalteten Kurzbiographien der Verfasser/innen am Ende des Buches auf. Der Band selbst ist von gewohnt solider Springer-Machart und zielt schon aufgrund seines hohen Preis wohl nur auf institutionelle Käufer ab."
  19. Broughton, V.: Essential thesaurus construction (2006) 0.01
    0.0075461147 = product of:
      0.030184459 = sum of:
        0.030184459 = weight(_text_:und in 3924) [ClassicSimilarity], result of:
          0.030184459 = score(doc=3924,freq=52.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.2498984 = fieldWeight in 3924, product of:
              7.2111025 = tf(freq=52.0), with freq of:
                52.0 = termFreq=52.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.015625 = fieldNorm(doc=3924)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: Mitt. VÖB 60(2007) H.1, S.98-101 (O. Oberhauser): "Die Autorin von Essential thesaurus construction (and essential taxonomy construction, so der implizite Untertitel, vgl. S. 1) ist durch ihre Lehrtätigkeit an der bekannten School of Library, Archive and Information Studies des University College London und durch ihre bisherigen Publikationen auf den Gebieten (Facetten-)Klassifikation und Thesaurus fachlich einschlägig ausgewiesen. Nach Essential classification liegt nun ihr Thesaurus-Lehrbuch vor, mit rund 200 Seiten Text und knapp 100 Seiten Anhang ein handliches Werk, das seine Genese zum Grossteil dem Lehrbetrieb verdankt, wie auch dem kurzen Einleitungskapitel zu entnehmen ist. Das Buch ist der Schule von Jean Aitchison et al. verpflichtet und wendet sich an "the indexer" im weitesten Sinn, d.h. an alle Personen, die ein strukturiertes, kontrolliertes Fachvokabular für die Zwecke der sachlichen Erschliessung und Suche erstellen wollen bzw. müssen. Es möchte dieser Zielgruppe das nötige methodische Rüstzeug für eine solche Aufgabe vermitteln, was einschliesslich der Einleitung und der Schlussbemerkungen in zwanzig Kapiteln geschieht - eine ansprechende Strukturierung, die ein wohldosiertes Durcharbeiten möglich macht. Zu letzterem tragen auch die von der Autorin immer wieder gestellten Übungsaufgaben bei (Lösungen jeweils am Kapitelende). Zu Beginn der Darstellung wird der "information retrieval thesaurus" von dem (zumindest im angelsächsischen Raum) weit öfter mit dem Thesaurusbegriff assoziierten "reference thesaurus" abgegrenzt, einem nach begrifflicher Ähnlichkeit angeordneten Synonymenwörterbuch, das gerne als Mittel zur stilistischen Verbesserung beim Abfassen von (wissenschaftlichen) Arbeiten verwendet wird. Ohne noch ins Detail zu gehen, werden optische Erscheinungsform und Anwendungsgebiete von Thesauren vorgestellt, der Thesaurus als postkoordinierte Indexierungssprache erläutert und seine Nähe zu facettierten Klassifikationssystemen erwähnt. In der Folge stellt Broughton die systematisch organisierten Systeme (Klassifikation/ Taxonomie, Begriffs-/Themendiagramme, Ontologien) den alphabetisch angeordneten, wortbasierten (Schlagwortlisten, thesaurusartige Schlagwortsysteme und Thesauren im eigentlichen Sinn) gegenüber, was dem Leser weitere Einordnungshilfen schafft. Die Anwendungsmöglichkeiten von Thesauren als Mittel der Erschliessung (auch als Quelle für Metadatenangaben bei elektronischen bzw. Web-Dokumenten) und der Recherche (Suchformulierung, Anfrageerweiterung, Browsing und Navigieren) kommen ebenso zur Sprache wie die bei der Verwendung natürlichsprachiger Indexierungssysteme auftretenden Probleme. Mit Beispielen wird ausdrücklich auf die mehr oder weniger starke fachliche Spezialisierung der meisten dieser Vokabularien hingewiesen, wobei auch Informationsquellen über Thesauren (z.B. www.taxonomywarehouse.com) sowie Thesauren für nicht-textuelle Ressourcen kurz angerissen werden.
    In den stärker ins Detail gehenden Kapiteln weist Broughton zunächst auf die Bedeutung des systematischen Teils eines Thesaurus neben dem alphabetischen Teil hin und erläutert dann die Elemente des letzteren, wobei neben den gängigen Thesaurusrelationen auch die Option der Ausstattung der Einträge mit Notationen eines Klassifikationssystems erwähnt wird. Die Thesaurusrelationen selbst werden später noch in einem weiteren Kapitel ausführlicher diskutiert, wobei etwa auch die polyhierarchische Beziehung thematisiert wird. Zwei Kapitel zur Vokabularkontrolle führen in Aspekte wie Behandlung von Synonymen, Vermeidung von Mehrdeutigkeit, Wahl der bevorzugten Terme sowie die Formen von Thesauruseinträgen ein (grammatische Form, Schreibweise, Zeichenvorrat, Singular/Plural, Komposita bzw. deren Zerlegung usw.). Insgesamt acht Kapitel - in der Abfolge mit den bisher erwähnten Abschnitten didaktisch geschickt vermischt - stehen unter dem Motto "Building a thesaurus". Kurz zusammengefasst, geht es dabei um folgende Tätigkeiten und Prozesse: - Sammlung des Vokabulars unter Nutzung entsprechender Quellen; - Termextraktion aus den Titeln von Dokumenten und Probleme hiebei; - Analyse des Vokabulars (Facettenmethode); - Einbau einer internen Struktur (Facetten und Sub-Facetten, Anordnung der Terme); - Erstellung einer hierarchischen Struktur und deren Repräsentation; - Zusammengesetzte Themen bzw. Begriffe (Facettenanordnung: filing order vs. citation order); - Konvertierung der taxonomischen Anordnung in ein alphabetisches Format (Auswahl der Vorzugsbegriffe, Identifizieren hierarchischer Beziehungen, verwandter Begriffe usw.); - Erzeugen der endgültigen Thesaurus-Einträge.
    Diese Abschnitte sind verständlich geschrieben und trotz der mitunter gar nicht so einfachen Thematik auch für Einsteiger geeignet. Vorteilhaft ist sicherlich, dass die Autorin die Thesauruserstellung konsequent anhand eines einzelnen thematischen Beispiels demonstriert und dafür das Gebiet "animal welfare" gewählt hat, wohl nicht zuletzt auch deshalb, da die hier auftretenden Facetten und Beziehungen ohne allzu tiefgreifende fachwissenschaftliche Kenntnisse für die meisten Leser nachvollziehbar sind. Das methodische Gerüst der Facettenanalyse wird hier deutlich stärker betont als etwa in der (spärlichen) deutschsprachigen Thesaurusliteratur. Diese Vorgangsweise soll neben der Ordnungsbildung auch dazu verhelfen, die Zahl der Deskriptoren überschaubar zu halten und weniger auf komplexe (präkombinierte) Deskriptoren als auf postkoordinierte Indexierung zu setzen. Dafür wird im übrigen das als Verfeinerung der bekannten Ranganathanschen PMEST-Formel geltende Schema der 13 "fundamental categories" der UK Classification Research Group (CRG) vorgeschlagen bzw. in dem Beispiel verwendet (Thing / Kind / Part / Property; Material / Process / Operation; Patient / Product / By-product / Agent; Space; Time). Als "minor criticism" sei erwähnt, dass Broughton in ihrem Demonstrationsbeispiel als Notation für die erarbeitete Ordnung eine m.E. schwer lesbare Buchstabenfolge verwendet, obwohl sie zugesteht (S. 165), dass ein Zifferncode vielfach als einfacher handhabbar empfunden wird.
    In einem abschliessenden Kapitel geht das Buch auf Thesauruspflege und -verwaltung ein, wobei auch das Thema "Thesaurussoftware" angerissen wird - letzteres vielleicht ein wenig zu kurz. Erst hier mag manchem unbefangenen Leser bewusst werden, dass die in den vorhergehenden Kapiteln dargestellte Methodik eigentlich ohne den Einsatz dezidierter Software besprochen wurde, ja vielleicht auch so besprochen werden musste, um ein entsprechendes Verständnis herzustellen. In der nachfolgenden zweiseitigen Conclusio wird erwähnt, dass die britische Norm Structured Vocabularies for Information Retrieval (BS 8723) vor einer Neufassung stehe - was den Rezensenten darauf hinzuweisen gemahnt, dass sich dieses Buch natürlich ausschliesslich auf den anglo-amerikanischen Sprachraum und die dort geltenden Thesaurus-Gepflogenheiten bezieht. Der relativ umfangreiche Anhang beinhaltet ausser Materialie zum erwähnten Demonstrationsbeispiel auch ein nützliches Glossarium sowie ein professionell gefertigtes Sachregister. Literaturhinweise werden - in sparsamer Dosierung - jeweils am Ende der einzelnen Kapitel gegeben, sodass sich die "Bibliography" am Ende des Buches auf einige Normen und zwei Standardwerke beschränken kann. Realistisch betrachtet, darf vermutlich nicht davon ausgegangen werden, dass Leser, die dieses Buch durchgearbeitet haben, sogleich in der Lage sein werden, eigenständig einen Thesaurus zu erstellen. Ein Lehrbuch allein kann weder einen Kurs noch die praktische Erfahrung ersetzen, die für eine solche Tätigkeit vonnöten sind. Ich kann mir aber gut vorstellen, dass die Kenntnis der in diesem Buch vermittelten Inhalte sehr wohl in die Lage versetzt, in einem Team, das einen Thesaurus erstellen soll, kompetent mitzuarbeiten, mit den Konzepten und Fachtermini zurechtzukommen und selbst konstruktive Beiträge zu leisten. Ausserdem erscheint mir das Werk hervorragend als Begleitmaterial zu einer Lehrveranstaltung geeignet - oder auch als Grundlage für die Planung einer solchen. Ein britischer Einführungstext eben, im besten Sinne."
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  20. Thesaurofacet: a new concept in subject retrieval schemes (1972) 0.01
    0.007399574 = product of:
      0.029598296 = sum of:
        0.029598296 = weight(_text_:und in 1266) [ClassicSimilarity], result of:
          0.029598296 = score(doc=1266,freq=2.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.24504554 = fieldWeight in 1266, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=1266)
      0.25 = coord(1/4)
    
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus

Authors

Languages

  • d 32
  • m 3
  • nl 1
  • More… Less…

Types

  • a 750
  • m 299
  • el 97
  • s 91
  • i 21
  • n 17
  • x 12
  • r 10
  • b 7
  • ? 1
  • p 1
  • v 1
  • More… Less…

Themes

Subjects

Classifications